人工知能は、テキストやビデオを含むあらゆる種類の画像を作成できます。作成者が人間であるかどうかを判断するにはどうすればよいでしょうか? 問題は、ビデオや画像を誰が作成したかではなく、それが現実の状況を表しているか、またはアルゴリズムが機能しているかです。
例えば、人工的に偽造された画像が偽情報のツールとして使用される可能性がある場合、その画像の真正性を確立することは極めて重要です。画像や映画では追跡可能性が重要です。 ディープフェイク そしてハイパートルケージ。
AI によって生成された作品であることを示す透かし?
テクノロジーにおける「若き日の失敗」はもうありません。6本指のデザインのキャラクターや、リアルな脚を持てないデジタルヒューマノイドに頼ることはできません。
今日の作品はより信頼性があります。2024年10月にGoogle DeepMindのチームが科学雑誌に論文を発表しました。 自然 SynthIDソリューションを提案 、(新しいウィンドウ)。
そうすると、人工知能モデルから派生したすべての作品に、人間の目には見えないマークを組み込むことが可能になります。テキスト、アニメーション、画像など。このタトゥーの起源について疑問がある場合は、デジタルで見つけることもできます。
回避可能なマーカー
店頭の衣料品に取り付けられた盗難防止装置を除去または無効化する技術は常に存在します。たとえば、テキストを分析する場合、単語の置き換え、言い換え、翻訳などの意図的な変更に耐える必要があります。テストでは、より長く創造的なテキストの方がパフォーマンスが優れていることが示されています。主題が極端に事実に基づいた、または合成された方法で提示された場合、それほど効果的ではありません。
問題のあるコンテンツを識別するために、テクノロジーだけに頼るべきではないことは明らかです。私たちが目にするビデオ、画像、またはテキストに対して批判的になるのは私たちの責任です。特に、作品に感情的または政治的な意味がある場合はそうです。これらの作品の現実と関連性を理解するために、私たちは人間の知性を放棄してはなりません。
人工知能モデルの設計段階から組み込まれる保護対策
当初のセキュリティ上の考慮事項は、大規模言語モデルを標的としたあらゆる侵害に適用されます。大規模言語モデルは、クエリを理解してコンテンツを生成できる機械学習メカニズムです。2024 年 10 月、Laboratoire d'Innovation Numérique (LINC) と Commission Nationales Informatique et Libertes (CNIL) によって 2 つのレポートが公開され、この分野に存在する主要なリスクのいくつかが概説されました。
また、逆流の可能性もあります。AI に質問すると、以前のトレーニング セッションで取得した個人情報が提供されます。また、AI に、機密情報を共有するようユーザーに促すメッセージを作成するように指示することもできます。データセットを AI トレーニングに使用する前に、匿名化することが重要です。
有害な反応を予測できることも重要です。AI は暴力的または憎悪的なコンテンツの作成に使用される可能性があります。または、悪意のあるコンピューター プログラムを開発するために使用される可能性があります。
安全文化の確立
主なセキュリティ推奨事項は文書に記載されています。 (新しいウィンドウ)国家情報システム安全保障庁によって設立 、(新しいウィンドウ)、 2024年夏までに。
これは、上流の情報の品質から、データライブラリ、アルゴリズムのルール、デジタルマシンのストレージ(特にクラウド)に変更を加える権限を持つ人物の特定に至るまで、人工知能モデルの開発におけるすべてのプロセスを文書化することが重要であるということを思い出させます。
技術者だけでなく、今後 AI ツールを扱う機会が増える一般の人々も、これらの原則を認識することが重要です。AI は、私たちの職業生活と私生活の両方で、ますます重要な役割を果たすようになるでしょう。
ChatGPT統合 自動化プロセス向け