マイクロソフトは、AIが生成するディープフェイクの増大する脅威に対抗するための新たな法案を可決するよう議会に求めた。
ポイント
- Microsoftは連邦ディープフェイク詐欺法を提唱しています。
- 必須の合成コンテンツ識別ツールを提案します。
- AIによって生成された露骨なコンテンツを対象とするために既存の法律を改正することを提案します。
- FCCはAI音声ロボコールを禁止。
- カマラ・ハリス米国副大統領の動画で浮き彫りになったディープフェイク問題。
マイクロソフトは議会に対し、AIが生成したディープフェイクを対象とした新たな法案を可決するよう促した。Microsoftの副会長兼社長であるブラッド・スミス氏は、ディープフェイク技術によってもたらされる増大する脅威に対処することが緊急であると強調した。
Microsoftの報告書では、合成コンテンツ詐欺の民事と刑事の両方の側面に対処する連邦ディープフェイク詐欺法の創設など、ディープフェイクの悪用を防ぐためのいくつかの法的措置について概説している。この法律には、刑事告発、民事の差押え、差し止め命令が含まれる可能性があります。
この報告書はまた、合成コンテンツを特定するための高度な出典ツールの使用の義務化を支持し、一般の人々がオンラインで遭遇する情報の出所を識別できるようにします。これは、デジタル情報の信頼性を維持し、フェイクニュースの拡散を抑制するために非常に重要です。
ブラッド・スミス氏は、「議会はAIシステムプロバイダに対し、最先端の出所ツールを使用して合成コンテンツにラベルを付けることを要求すべきである。これは情報エコシステムの信頼を構築するために不可欠であり、コンテンツがAIによって生成されたものなのか、操作されたものなのかを一般の人々がよりよく理解できるようになります。」
さらにマイクロソフトは、児童搾取と同意のない露骨な画像に関する既存の法律を更新して、AIが生成したコンテンツを対象とすることを提案しています。これにより、法的枠組みがテクノロジーの進歩に追いつき、脆弱な人々を保護することが保証されます。
最近、AIの悪用に対する規制措置の強化を反映して、FCCはロボコールでのAI生成音声の使用を禁止しました。これは、カマラ・ハリス米国副大統領のディープフェイク動画が広く出回った事件を受けてのもので、ディープフェイク技術の危険性を例示するものとなっている。
民主技術センター(CDT)のような非営利団体もディープフェイクの悪用と闘っている。CDTのシニア政策アナリストであるティム・ハーパー氏は、2024年が選挙におけるAIにとって重要な転換点となると指摘し、技術的操作と戦うための準備を促した。
分析
- 規制の必要性:連邦ディープフェイク詐欺法の制定の要求は、新たな技術的脅威に対処するための最新の法的枠組みの必要性を浮き彫りにしています。
- 公共の信頼:合成コンテンツの強制的な識別は、デジタル情報の完全性と公共の信頼を維持するために不可欠です。
- 技術的保護:AI生成コンテンツを含めるために既存の法律を改正する提案は、デジタル時代における包括的な法的保護の必要性を反映しています。