欧州連合人工知能(AI)法が施行され、AIに関する画期的な規制が設定されました。この法律は、AIのユースケースをリスクに基づいて分類し、コンプライアンスのタイムラインと罰則の概要を定めています。
ポイント
- EUAI法が発効。
- AIユースケースをリスク別に分類。
- 高リスクAIアプリケーションのコンプライアンスタイムライン。
- 違反に対する罰則。
欧州連合人工知能(AI)法が、EU議会での可決から5か月後に正式に発効した。この画期的な規制は、リスクレベルに基づいてAIユースケースを分類し、各カテゴリのコンプライアンスタイムラインと罰則を詳細に規定することで、世界規模でAIガバナンスのペースを整えることを目的としています。
AIユースケースの分類とコンプライアンス
同法はリスクベースの分類システムを採用しており、AIアプリケーションをリスクなし、リスク最小、リスク高、禁止の4つのカテゴリに分類しています。各AI企業に適用されるルールは、AIシステムがどのカテゴリに分類されるかによって異なります。顔認識、生体認証、重要な公共サービス、教育、雇用、医療ソフトウェアなどに使用される高リスクAIシステムは、8月1日から6か月間、厳格な規制に準拠する必要があります。
これらの高リスクのアプリケーションは、監査のために規制当局にトレーニングデータセットを提示し、人間による監督の証拠を提供し、市場投入前の適合性テストを実施する必要があります。政府機関や公共サービスで使用されるAIシステムもEUデータベースに登録する必要があります。
制限を最小限に抑えた生成AI
生成AIシステムの開発者向けに、同法はこれらのモデルのほとんどを汎用AI(GPAI)として分類し、最小限のリスクとしてラベル付けします。この分類は、MetaAI、ChatGPT、Perplexity、ClaudeAIなどのトップAIチャットボットが大きな影響を受けないことを意味します。ただし、トレーニングデータの開示を通じて高い透明性を維持し、EUの著作権規則に準拠する必要があります。
https://twitter.com/Europarl_EN/status/1818296645783382016
違反に対する罰則
同法は違反を抑止するための厳しい罰則を定めており、禁止されたAIシステムに対する世界の年間売上高の7%から、規制当局に誤った情報を提供した場合の罰金は1.5%に及ぶ。EU加盟国は2025年8月までに同法を施行する機関を設立する必要がある。
###解説
- EUAI法の施行は、人工知能の規制における重要な一歩を示しています。この法律は、AIのユースケースをリスクに基づいて分類し、明確なコンプライアンスタイムラインを設定することにより、責任あるAIの開発と展開を確保することを目的としています。
- 高リスクAIアプリケーションは、透明性と安全性の向上を目的とした、データセット監査、人間による監視、市場投入前テストなどの厳しい要件に直面しています。これは、公共の利益を保護し、AIに関連する潜在的なリスクを軽減するというEUの取り組みを反映しています。
- 生成AIシステムは、最小限のリスクとして分類されていますが、それでも透明性と著作権の規則を遵守し、AI開発における説明責任を確保する必要があります。違反に対する罰則は、規制基準を遵守し、倫理的なAI慣行を維持することの重要性を強調しています。
- EUAI法は、AIの規制を検討している他の国々のモデルとなり、世界的なAIガバナンスの先例となる可能性がある。これらの規制を施行し、その実効性を確保するには、2025年8月までに実施機関を設立することが重要です。