ポイント
- 国会議員は、AIが生成した誤った情報についてGoogleに回答を求めています。
- GoogleのAI概要機能は、誤った潜在的に危険な情報を出力しました。
- アダム・シフ下院議員が11の質問リストを提示して調査を主導します。
- 風刺や誤った情報を識別するAIの能力に対する懸念。
アダム・シフ下院議員率いる米国の議員らは、不正確で潜在的に危険な情報を生成することが判明したグーグルのAI概要機能について重大な懸念を表明した。GoogleのAI概要は、検索結果の上部に要約された回答を表示するように設計された機能ですが、事実の情報と風刺や誤った情報を区別できないため、厳しい批判にさらされています。
AIの概要機能には、多くの場合、短いテキストの回答、画像、サポートリンクが含まれています。ただし、この機能では信頼できない情報源が引用される場合があり、誤った情報の拡散につながることがいくつかの報告で示されています。たとえば、風刺ニュースサイト「TheOnion」を引用して、AIがユーザーに鉱物を摂取するために岩石を食べるよう提案したケースもあった。
これらの問題を受けて、シフ下院議員と他の議員4人はグーグルのサンダー・ピチャイ最高経営責任者(CEO)に書簡を送り、AI概要機能に関する11の具体的な質問への回答を求めた。これらの質問には、Googleが提供される情報の正確性をどのように確保しているか、事実確認に使用される方法、AIの意思決定プロセスの透明性など、さまざまな懸念事項が含まれています。
シフ氏の事務所からの書簡は、より一層の説明責任と虚偽の情報の流布を防ぐための改善策の必要性を強調している。議員らは、AIが生成した応答を実験的とラベル付けしたり、コンテンツポリシーに違反する応答を削除したりするなど、これらの問題に対処するためのGoogleの継続的な取り組みを認めている。しかし、彼らは、信頼できる情報源としてのGoogleの評判を維持するには、さらに多くのことを行う必要があると主張しています。
AI概要の主な問題の1つは、情報源が信頼できるものなのか風刺的なものなのかを明らかに識別できないことです。このため、バラク・オバマが初のイスラム教徒の米国大統領であると誤って主張するなど、AIが誤りであることが暴かれた陰謀論を広める事例が生じている。このような不正確さは、情報を効果的にフィルタリングして検証できるAIシステム開発の課題を浮き彫りにします。
より広範な問題は、人間のように「思考」したり「推論」したりしないAIの性質に起因しています。Googleで使用されているものを含む生成AIシステムは、人間の言語を模倣していますが、真の理解と状況認識が欠けています。この根本的な制限は、OpenAIのGPT-2やMetaの今はなき「Gaoptica」システムのような大規模言語モデルの初期の頃から、根強い問題となっています。
現代の情報普及におけるAIの重要な役割を考慮すると、AIによって生成されたコンテンツの正確性と信頼性を確保することが不可欠です。Googleの慣行に対する議員らの調査は、公共情報へのAI利用における監視と説明責任を強化するための一歩となる。
解説
- GoogleのAI概要機能の精査は、情報を正確にフィルタリングして検証できるAIシステムを開発することの重要性を浮き彫りにしています。誤った情報の拡散を防ぐには、AIの信頼性を確保することが重要です。
- 議員の関与は、AIによって生成されたコンテンツに関連する潜在的なリスクに対する認識が高まっていることを意味します。彼らの問い合わせは、AIアプリケーションの透明性と説明責任を促進することを目的としています。
- コンテキストを理解できないなど、AIに固有の制限は、AI開発における継続的な課題を浮き彫りにしています。これらの問題に対処するには、継続的な改善とテクノロジー企業と規制当局間の協力が必要です。