元OpenAI科学者のIlya Sutskever氏は、AIの安全性と開発に注力するためにSafeSuperintelligence,Inc.(SSI)を立ち上げました。
概要
- 元OpenAI科学者のIlyaSutskever氏がSafeSuperintelligence,Inc.(SSI)を立ち上げました。
- SSIは、AIの安全性と機能を同時に開発することに重点を置いています。
- 同社はパロアルトとテルアビブに拠点を置いています。
元OpenAIのチーフサイエンティストであるIlya Sutskever氏は、元OpenAIエンジニアのDaniel Levy氏および投資家のDaniel Gross氏とともに、SafeSuperintelligence,Inc.(SSI)を立ち上げました。この新しい事業は、安全性を優先しながら人工知能(AI)の進歩に注力しています。パロアルトとテルアビブに拠点を置くSSIは、AI開発の進歩を短期的な商業的圧力から確実に守ることを目指しています。
「当社は安全性を特に重視することで、AIの進歩が責任と倫理を維持することを保証します」とサツケヴァー氏は述べています。
Sutskever氏とLevy氏は、汎用人工知能(AGI)として知られる人間より賢いAIシステムを管理するために設立されたSuperalignmentチームに所属した後、2024年5月にOpenAIを去りました。しかし、Sutskever氏と他の研究者が去った後、OpenAIはチームを解散した。
SSIの立ち上げは、AGIに関連するリスクに対する懸念が高まる中で行われました。イーサリアムの共同創設者ヴィタリック・ブテリン氏は、AGIは「危険」であると述べているが、企業の強欲や軍事的悪用よりも脅威は小さいと考えている。一方、テスラのイーロン・マスク最高経営責任者(CEO)やアップルの共同創業者スティーブ・ウォズニアック氏を含む2,600人以上のテクノロジー関係者は、AIの「深刻なリスク」を評価するためAIトレーニングを6か月間一時停止することを主張している。
解説
- AIテクノロジーが急速に進歩し続ける中、SSIがAIの安全性を重視することは非常に重要です。
- Sutskever氏とLevy氏のOpenAIからの離脱は、倫理的なAI開発に特化した独立した取り組みの重要性を浮き彫りにしました。
- AIトレーニングの一時停止に対する著名な技術者からの支持は、AIの潜在的なリスクと利点を慎重に検討する必要性を強調しています。
