元OpenAI科学者のIlya Sutskever氏は、AIの安全性と機能を優先するためにSafeSuperintelligence,Inc.(SSI)を立ち上げました。
概要
- SSIはAIの安全性と機能の開発に重点を置いています。
- 創設者には、元OpenAIメンバーと投資家のダニエル・グロスが含まれています。
- SSIは、短期的な商業的圧力から進歩を遮断しながらAIを進歩させることを目指しています。
- この取り組みは、AI開発における倫理的懸念に対処します。
OpenAIの元主任科学者であるIlya Sutskever氏は、元OpenAIエンジニアのDaniel Levy氏および投資家のDaniel Gross氏とともにSafeSuperintelligence,Inc.(SSI)を立ち上げました。パロアルトとテルアビブに拠点を置くSSIは、安全性を優先しながら人工知能の進歩を目指しています。創設者らは、安全性を特に重視することで、短期的な商業的圧力から進歩を確実に遮断できると強調した。
Sutskever氏は、CEOのSamAltman氏の解任と取締役の辞任に関与した後、2024年5月にOpenAIを退社した。Daniel Levyもその後すぐにOpenAIを去りました。この二人は以前、汎用人工知能(AGI)として知られる、人間よりも賢いAIシステムを制御するために設立されたOpenAIのSuperalignmentチームの一員でした。しかし、Sutskever氏と他の研究者が去った後、OpenAIはチームを解散した。
イーサリアムの共同創設者ヴィタリック・ブテリン氏は、AGIは危険だと考えているが、企業の貪欲さや軍事的悪用よりも脅威は小さいと強調している。テスラのイーロン・マスク最高経営責任者(CEO)やアップルの共同創業者スティーブ・ウォズニアック氏を含む2,600人以上の技術関係者が、AIの「深刻なリスク」を評価するためAIトレーニングを6カ月休止するよう主張している。
SSIは、AI機能の開発において安全性に重点を置いているため、人工知能技術の進歩における倫理的懸念に対処するための賞賛に値する基準を確立しています。SSIは安全性を優先することで、AIの開発と導入に伴うリスクを軽減することを目指しています。
解説
- SSIはAIの安全性に重点を置いています:AIの安全性を優先するというSSIの使命により、技術の進歩が短期的な商業的圧力によって引き起こされることがないようになっています。このアプローチは倫理的懸念に対処し、より安全なAIの未来を築くことを目的としています。
- 元OpenAIリーダーシップ:IlyaSutskeverやDanielLevyを含む元OpenAIメンバーの関与により、SSIの使命の信頼性が高まります。AI研究開発における彼らの経験により、SSIはAIの安全性のリーダーとしての地位を確立しました。
- AI開発における倫理的懸念:SSIの立ち上げは、AI開発における倫理的懸念に対処することの重要性を強調しています。SSIは安全性に重点を置くことで、高度なAIシステムに関連する潜在的なリスクを軽減することを目指しています。
- 業界の支援:著名な技術者からの支援やAIトレーニングの一時停止の呼びかけは、AIの潜在的なリスクに対する懸念が広く広がっていることを浮き彫りにしています。SSIのイニシアチブはこれらの懸念と一致しており、AIの進歩に対する責任あるアプローチを推進しています。
