ChatGPTを産んだイリヤ・サツケヴァー、OpenAIを離れる
17分前、OpenAIの主任科学者であったイリヤ・サツケヴァー氏がOpenAIを離れる事をXのポストで発表しました。
最後の記念撮影も下記の様にポストされました。
イリヤ・サツケヴァー氏がOpenAIを離れる事を予言
早速様々な、リポストが続きますが、この人は11月30日の自分の予言をリポストしていました。
イリヤ・サツケヴァー氏の転職先はxAI?
xAIに参入を希望するポストがありますが、イーロン・マスクはイリヤ・サツケヴァー氏がクーデターを起こした時から、何度も彼に接触していました。
これは、そうなる気がとてもします。イーロン・マスクは2025年にAGIを完成されると言っています。そして、イリヤ・サツケヴァー氏をGoogleディープマインドから引き抜き、OpenAIを設立したのはほかでもないイーロン・マスクです。
サム・アルトマンのサツキヴァー氏に向ける言葉
サム・アルトマン氏はイリヤ・サツケヴァー氏がOpenAIを離れ、主任科学者がJakub氏に交代する事をポストで告げました。
サムは、下記の様なポストもしていますので、AGIの開発はイリヤ・サツケヴァー氏と共にOpenAIの中ではいったん終了と言う事でしょうか?「feeling the AGI today(今日はAGIを感じよう)」
これは内部の人のポストでしょうか?
所在不明のイリヤ・サツケヴァー氏が依然として表向きはOpenAIの主任科学者である状態で、別組織が裏で動いていてそれがメイン舞台で在った事実を物語っているのかもしれません。
これはOpenAIにとって深刻な事態!?
サム・アルトマンの声明が彼の文体である全て小文字、そして句読点無のスタイルではなかった事を非常に深刻な問題で有ると受け止めています。
この、句読点もありキャップアンドローで書かれたサム・アルトマン氏の声明文に対して、「ChatGPTに書かせた」というポストもあり、実際に書かせてみたところをスクショであげています。
スーパーアライメントチームが破壊中
まさに。イリヤ・サツケヴァー氏が率いる、AGIを開発するためのスーパーアライメントチームはこれで崩壊ですね。
筆者も去年の七夕にスーパーアライメントチーム結成についてNoteに詳しく解説していますので合わせてご覧ください。
確認したところ、スーパーアライメントチームへの募集は今でも行われているようです。
Pioneering research on the path to AGI(AGIへの道に関する先駆的な研究)と言うページも残っている事から、AGI開発をイリヤ・サツケヴァー氏の退任とともに終了されるわけではなさそうです。
スーパーアライメントチームは絵に書いた餅だった
イリヤ・サツケヴァー氏との二人が同時にOpenAIを退職したということはスーパーアライメントが崩壊したかに外部からは見えているわけですが、実はそれは絵に書いた餅の様なチームであった様です。OpenAIにてGPT-4oの開発に携わったGoogle Bardというアカウントがこう言っています。
下記のアンドリュー・カランさんのポストに対して、
Google Bardはこうリポストしています。
また、google bardの別アカウントであるgpt2箱のようにポストしています。
OpenAI社長のグレッグ・ブロックマンも離れると言う噂
下記のポストに、グレッグ・ブロックマンもOpenAIを去ると言う噂が書かれています。業界再編成なのかもしれません。
しかしながら、OpenAI社長のグレッグ・ブロックマンは下記の様な声明を出しているので彼もOpenAIを去ると言う噂はデマかもしれません。
AGIの方向性で両者の間に行き違いがあった事は確か
下記のNoteには、サム・アルトマンとグレッグ・ブロックマンのAGI開発の方向性について詳しく書きました。
果たしてイリヤ・サツケヴァー氏の目指していたAGIとはどの様なものだったのか考察していきたいと思います。
イリヤ・サツケヴァーのAGIの定義とビジョン
知的能力の汎用性:
AGIは、人間が行えるあらゆる知的作業を同等かそれ以上にこなせる能力を持つものと定義されていました。これは、特定のタスクに特化したAIとは異なり、広範な問題解決能力を持つことを意味します。
安全性と倫理:
初期から安全で倫理的なAGIの開発が強調されていました。AGIが人類にとって有益であり、悪用されないようにするためのガイドラインやフレームワークを設定することが重要視されていました。
オープンな研究:
OpenAIという名前の通り、研究成果を広く公開し、誰でもアクセスできるようにすることが理念として掲げられていました。これにより、AGIの開発が特定の企業や国によって独占されることを防ぎ、広く人類に利益をもたらすことが目的とされていました。
長期的な視点:
AGIの開発は一朝一夕には達成できない長期的な目標と認識されており、継続的な研究と進展が求められていました。このため、OpenAIは長期的なビジョンに基づいた研究計画を立てていました。
イリヤ・サツケヴァーの具体的な発言
具体的な発言としては、彼はAGIの潜在的な能力について以下のような見解を示していました。
人類の問題解決: AGIは、環境問題、医療の進展、科学研究の加速など、幅広い分野で人類の大きな問題を解決するためのツールと見なされていました。
協力と競争: AGIの開発は国際的な協力が必要であり、同時に競争も避けられないが、倫理的な基準を守ることが不可欠だという視点を持っていました。
彼やOpenAIの他の創設者たちがAGIに対して持っていた初期のビジョンや定義は、これらのポイントを基盤として形成されていました。現在のAGIの目標や進展に影響を与えるこれらの初期の理念は、OpenAIの活動全体に深く根付いていると思います。
イリヤ・サツケヴァー氏が取締役会から降りた後の変更点
OpenAIのAGIに対する理念は、設立当初からいくつかの点で進化してきました。以下に、初期の理念から現在のAGI目標やアプローチに至るまでの変更点をまとめます。
安全性の強調
初期の段階でも安全性は重要視されていましたが、現在はさらに強化されています。特に以下の点が進化しています:
AIアライメント研究: AGIが人間の意図と一致するようにするための研究(AI alignment)が大幅に強化されています。これには、AIが意図しない結果を引き起こさないようにするための技術的な方法や、倫理的な枠組みの構築が含まれます。
外部レビューと監査: 外部の専門家によるレビューや監査を積極的に取り入れ、開発プロセスの透明性と信頼性を確保しています。グローバルな協力
初期の頃から国際協力は重要とされていましたが、現在はさらに具体的な協力体制が構築されています:
パートナーシップの拡大: 他の研究機関、企業、政府とのパートナーシップが拡大し、AGIの安全な開発と使用を推進するための共同プロジェクトが増えています。
オープンソースの取り組み: 研究成果や技術をオープンソースとして公開することで、広範なコミュニティが安全で効果的なAI技術の開発に参加できるようにしています。具体的な応用分野の強調
初期の抽象的な目標から、より具体的な応用分野に焦点を当てるようになっています:
医療の進展: 医療分野での応用が具体的に強調されるようになり、AGIが病気の診断や治療にどのように貢献できるかについての研究が進んでいます。
気候変動対策: 環境問題、特に気候変動への対策としてAGIがどのように役立つかについての研究も進行中です。倫理的枠組みと規制の明確化
AIの倫理と規制に関する取り組みが深化しています:
倫理ガイドラインの策定: AI開発における倫理的なガイドラインがより具体的に策定され、全ての研究と開発活動に適用されています。
規制機関との連携: 規制機関や政策立案者と密接に連携し、AGIの安全な導入を支援するための規制枠組みの構築が進められています。人間中心のアプローチ
AGI開発の目的がより人間中心になり、人々の生活を直接的に改善する方向にシフトしています:
ユーザーのフィードバック重視: 実際のユーザーからのフィードバックを重視し、AGIがどのように実際の問題を解決できるかに焦点を当てています。
包摂性と公平性: AGIが全ての人々に公平に利益をもたらすように、包摂性と公平性の視点が強化されています。
イーロン・マスクがサツケヴァー氏と組んでAGIを構築する未来
サツケヴァー氏を迎えることによりマスク氏が目指す2025年にAGIが完成したとし、AGIの開発には明確なビジョンと戦略が必要です。イーロン・マスクは大胆なビジョンを持っていますが、それが現実的かどうかは別問題です。
AGIが完成するだけでなく、それが市場に投入され、社会に受け入れられるためには、規制や倫理的な課題もクリアする必要があります。
今、複数のビッグテックに依存して生きているのと同じ様に複数のAGIベンダーに依存して生きていく世界が来るのかもしれません。