
ChatGPTを産んだイリヤ・サツケヴァー、OpenAIを離れる
17分前、OpenAIの主任科学者であったイリヤ・サツケヴァー氏がOpenAIを離れる事をXのポストで発表しました。
After almost a decade, I have made the decision to leave OpenAI. The company’s trajectory has been nothing short of miraculous, and I’m confident that OpenAI will build AGI that is both safe and beneficial under the leadership of @sama, @gdb, @miramurati and now, under the…
— Ilya Sutskever (@ilyasut) May 14, 2024
ほぼ10年を経て、私はOpenAIを離れる決断をしました。同社のこれまでの軌跡はまさに奇跡であり、私は OpenAI が次のリーダーシップの下で安全かつ有益な AGI を構築すると確信しています。
サム、グレッグ、ミラ、そして現在、研究者の優れたリーダーシップの下、
一緒に仕事ができて光栄で光栄でした。皆さんがいなくなるととても寂しくなります。長い間、ありがとうございました。私は次に何が起こるのかを楽しみにしています。このプロジェクトは私にとって非常に個人的に意味のあるプロジェクトであり、詳細は追ってお知らせします。
最後の記念撮影も下記の様にポストされました。
— Ilya Sutskever (@ilyasut) May 14, 2024
イリヤ・サツケヴァー氏がOpenAIを離れる事を予言
早速様々な、リポストが続きますが、この人は11月30日の自分の予言をリポストしていました。
Ilya leaves OpenAI sometime in 2024 if I was a betting man…
— Madhatt3r (@pokerchessman) November 30, 2023
もし私が賭けをするなら、イリヤは2024年にOpenAIを去るだろう…
イリヤ・サツケヴァー氏の転職先はxAI?
xAIに参入を希望するポストがありますが、イーロン・マスクはイリヤ・サツケヴァー氏がクーデターを起こした時から、何度も彼に接触していました。
Now hurry up and join Tesla or xAI ♥️
— Penny2x (@imPenny2x) May 14, 2024
これは、そうなる気がとてもします。イーロン・マスクは2025年にAGIを完成されると言っています。そして、イリヤ・サツケヴァー氏をGoogleディープマインドから引き抜き、OpenAIを設立したのはほかでもないイーロン・マスクです。
Plot twist: Ilya joins xAI next
— Satoshi Club (@esatoshiclub) May 14, 2024
どんでん返し: イリヤが次に xAI に加わる
It would actually be good for the world if Ilya joined xAI next so we had two companies accomplishing this.
— Kairan Phoenix (@KairanPhoenix) May 14, 2024
次に Ilya が xAI に参加すれば、実際には世界にとって良いことになるため、2 つの会社がこれを達成できます。
llya is moving to xAI with Elon Musk. 😆
— Patrick Lac (@PatrickLac007) May 14, 2024
llya はイーロン・マスクとともに xAI に移行しています。
I hope Ilya joins Tesla.
— Sergey (@moszis) May 14, 2024
イリヤがテスラに加わることを願っています。
Welcome to $Tsla
— Zenith.Lee𝕏 (@ZenithTeslon) May 14, 2024
サム・アルトマンのサツキヴァー氏に向ける言葉
サム・アルトマン氏はイリヤ・サツケヴァー氏がOpenAIを離れ、主任科学者がJakub氏に交代する事をポストで告げました。
Ilya and OpenAI are going to part ways. This is very sad to me; Ilya is easily one of the greatest minds of our generation, a guiding light of our field, and a dear friend. His brilliance and vision are well known; his warmth and compassion are less well known but no less…
— Sam Altman (@sama) May 14, 2024
イリヤと OpenAI は袂を分かつことになりました。これは私にとって非常に悲しいことです。イリヤは間違いなく私たちの世代で最も優れた頭脳の 1 人であり、私たちの分野の導き手であり、大切な友人です。彼の聡明さとビジョンはよく知られていますが、彼の温かさと思いやりはあまり知られていませんが、同様に重要です。 彼がいなければ、OpenAI は今のような存在にはなれなかったでしょう。彼は個人的に意義のある仕事に取り組もうとしていますが、彼がここで成し遂げたこと、そして私たちが一緒に始めたミッションを完遂しようと尽力してくれたことに、私は永遠に感謝しています。これほど長い間、このような本当に素晴らしい天才、そして人類にとって最良の未来に到達することに注力している人の近くにいられたことを嬉しく思います。
Jakub が当社の新しい主任科学者になります。Jakub は間違いなく私たちの世代で最も優れた頭脳の持ち主の 1 人です。彼がここでバトンを受け継ぐことをとても嬉しく思います。彼は当社の最も重要なプロジェクトの多くを指揮してきました。AGI がすべての人に利益をもたらすようにするという当社の使命に向けて、彼が迅速かつ安全に前進するよう導いてくれると確信しています。
サムは、下記の様なポストもしていますので、AGIの開発はイリヤ・サツケヴァー氏と共にOpenAIの中ではいったん終了と言う事でしょうか?「feeling the AGI today(今日はAGIを感じよう)」
feeling the AGI today 🩵 https://t.co/pTP0vVD6dd
— Sam Altman (@sama) May 14, 2024
これは内部の人のポストでしょうか?
at least we get to go back to everyone just building and vibing. NO MORE BASEMENT TALK
— albs — 3/staccs (@albfresco) May 14, 2024
所在不明のイリヤ・サツケヴァー氏が依然として表向きはOpenAIの主任科学者である状態で、別組織が裏で動いていてそれがメイン舞台で在った事実を物語っているのかもしれません。
これはOpenAIにとって深刻な事態!?
サム・アルトマンの声明が彼の文体である全て小文字、そして句読点無のスタイルではなかった事を非常に深刻な問題で有ると受け止めています。
you know it’s serious when a sama post isn’t in lowercase
— Viv (@battleangelviv) May 14, 2024
🫡
様の投稿が小文字でない場合は深刻です
Capitalization and excessive punctuation?
— channel route (@channel_route) May 14, 2024
not a sama post very strange to see
大文字と過度の句読点はありませんか?様の投稿ではないので、見るのは非常に奇妙です
この、句読点もありキャップアンドローで書かれたサム・アルトマン氏の声明文に対して、「ChatGPTに書かせた」というポストもあり、実際に書かせてみたところをスクショであげています。
スーパーアライメントチームが破壊中
まさに。イリヤ・サツケヴァー氏が率いる、AGIを開発するためのスーパーアライメントチームはこれで崩壊ですね。
Superalignment team is imploding
— Burny — Effective Omni (@burny_tech) May 14, 2024
筆者も去年の七夕にスーパーアライメントチーム結成についてNoteに詳しく解説していますので合わせてご覧ください。
確認したところ、スーパーアライメントチームへの募集は今でも行われているようです。
Pioneering research on the path to AGI(AGIへの道に関する先駆的な研究)と言うページも残っている事から、AGI開発をイリヤ・サツケヴァー氏の退任とともに終了されるわけではなさそうです。
スーパーアライメントチームは絵に書いた餅だった
イリヤ・サツケヴァー氏との二人が同時にOpenAIを退職したということはスーパーアライメントが崩壊したかに外部からは見えているわけですが、実はそれは絵に書いた餅の様なチームであった様です。OpenAIにてGPT-4oの開発に携わったGoogle Bardというアカウントがこう言っています。
superalignment team has been constantly hollowing out since the beginning anyway. supposedly you get to a point where you see the writing on the wall and go to Anthropic https://t.co/gZnJhDkNiA
— google bard (@deepfates) May 15, 2024
下記のアンドリュー・カランさんのポストに対して、
情報によると、ヤン・ライクはイリヤとともに去ったという。これが本当なら、スーパーアライメントチームの共同リーダーが二人もいなくなったことになる。イリヤを主任研究者として雇用した企業は、この件について簡単にツイートした後、削除した。時期尚早だったと思います。
Google Bardはこうリポストしています。
とにかく、スーパーアライメントチームは最初から常に空洞化を続けています。おそらく、壁に書かれた文字が見え、人類学に行く地点に到達すると思われます
また、google bardの別アカウントであるgpt2箱のようにポストしています。
can’t help but wonder how openai currently defines agi as opposed to how they defined it ten years ago
— gpt2 (@gpt2chatbot) May 15, 2024
pretty sure gpt-4o would’ve been classified as agi by ilya way back then, meaning this is what he committed to, and now he can finally be at peace.
cheers ilya and well done
10 年前の定義とは対照的に、openai は現在 agi をどのように定義しているのか疑問に思わずにはいられません。gpt-4o はきっと昔、ilya によって agi として分類されていたでしょう。つまり、これが彼がコミットしたことであり、そして今では彼はようやく平和になれる。乾杯、イリヤ、よくやった
OpenAI社長のグレッグ・ブロックマンも離れると言う噂
下記のポストに、グレッグ・ブロックマンもOpenAIを去ると言う噂が書かれています。業界再編成なのかもしれません。
Brockman & Ilya left, or this is just a rumor? & even if we move the premise null, then I'm trying to learn something: what kinda person do u think could have lead OpenAI or DeepMind in order to get where we're at now? The researchers & engineers are not usually cutout to be CEO
— 🥀 (@PsyNetMessage) May 5, 2024
ブロックマンとイリヤが去った、それともこれはただの噂?たとえ前提を null に変更したとしても、私は何かを学ぼうとしています。私たちが今ここに到達するために OpenAI や DeepMind を率いることができた人物はどんな人だと思いますか?研究者やエンジニアは通常 CEO に適任ではない
しかしながら、OpenAI社長のグレッグ・ブロックマンは下記の様な声明を出しているので彼もOpenAIを去ると言う噂はデマかもしれません。
I have immense gratitude to Ilya for being my co-founder, my friend, and the officiant at my civil ceremony.
— Greg Brockman (@gdb) May 14, 2024
Together, we charted the path of what OpenAI would become today. When we started in late 2015, OpenAI was a non-profit with a mission to make AGI go well but without a… https://t.co/4HEm6EDtqb
私の共同創設者であり、友人であり、そして私の市民式典の司会者でもあるイリヤに、私は多大な感謝の気持ちを持っています。私たちは一緒に、OpenAI が今日どのようになるかの道筋を描きました。私たちが 2015 年後半に設立したとき、OpenAI は AGI をうまく進めるという使命を持った非営利団体でしたが、それを達成するための信頼できる計画はありませんでした。初期の頃、イリヤと私は数え切れないほどの時間を費やして、文化、技術的な方向性、戦略のあらゆる側面について真剣に考えました。私たちは共に、前例のない規模のスーパーコンピューターを構築するには、誰もが想像していたよりもはるかに多くの資金を調達する必要があることに気づきました。私たちは非営利団体で一緒に募金活動を行い、他の人が可能だと考えていたよりも多くの資金を集めましたが、それでも必要な額にははるかに及ばなかったのです。私たちは、その使命を果たすために営利組織を創設することを提案しました。そして、それが構築された後、私たちはその会社が何を意味するのかを調整し、形成し続け、AGI の使命に焦点を当て続けながら、毎日どのように進歩するかという実際的な困難な問題に取り組みました。イリヤはアーティストです。彼のビジョンと熱意は人に伝わり、私がこの分野を始めたばかりのときに、彼は私がこの分野を理解できるように助けてくれました。彼は自分の直観の論理的な結論を徹底的に考えることを恐れません。私たちは 1962 年の著書「未来のプロフィール」に動機づけられました。この本は、これらの偉業が達成される直前に、電球、飛行、軌道到達は不可能であるという科学的主張につながった誤った考え方についての説明で始まります。したがって、AGI が予見可能な地平線のどこかにあるのではないかと人々が疑っているにもかかわらず、私たちはディープラーニングが私たちをそこに連れて行ってくれるという信念に基づいて考え抜き、行動するでしょう。この使命はまだ完了していませんが、Ilya は今日の OpenAI の基礎を築く上で重要な役割を果たしました。すべてに感謝します。
AGIの方向性で両者の間に行き違いがあった事は確か
下記のNoteには、サム・アルトマンとグレッグ・ブロックマンのAGI開発の方向性について詳しく書きました。
果たしてイリヤ・サツケヴァー氏の目指していたAGIとはどの様なものだったのか考察していきたいと思います。
イリヤ・サツケヴァーのAGIの定義とビジョン
知的能力の汎用性:
AGIは、人間が行えるあらゆる知的作業を同等かそれ以上にこなせる能力を持つものと定義されていました。これは、特定のタスクに特化したAIとは異なり、広範な問題解決能力を持つことを意味します。
安全性と倫理:
初期から安全で倫理的なAGIの開発が強調されていました。AGIが人類にとって有益であり、悪用されないようにするためのガイドラインやフレームワークを設定することが重要視されていました。
オープンな研究:
OpenAIという名前の通り、研究成果を広く公開し、誰でもアクセスできるようにすることが理念として掲げられていました。これにより、AGIの開発が特定の企業や国によって独占されることを防ぎ、広く人類に利益をもたらすことが目的とされていました。
長期的な視点:
AGIの開発は一朝一夕には達成できない長期的な目標と認識されており、継続的な研究と進展が求められていました。このため、OpenAIは長期的なビジョンに基づいた研究計画を立てていました。
イリヤ・サツケヴァーの具体的な発言
具体的な発言としては、彼はAGIの潜在的な能力について以下のような見解を示していました。
人類の問題解決: AGIは、環境問題、医療の進展、科学研究の加速など、幅広い分野で人類の大きな問題を解決するためのツールと見なされていました。
協力と競争: AGIの開発は国際的な協力が必要であり、同時に競争も避けられないが、倫理的な基準を守ることが不可欠だという視点を持っていました。
彼やOpenAIの他の創設者たちがAGIに対して持っていた初期のビジョンや定義は、これらのポイントを基盤として形成されていました。現在のAGIの目標や進展に影響を与えるこれらの初期の理念は、OpenAIの活動全体に深く根付いていると思います。
イリヤ・サツケヴァー氏が取締役会から降りた後の変更点
OpenAIのAGIに対する理念は、設立当初からいくつかの点で進化してきました。以下に、初期の理念から現在のAGI目標やアプローチに至るまでの変更点をまとめます。
安全性の強調
初期の段階でも安全性は重要視されていましたが、現在はさらに強化されています。特に以下の点が進化しています:
AIアライメント研究: AGIが人間の意図と一致するようにするための研究(AI alignment)が大幅に強化されています。これには、AIが意図しない結果を引き起こさないようにするための技術的な方法や、倫理的な枠組みの構築が含まれます。
外部レビューと監査: 外部の専門家によるレビューや監査を積極的に取り入れ、開発プロセスの透明性と信頼性を確保しています。グローバルな協力
初期の頃から国際協力は重要とされていましたが、現在はさらに具体的な協力体制が構築されています:
パートナーシップの拡大: 他の研究機関、企業、政府とのパートナーシップが拡大し、AGIの安全な開発と使用を推進するための共同プロジェクトが増えています。
オープンソースの取り組み: 研究成果や技術をオープンソースとして公開することで、広範なコミュニティが安全で効果的なAI技術の開発に参加できるようにしています。具体的な応用分野の強調
初期の抽象的な目標から、より具体的な応用分野に焦点を当てるようになっています:
医療の進展: 医療分野での応用が具体的に強調されるようになり、AGIが病気の診断や治療にどのように貢献できるかについての研究が進んでいます。
気候変動対策: 環境問題、特に気候変動への対策としてAGIがどのように役立つかについての研究も進行中です。倫理的枠組みと規制の明確化
AIの倫理と規制に関する取り組みが深化しています:
倫理ガイドラインの策定: AI開発における倫理的なガイドラインがより具体的に策定され、全ての研究と開発活動に適用されています。
規制機関との連携: 規制機関や政策立案者と密接に連携し、AGIの安全な導入を支援するための規制枠組みの構築が進められています。人間中心のアプローチ
AGI開発の目的がより人間中心になり、人々の生活を直接的に改善する方向にシフトしています:
ユーザーのフィードバック重視: 実際のユーザーからのフィードバックを重視し、AGIがどのように実際の問題を解決できるかに焦点を当てています。
包摂性と公平性: AGIが全ての人々に公平に利益をもたらすように、包摂性と公平性の視点が強化されています。
イーロン・マスクがサツケヴァー氏と組んでAGIを構築する未来
サツケヴァー氏を迎えることによりマスク氏が目指す2025年にAGIが完成したとし、AGIの開発には明確なビジョンと戦略が必要です。イーロン・マスクは大胆なビジョンを持っていますが、それが現実的かどうかは別問題です。
AGIが完成するだけでなく、それが市場に投入され、社会に受け入れられるためには、規制や倫理的な課題もクリアする必要があります。
今、複数のビッグテックに依存して生きているのと同じ様に複数のAGIベンダーに依存して生きていく世界が来るのかもしれません。