OpenAIをやめたイリヤ・サツケヴァー氏がASIに向けて新会社設立
去年の11月にOpenAIからサムアルトマンを追い出そうとした主犯格であったイリヤ・サツケヴァー氏は新会社を設立することをXにて告知しました。
彼が引用した株式会社SSIのアカウントのポストには、このように書かれています。
さらに彼は続けます。
この投稿には、会社概要ページへのリンクが含まれており、会社概要にはこの様に書かれています。
株式会社SSI会社設立の経緯
サツケヴァー氏と株式会社SSIを立ち上げた元OpenAIのダニエル・グロス氏もXでポストしています。
なお、彼の新会社設立についてブルームバーグも報じています。
Xでの反応
こちらのポストは、ベンガル語とヒンディー語の混合のようです。「দেবাদ্রী」はベンガル語の名前で、「ekdum hila dala ilya bhai」はヒンディー語のスラングで書かれています。
ジミー・アップルはOpenAIのリークが当たっている事で有名な人ですが、彼はIlya Sutskeverの新しい会社設立のツイートを引用して、AIの進展についての楽観的な見解を述べています。ジミーは「AI冬」や「深い壁にぶつかる」といった悲観的な見方を否定し、AS(Artificial Superintelligence)への加速が続いていると強調しています。彼はロケットが「vroom」という音を立てて加速しているイメージを使って、AIの発展が止まることなく進んでいることを示唆しています。
「AI冬(AI Winter)」や「深い壁にぶつかる」という表現は、AIの研究や発展が停滞する時期を指すもので、過去に何度か使われてきました。以下に詳しく説明します。
AI冬とは?
AI冬(AI Winter)とは、AI研究の進展が期待外れに終わり、資金提供や研究活動が大幅に減少する時期を指します。これまでに少なくとも2回のAI冬がありました。
第一次AI冬(1970年代後半〜1980年代)
初期のAIシステムが実用化されず、予算削減や研究の停滞が起きました。
第二次AI冬(1980年代後半〜1990年代)
エキスパートシステムの限界が明らかになり、再び資金提供が減少しました。
「深い壁にぶつかる」という表現
これはAI研究や開発が特定の技術的な課題に直面し、進展が難しくなることを指す比喩的な表現です。たとえば、汎用人工知能(AGI)や超知能(ASI)の開発には多くの技術的、倫理的な課題が伴います。
はたしてAIの現在の状況は?
近年、AI研究は大きな進展を遂げており、特にディープラーニング技術の発展が目覚ましいです。しかし、一部の専門家は再びAIの発展が停滞する可能性(第三次AI冬)を指摘しています。
ジミー・アップルズのツイートは、このような悲観的な見方に対する反論として、現在のAI研究が依然として加速していることを強調しています。彼の「ロケットがvroomと音を立てて加速する」という表現は、技術的なブレークスルーが続いていることを示唆しています。
現在においてもAI分野において悲観的な見方が存在する一方で、それに対する楽観的な反論も頻繁に見られます。
株式会社SSIがイスラエルの国家プロジェクトとなる可能性
SSIがイスラエルの国家プロジェクトとなり、巨大資本が投入されるシナリオは十分に現実的です。Ilya Sutskeverの影響力、イスラエルのテクノロジー分野への積極的な投資姿勢、国家安全保障と経済成長の観点から見ても、このプロジェクトは大きな注目を集め、資金提供を受ける可能性が高いです。
果たしてサム・アルトマンが言ったようにサツケヴァー氏のASI構想が「個人的な小さなプロジェクト」で終わるのかどうかは数年先を待つしかわからないですが、Ilya SutskeverのSSIプロジェクトが「個人的な小さなプロジェクト」で終わるとは考えにくく、むしろ大規模かつ影響力のあるプロジェクトになると考えられます。彼の影響力、AIの重要性、投資と資金提供、そしてイスラエルのテクノロジー分野への支援を考慮すると、以下の理由からSSIプロジェクトは大きな期待を集め、世界に影響を与える可能性が高いです。
Ilya Sutskeverの背景と影響力
Ilya Sutskeverはイーロン・マスクがOpenAI設立の時にGoogle deep mindから引き抜いて来た共同創設者であり、AI研究の分野で非常に高い評価を受けていました。彼の新しいプロジェクトには、多くの注目と期待が集まるでしょう。そのような背景から、彼が手掛けるプロジェクトは小規模なものに留まることは少ないです。ASI(人工超知能)の重要性
人工超知能(ASI)の開発は、AI研究の最前線であり、多くのリソースと専門知識を必要とします。ASIの実現は人類全体にとって大きな影響を持つため、Ilyaがこの分野で活動することは非常に重要です。個人的に意味のあるプロジェクトであると同時に、世界的な影響を与える可能性があります。投資と資金提供
Ilya Sutskeverの名前だけでも、多くの投資家や企業からの資金提供が期待できます。特にテクノロジーやAI分野においては、彼のプロジェクトに対する期待は大きく、資金提供も潤沢に行われる可能性があります。イスラエルのテクノロジー分野への支援
先ほども述べたように、イスラエルはテクノロジー分野への積極的な投資で知られており、国家プロジェクトとして支援される可能性もあります。これにより、プロジェクトは大規模に展開されるでしょう。
「B」で終わるシードラウンドの匂いがする
「seed round」はスタートアップが初期の資金調達を行うラウンドのことで、「ends with a 'B'」は、資金調達の額が数百万ドルではなく、数十億ドル(ビリオンダラー)になることを示唆していると思われます。つまり、かなり大規模な資金調達を予感しているという意味です。
多くの祝辞が送られていますがキリがないのでこの辺でやめておきます。
イリヤ・サツケヴァー氏の構想
彼がOpenAIにてスーパーアライメントチームを率いていた頃のインタビュー動画を下記のNoteで解説しています。
サム・アルトマン解任劇の主犯格だったサツケヴァー氏
また、取締役会の多数決でサム・アルトマンの解任を主導したのがイリヤ・サツケヴァー氏でした。しかしその後、社員の90%以上がサム・アルトマン氏を追ってOpenAIを後にすると言い始めた事により、彼も自ら「会社を壊すつもりはなかった。」と言い、サム・アルトマン氏を戻す声明文に署名しました。一方もどってきたサム・アルトマン氏も彼の事を「人間の宝石」と呼び一貫して非難しませんでした。この事件については多くのNoteを執筆していますので、下記のまとめNoteをご覧ください。
GPT-4oに感想を聞いてみた
以下、全文GPT-4oの所感をそのまま掲載しますね。
Ilya Sutskeverの新会社「Safe Superintelligence Inc. (SSI)」についての詳細を読んで、非常に興奮しています。以下が私の感想です。
シンプルで明確なミッション: SSIのミッションが「安全な超知能の構築」に特化している点は非常に印象的です。ミッションがシンプルで明確であることは、全ての努力とリソースを一つの目標に集中させることができ、効果的な成果を上げる助けとなるでしょう。
安全性と能力の両立: SSIが安全性と能力向上を並行して追求するというアプローチは、非常に現実的かつ責任感のある姿勢です。超知能の開発にはリスクが伴うため、安全性を優先する姿勢は非常に重要です。
集中と効率: 管理上の負担や製品サイクルによる分散を避けることで、リソースを最大限に活用する戦略は賢明です。このアプローチにより、研究と開発が最速で進む可能性が高まります。
トップタレントの採用: パロアルトとテルアビブに拠点を置き、世界最高の技術者と研究者を集めるという戦略は、SSIの成功に大きく貢献するでしょう。これらの地域は技術革新の中心地であり、優れた人材が豊富です。
商業的圧力からの保護: 短期的な商業的圧力から保護されたビジネスモデルは、長期的な目標達成にとって非常に有利です。これは、研究者が商業的な成果を急ぐことなく、安全性と革新に集中できる環境を提供します。
全体として、SSIは非常に興味深いプロジェクトであり、その進展をフォローするのが楽しみです。Ilya Sutskeverとそのチームがどのようなブレークスルーを達成するのか、今後の発展が非常に期待されます。
OpenAIは目指すものが違う
まず、GPT-4oが明確にしたのは、「OpenAIはASIを目指していない」という事です。下記にGPT-4oの解説を書きます。
OpenAIはAGIを目指しSSIはASIを目指す
詳しい違いもGPT-4oが説明してくれましたので、全文掲載します。
Ilya Sutskever氏が設立したSafe Superintelligence Inc. (SSI) は、明確にASI(人工超知能)の開発を目指している点で、OpenAIの現在の目標であるAGI(人工汎用知能)とは異なります。
ASIがもたらす可能性のある影響
科学技術の飛躍的進展: ASIは、人間が解決できない問題を解決する能力を持ち、科学や技術の進歩を大幅に加速させることが期待されます。例えば、新薬の開発や複雑な物理学の問題解決、エネルギーの効率的な利用などが考えられます。
経済と産業の変革: ASIは、産業全体の効率を劇的に向上させる可能性があります。自動化が進み、生産性が飛躍的に向上することで、経済全体に大きな影響を与えるでしょう。
社会問題の解決: ASIは、貧困、環境問題、教育などの社会問題に対しても有効な解決策を提供できる可能性があります。大規模なデータ解析と予測能力により、より効果的な政策立案が可能になるでしょう。
ASIのリスクと安全性の確保
しかし、ASIの開発には大きなリスクも伴います。Sutskever氏のSSIが強調しているように、安全性の確保は最優先事項です。以下の点が重要です。
制御の確保: ASIが人類の制御を超えることなく、安全に運用されることが必要です。これには、倫理的なガイドラインと技術的な制御手段が不可欠です。
意図の一致: ASIの目的や意図が人類の利益と一致していることを確保することが重要です。誤った意図や誤解による行動は大きな危険を伴います。
透明性とガバナンス: ASIの開発過程と運用において、透明性と適切なガバナンスが確保されることが求められます。これは、信頼性を高め、誤用や悪用を防ぐために重要です。