![見出し画像](https://assets.st-note.com/production/uploads/images/165069440/rectangle_large_type_2_53c0acbfb225652005f1127f9ad2950a.jpeg?width=1200)
OpenAI社員が、「GPT o1はもはやAGI」と言ってるけど本人が全否定した話
下記のポストで、元Googleで自動運転車の開発をしていたOpenAI社員のVahid Kazemiさんが、「o1はもはやAGI」と言っていますので、ご本人に確認してみました。このNoteではその様子を共有しますね。
In my opinion we have already achieved AGI and it’s even more clear with O1. We have not achieved “better than any human at any task” but what we have is “better than most humans at most tasks”. Some say LLMs only know how to follow a recipe. Firstly, no one can really explain…
— Vahid Kazemi (@VahidK) December 6, 2024
私の意見では、私たちはすでに AGI を達成しており、O1 ではそれがさらに明確です。私たちは「どんなタスクでもどんな人間よりも優れている」という成果は達成していませんが、「ほとんどのタスクでほとんどの人間よりも優れている」という成果は達成しています。LLM はレシピに従うことしか知らないと言う人もいます。まず、1 兆個のパラメータを持つディープ ニューラル ネットが何を学習できるかを実際に説明できる人はいません。しかし、たとえそう信じたとしても、科学的手法全体をレシピとして要約することができます。つまり、観察、仮説、検証です。優れた科学者は直感に基づいてより優れた仮説を生み出すことができますが、その直感自体は多くの試行錯誤によって構築されたものです。例から学べないことは何もありません。
まずは、このポストについてo1にコメントを求めたスレッドをここに共有します。そしてそれを解説していきますね。
GPT o1: AGIにはまだ遠い理由
AGIとは何か
AGI(汎用人工知能)とは、人間並み、またはそれ以上に幅広い課題を柔軟に解決できる知能を指します。この概念には、以下の要素が含まれます:
自律性:指示を待つことなく、自分なりの目標を立てられること。
創造性と適応性:未知の状況に対応し、新たな知識やスキルを獲得・発明できること。
長期的な計画能力:単発の応答ではなく、戦略的に思考・行動できること。
現在のGPT o1やその他の大規模言語モデル(LLM)は、これらの要素を部分的には満たしていますが、完全には達していないのが現状です。
受動的な知性の限界
現在のLLMは、人間が提示する質問やプロンプトに対して回答を生成する、いわば「受動的な知性」に近い存在です。以下の点が課題として挙げられます:
自発性の欠如:外部からの要求がなければ、特に行動しません。指示を待つだけの存在であり、自らタスクやゴールを設定することはありません。
模倣の域を出ない回答:膨大なデータをもとに優れた模倣者として機能しますが、「新しい概念を生み出す」創造性は限定的です。
例えるなら、現状のLLMは「優れたレシピフォロワー」にはなれても、「独自の料理を考案するシェフ」には程遠いと言えます。
環境への即応力と物理的直感の不足
AGIには、人間が持つ直感的な理解や、複雑な環境への即応力が求められます。例えば:
物理的世界の理解:現行のLLMは、物理的な世界の因果関係や直感を持ちません。
即応力の不足:予測不能な状況における試行錯誤や適応的な行動ができません。
これに対し、人間は日常生活の中で無意識的に学び、状況に応じて即座に適応します。現在のGPT o1は、あくまで言語的な回答を提供するだけであり、このレベルの知能には及んでいません。
主体性と創造性の限界
多くの専門家は、AGI達成には「主体性」や「創造性」が不可欠だと考えています。これには、以下の要素が含まれます:
問題定義の能力:自ら課題を見つけ出し、それを解決する方向で思考を展開する能力。
新理論の編み出し:既存のデータや知識に依存せず、新しい理論や抽象的な概念を生み出せること。
現在のGPT o1は、あらかじめ与えられたデータをもとに優れた「模倣者」として機能しますが、未知の問題に対する自発的な挑戦はできません。
AGI定義の曖昧さ
AGIの議論では、そもそも「汎用性」をどう定義するかが重要な課題です。
評価基準の不明確さ:人間と比較する際、どの範囲のタスクを基準にするのかが明確ではありません。
「すべての課題」に対する要求:全ての課題で人間以上の性能を発揮しなければならないのか、それとも特定分野での優越性があれば十分なのか、意見が分かれます。
現行のLLMは、特定の課題では人間を凌駕するパフォーマンスを発揮する場合もありますが、それをもって汎用性があるとは言えないのが現状です。
育児支援AIの可能性
もしAGIが、赤ん坊が泣いている理由を自動的に推察し、その原因に応じて行動を変えることができるとしたら、それは大きな進歩と言えるでしょう。たとえば、以下のような機能が考えられます:
![](https://assets.st-note.com/img/1733727645-vHQfPR4LnZrXpEeyq5BbwgVJ.jpg?width=1200)
カメラやマイクから赤ん坊の状態を学習し、泣き方や表情からニーズを推測。
オムツ交換やミルク補給といったタスクを自動化。
一部のロボットはすでにセンサーを通じて環境をある程度把握し、ルーチンを実行する能力を持っていますが、それは「事前にプログラムされたシナリオ」に基づいたものに過ぎません。
真のAGIであれば、以下のような機能が期待されます:
未知の状況への対応:予期せぬ症状や異常に直面した場合、自律的に問題を分析し、必要な知識を獲得して解決策を考える。
学習と適応:新しい鳴き声や症状について研究し、対応方法を独自に進化させる。
![](https://assets.st-note.com/img/1733727665-OItKnP3RhSVE9jXC8d5pUQvL.jpg?width=1200)
例えば、赤ん坊が通常とは異なる鳴き方をした場合、その原因を医学的データや専門家への問い合わせを通じて探り、対応を学ぶ能力が求められます。これができるようになるためには、さらに複雑な進化が必要です。
技術の進化が進む中、育児支援ロボットが「かなり賢い」段階に到達するのは、そう遠くない未来かもしれません。しかし、人間のような主体性や創造性を備えたAGIが現れるには、より長期的な視野が必要となるでしょう。
自律性を信頼するためのステップ
現在の多くのAI開発者は、AIに自律性を与えることのリスクを認識し、安全性や予測可能性を優先しています。AIが独自に行動を決める際の危険性を回避しつつ、自律性を持たせるためには以下のステップが必要です:
透明性・説明可能性の確保: AIがどのように判断を下したのかを人間が理解できる「Explainable AI(説明可能なAI)」の仕組みが求められます。これにより、原因不明の不測の行動が減り、信頼性が向上します。
安全措置の組み込み: 自律性を持たせても、人間が「ストップ」や「終了」コマンドを発した場合、必ず応じる仕組みが必要です。また、危険な行動を予防するためのガードレールやフェイルセーフも欠かせません。
社会的合意と法整備: AIが自律的に動く社会に向けて、ルールや規範を作ることが重要です。責任の所在を明確にする法整備や、ライセンス制度、監査機関の設立などが必要です。
段階的なテストと運用: まず限定的な環境で自律性をテストし、問題がないと確認された場合に段階的に拡張するアプローチが有効です。
倫理観と価値観の共有: AIに人間の倫理観や価値観を組み込むことで、信頼性をさらに高められます。人命や人権を最優先とする行動原則を持つAIは、安心して利用できます。
これらのステップを経ることで、人間はAIの自律性をより安心して受け入れ、心から信頼できるようになるでしょう。
現在のGPT o1は、優れた言語的助っ人としての地位を確立していますが、自らの意思で目標を設定し、新たな概念を生み出し、未知の環境に適応するという意味でのAGIには到達していません。今後の進化に期待を寄せつつ、現状の限界を正しく認識することが重要です。