AGI (汎用人工知能) とは何か? そして、それはいつ来るのか?
(generated by DALL・E3 with Masaya Mori)
本記事は、あらゆるタスクを人間と同等、あるいはそれ以上にこなすとされる、AIの発展形である、AGI (汎用人工知能) について解説した記事です。AGI に関しては専門家の間でも様々な見解があります。本記事は、AGI の定義に関する考察と、そして、AGIはいつ頃実現されるのか。あと20年というスタンスもあれば、来年には達成されるとする意見もある中、その現況を少し整理しました。
世界で開発が進む AGI
AGI (Artificial General Intelligence: 汎用人工知能)という言葉があります。あらゆるタスクを人間と同等、あるいはそれ以上にこなすとされるAI(人工知能)のことであり、機械学習とAI研究の究極の目標とされています。OpenAI 社はミッションとして、AGIの開発を掲げています。
以下は、ブルームバーグでのインタビューシリーズ「Inside」における、OpenAI CTO である Mira Murai 氏のインタビューと、TED での、OpenAI Chief Scientist (当時)であった Ilya Sutskever 氏のプレゼンテーションです。それぞれ AGI についてその可能性とリスクに触れて話しています。
Meta 社も、社としての新たな目標として AGI の開発を置いています。CEO の Mark Zuckerberg 氏は、同社の長期的な目標は「完全なAGI」を構築することであり、そのためには、推論、計画、コーディング、その他の認知能力の進歩が必要であると述べています。
他にも Amazon 社が Alexa 開発チームのスタッフ8000名程をAGI開発に投入していることを発表しています。
Global Catastrophic Risk Institute による 2020年の調査では、37カ国で72のAGI 研究開発プロジェクトが進行中であると報告されています。
AGI とは何か
AGI (汎用人工知能)とはそもそも何なのでしょうか。様々な意見があります。
1970年、AI の父と言われたコンピューター科学者の Marvin Minsky 氏は、近い将来開発される機械は「シェイクスピアを読み、車を整備し、社内政治を扱い、ジョークを言い、喧嘩をするだろう」と予測しました。数年後、Apple の共同創業者である Steve Wozniak 氏は、機械が見知らぬ人の家に入ってコーヒーを淹れることができたら汎用的な人工知能が達成されているとして、「コーヒーテスト」という概念を提唱しました。
ディープラーニングのゴッドファーザーとも呼ばれ、ディープラーニング研究のパイオニアである Geoffrey Hinton 氏は、「AGI は技術用語ではなく、『重要だが、明確に定義されていない概念』だ」と述べています。
AI(人工知能)に対する普遍的な定義が難しいことは広く知られるようになりましたが、それと同様に、そもそも AGI(汎用人工知能)が何であるかに関しても統一された見解はないとされています。そのため、何をもってAGIとするのか、何が達成されれば AGI が実現したことになるのかについても厳密に議論することが難しいテーマです。
しかし、その一方で、この言葉は、近年、様々な論文や、メディアでのニュースやインタビューで頻繁に登場するようになっています。Microsoft の研究者は昨年、GPT-4が「AGIの兆候」を示していると述べました。5月末には、OpenAI は「AGIへの道」における「次のレベルの能力」を誇る次世代の機械学習モデルをトレーニングしていると発表しました。また、一部の著名なコンピューター科学者は、ここ数年の生成AIの驚異的な進化と、テキスト生成の LLM(大規模言語モデル)の登場によって、AGI はすでに達成されていると主張しています。
AGIとは何か、AGI に向けた達成度をどのようにテストし、測定するか、そして AGI の可能性をどのように管理するかについて、我々はよく議論し、理解を深めていく必要があるようです。
「汎用な知能」について
AGIの定義は、「汎用な人工の知能」という言葉の性質上、広範で曖昧なものに見えることがあります。最も単純な定義では、AGIは、人間の知能に匹敵するか、それを超える機械である、というものです。しかし、「知能」自体が定義したり定量化したりするのが難しい概念です。「汎用な知能」はとても厄介なものにならざるをえません。
「汎用な知能」というものはそもそも存在しない、という立場に立つ専門家もいます。様々な種類の問題には、様々な種類の知的能力が必要であるとし、単一のタイプの知能ですべてを行うことはできないという考え方です。例えば、幼い子供は、柔軟で学習速度がとても速く、多くの新しい知識を獲得していきます。しかし、彼ら彼女らの心身は同時に急速に成長し、変化してしまうために、長期的な視野で計画を立てることが得意ではありません。対して大人は、学習速度が遅くなり、昔の知識に凝り固まるところがありますが、長期的な視野を持つことができるという特徴があります。つまり、「知能」というのは人の中においても多面的で一様ではなく、得手不得手があるというものです。
さらには、人間と機械の間でも知能は多様になりえます。1988年に提唱された Moravec's paradox は、人間にとって簡単なことは機械にとっては難しく、人間が難しいと感じることはコンピューターにとってはしばしば簡単であると述べています。
例えば、多くのコンピューターシステムは複雑な数学的演算を実行することができますが、洗濯物を畳んだり、ドアノブを回したりするようなロボットを開発することは長い間、アプローチすらもわからない実現が不可能な問題として存在していました。昨今、ロボティクスの進展により達成に向けた道筋もある程度見えてきましたが、それでも一般的に Wozniak 氏の「コーヒーテスト」のような問題は、コンピューターにとっていまだに複雑かつ入り組んだ課題を提示するテーマであり続けています。
ディープラーニングのもう一人のパイオニアである Yann LeCun 氏は、「AGI」という言葉をやめて、「人間レベルのAI」の達成に注力すべきだと主張しています。知能の全体像というものが固定的に存在するわけではなく、それぞれの人間も、人間の知能のタスクのほんの一部しか達成できず、全てを経験することはできません。それゆえ、人間は「汎用な知能」がいかなるものかを把握できるとはいえない、という考えです。
「汎用な知能」の評価
仮に「汎用な知能」があるとしても、それを評価することはさらに大変なものになります。Google DeepMind の研究者たちは、2023年の論文の中で、AGI に向けて様々なコンピューターシステムを評価できる6つの知能レベルを提案しました。しかし、現時点ではまだそのようなレベル分けに留まり、「汎用」とそうでないものを区別するためのタスクの数や、「汎用」レベルと「人間」のスキルレベルとの比較については具体的に示していません。「汎用な知能」と人間のスキルを比較する適切なタスクを決定するには、多くの研究がまだ必要です。
AGI の自律性と知識の具現化
「シンギュラリティ」という言葉を造った Ray Kurzweil 氏は、特定の文脈において特定の「知的な」行動を実行するシステムを「狭いAI」もしくは「弱いAI(Weak AI)」と呼んでいます。狭いAIシステムはその動作やコンテキストを少しでも変更するには、「知能」のレベルを維持するために、再プログラミングや再構成が必要になります。対比的に考えると、異なるタスクや異なる目標に対しても再プログラミングや再構成が必要とならないものが、「AGI」となりうるのかもしれません。
再プログラミングは不要ですが、AGI はリアルタイムかつ自律的に学習をしていくということは不可欠かもしれません。AGIは、人間とのやり取り、周囲のセンシング、そしてもちろんオンラインや他のネットワークソースを介しての情報等、事実上すべての経験とデータから、知識を獲得し続けるかもしれません。あるいは、「世界モデル」が自然に統合され、驚異的な推論能力によって断片的な経験とデータからもタスク遂行を可能とする効果的な能力を持つのかもしれません。いずれにしろ自律性とリアルタイムな知識の獲得は外せないポイントでしょう。
ここで重要になってくるのは「知識の具現化」です。具現化とは、知識を、実空間との相互作用と結びつけて深めていくプロセスを指します。あるいは、様々なデータや経験から学習された知識を、単に情報としてのものに留めず、それと対応した現実世界とのインタラクションへと進めていくことです。たとえば、まな板の上で野菜を切る良い方法を知識として知っているとしても、私たちは、指先の野菜の感触、持っているナイフの柄の感触、ナイフでものを切ることに対しての緊張、私たちが目にするすべてのものの視覚や聴覚、香り、質感も統合された形で、その知識を、真の知識(具現化されている知識)として深め、加えて、抽象と具象の関係、知識と知識の関連・因果・構造を獲得します。「因果推論モデル」も関わりつつ、これは世界モデルの構築と進化にも大いに関係する部分です。
改めて AGI の定義
AGIの開発をミッションとして持つ OpenAI は、その憲章(Charter)の中で、AGIを「経済的に価値のある仕事のほとんどにおいて人間を凌駕する高度に自律的なシステム」と定義しています。
同時に、OpenAI 創設者である Sam Altman 氏は、よりオープンな態度を表明しています。いわく、AGI はある時点で達成されるようなものではない。「よし、これがAGIだ」と思う月や年についてさえ、人と意見を合わせることは困難である、と。
AGI はいつ到来するのか
AGI を定義することが難しい一方で、AGI という用語の使用頻度は高まっています。近年、各国政府のレポートや規制の中にも AGI という言葉が登場してきています。意見の一致は完全には見ることはできないにしても、私たちは、AGI がAI技術が進化していくその先にあって、人々の期待と畏怖の中に共有されるイメージはありそうだと感じながら、それがいつ頃来るのかという夢想をします。
AGI を実現するまでのタイムラインは、研究者や専門家の間でも意見が分かれますが、AGI が可能になるとされる年数が短くなる傾向にあります。
Geoffrey Hinton 氏は、去年(2023年)の時点で、5年から20年のタイムスパンで、人間よりスマートなAIが実現すると予測しています。
Ray Kurzweil 氏は、2029年、もしくは2032年に AGI が達成されるだろうと述べています。
NVIDIA 創業者・CEO である Jensen Huang 氏は、今年(2024年)、あと5年以内でAGIが達成されると述べています。
Google DeepMind の共同創業者であり、チーフ AGI サイエンティストである Shane Legg 氏は、50%の確率で2028年にAGIが開発されると見ています。Anthropic の共同創業者・CEOである Dario Amodei 氏は、あと 2〜3年で達成されると発言しています。
そして、Elon Musk 氏はもっとも早くにAGIが到来するとしている識者の一人です。彼は、2025年、もしくは2026年までに人間の中で最も賢い人よりもスマートな人工知能が開発されると予想しています。
今年1月に出た以下の論文では、いつ AGI が到来するかという予測モデリングを行っています。平均して、2041年、つまり、あと17年ほどで AGI が達成されるだろうという比較的マイルドな見立てを出しつつ、最もありうる最短のタイムラインとして、2028年をあげています。
破壊的イノベーションへの投資に特化した運用会社 ARK が、毎年、AIを含めた破壊的技術の今後の見通し、各種予測に関してまとめた「Big Ideas」という名称のレポートを出しています。
今年の「Big Ideas 2024」においては、専門家の AGI 到来についての予測がどう変化してきているかを以下のグラフにまとめています。
「AGI はあと何年で来ると思いますか?」という質問に対し、複数の専門家の回答の平均は、
2019年以前で、あと80年であったものの、
ディープラーニング、生成AI、LLM等の進展と普及により大きく軌道修正を迫られ、
2020年で、あと34年。
2023年で、あと8年。と劇的に縮まってきているというものです。
今年においては、「AGI 出現まであと3年」あたりまで縮まるかもしれません。AGI の到来が確実に近づいている、と我々は感じ始めていると言えるでしょう。
AGI の到来に備えて大切なこと
AGIが人類に脅威を与える可能性については、議論があります。例えば、OpenAIはAGIを人類の存続に関わるリスクとして捉えているのに対し、AGIの開発はリスクをもたらすには程遠いという意見もあります。
生成AI・LLM が初期の予想を超えて多くの人・企業で導入、活用されているという事実を踏まえると、AGIの社会的影響のスケールとその自律性がどれほどに及ぶかについて検討をしておくことは重要だと思われます。そして将来に備えてどのような AI の制御・管理の体制・仕組みを構築するか、また、どのようにAGIの開発を導いていくか、という観点は重要になります。
EUで今年5月21日に、世界初の包括的なAI規制とも言われる、EU AI Act (欧州AI法)が成立しました。EU AI Act は「AIはあくまで人間のためにあるもの」という認識に則り、AIは適切に管理されなければ人間の安全や権利を脅かす可能性も秘めているとして、倫理や基本的人権の尊重を重視した、リスク分類に基づくアプローチという方式を採用しています。EUはグローバルにおける今後のAI規制に関する議論に影響を与えることも想定しながら、AIの開発と活用はどうあるべきか、人とAIの関係はどうあるべきかを問い、ガバナンスを構築し始めています。
以前、ロボットと「心」の時代という以下の記事で書いたように、AIの開発と活用においてもそれを人間の価値観と結びつけ、AIを、社会課題を解決し未来を支えるよき人間の相棒としてその開発を導いていけるかどうかが今後は極めて大切になるでしょう。
AIはあくまでも人間のためにあるもの。人間を中心としてこそAIは社会のよいパートナーとなる、そういうアプローチをステークホルダー全員で、社会で議論しながら作り上げ、共有していく必要があるでしょう。AGI が脅威となるかどうか、そのリスクを我々が扱えるかどうかはひとえにそこにかかっています。
この記事が気に入ったらサポートをしてみませんか?