生成AIはバブルの可能性あり。ゴールドマンサックスが指摘する生成AIの限界とは?
ゴールドマンサックスが生成AIについて警鐘を鳴らすレポートを発行しているのをご存じだろうか?発行は2024年6月末。本原稿の執筆より少し前だ。
日本で紹介されているのを見たことがないが、生成AIに対して、ポジティブ、ネガティブの両論併記というレポートであり、イケイケドンドンなはずの米投資銀行としては、かなり慎重なレポートとなっている。
両方の主張とその根拠をカバーしており、わかりやすいので、紹介したい。
特に、最近、マイクロソフトがスリーマイル島の原発を電気会社に依頼して再稼働させ、20年契約で電力を買い取るなどと、最近のメガAIプレーヤーは、アグレッシブな投資姿勢を見せている。
米国での生成AIブームは本物なのか、偽物(ハイプ)なのか?日本は、生成AIブームに乗り遅れている感が漂っているが大丈夫なのか?などと、いろいろ思うところもあるだろう。だからこそ、この生成AIブームの真贋を見極める必要があるんじゃないだろうか?
参考にしてもらえれば幸いである。
1. Goldman Sachsのバランスの取れた慎重な分析
まず第一に、Goldman Sachsは、AIインフラ投資の金額が1兆ドル規模に達する見込みであることを指摘しつつ、その経済効果について、MITの教授やGS社内の専門家の見方を紹介しつつ、ポジティブサイド、ネガティブサイドの両面を紹介している。
特に注目すべきは、以下の3つの見方です。
Joseph Briggs(GS上級グローバルエコノミスト)の楽観的見方:
今後10年間で米国の生産性を9%押し上げ
GDP成長率を6.1%押し上げる効果
労働タスクの25%が自動化される可能性
Jim Covello(GSグローバル株式調査責任者)の悲観的見方:
AIは高コストな割に、複雑な問題を解決できない
インターネットと異なり、初期段階から高コスト
コスト低下も容易ではない
Kash RanganとEric Sheridan(GSのソフトウェアとインターネットのアナリスト)の中立的見方:
長期的な変革可能性は維持しつつ
現時点では「キラーアプリケーション」不在を認識
投資回収には時間がかかる可能性を示唆
Goldman Sachsは、こうした多角的な分析を通じて、投資家に対して、過度な期待や極端な悲観を避け、冷静な判断を促している。
2. Acemoglu教授による詳細な分析と警鐘
そのうえで、GSは、2024年にノーベル賞を受賞したMITの経済学者ダロン・アセモグル教授へのインタビューを掲載。彼は、生成AIは、AGI(超知能)は達成しないし、生産性の寄与やGDP押し上げも限定的と指摘している。
まず、AIの経済効果について:
(訳:「Eloundouらの包括的な研究では、生成AI、その他のAI技術、コンピュータビジョンを組み合わせることで、生産プロセスにおける付加価値タスクの20%強を変革できる可能性があることが示されています。しかし、これは時間軸を考慮しない予測です。」)
その上で、現実的な予測として:
(訳:「今後10年間で、AIに晒される業務のうち、コスト効率の面で自動化が実現可能なのはわずか23%です。これは、全業務の4.6%にしか影響を与えないことを示唆しています。」)
さらに、AIモデルの進化についても重要な指摘をしています:
(訳:「データの質も重要です。より質の高いデータがどこから来るのか、そしてそれがAIモデルにとって容易かつ安価に利用可能かどうかは不明確です。」)
AGI(人工汎用知能)の実現可能性についても、慎重な見方を示しています:
(訳:「AIが超知能を達成できるかどうかについても疑問を持っています。なぜなら、LLMが人間と同じような認知能力を持ち、質問を投げかけ、解決策を開発し、それらの解決策をテストし、新しい状況に適応させることは、想像するのが非常に困難だからです。」)
3. Acemoglu教授の分析への同意と現状のLLMの評価
Acemoglu教授の分析に、私は強く同意する。その最大の理由は、現在のLLMが抱える構造的な限界を、教授が正確に指摘しているからだ。
現在のLLMは、確率的な言語モデルという本質上、ハルシネーション(誤った情報の生成)を完全に防ぐことは不可能だ。いろいろなベンチマークで性能が上がったといっても、トレーニングデータを増やしたり、モデルのチューニングをしているだけであり、根本的には、ものすごくでっかい確率マシーンであることに変わりはない。
したがって、学習データが偏っていたりると間違えるし、また、そもそも、同じ言語も文脈によって違うなどという、言語特性まで加味すると、生成AIが、文脈を汲み取って話すことは現状できていないし、今後もできないと考える。(この辺は、論文が複数あるので、ご興味があれば、いずれ紹介したい)
さらに、4-5歳児レベルでも理解できるであろう、常識や思考すら困難で、基本的な物理法則の理解も不完全だ。文脈に応じた適切な判断を行う能力も、人間の幼児と比べても著しく劣る。
ただし、ある側面では、LLMはとてもパワフルだし、実用的だ。テキスト認識、画像認識、音声認識などの特定タスクにおいては、驚くべき性能を発揮する。特に、定型的な文書作成、コーディング支援、情報の整理や要約といった実務的なタスクでは、すでに多くのユーザーが恩恵を受けてるのは周知のとおりだ。
私が思うのは、LLMの限界を正しく理解したうえで、適切な期待値を設定することだ。誤解してほしくないが、私は、LLMに対してネガティブなのではなく、現実的に見ようぜ、Cool Downしようぜと言っている。
4. 今後の展望:より現実的なAI活用へ
AIの発展は、これまでの「SF的な理想論」や「終末論」という極端な予測から、より現実的な方向へとシフトすべきだ。
LLMそのものの性能向上は、いずれ頭打ちを迎える。いや、すでに迎えていて、Open AIのGPT5は思ったほど性能改善しないという噂もある。
しかし、AI技術全般は、LLM以外も含めて、着実な進化を続けるはずだ。問題なのは、LLMがバブルのように盛り上がり、LLMだけが人材とお金を吸い込むような状態になるのは、技術開発の観点で、マイナスが大きいという点だ。
今、国家として、企業として、あるいは、個人として、生成AIとどう向き合うのかを問われている時だと思う。そこで、特に重要なのは、LLMの基本構造を理解することだ。
LLMはこうなっていますという説明を自信をもってできる人がどれくらいいるだろうか?今は、みな中身を理解せずに、「すごいのかなぁ?」、「俺の仕事どうなるんだろう?」と思って、右往左往しているだけだ。
要するに、自動車の運転を学ぶのと同じなのだ。自動車教習所で車の基本的な仕組みや点検方法を学ぶように、LLMについても、その特性や限界を理解することが不可欠だ。その上で、LLMの限界や、活用の注意点を学べばよいのだ。
私は、現在のLLMを、クラシックカーに例えるのが好きだ。LLMは、予期せぬ動作をする「ポンコツ」な面もあるが、その個性を理解し、上手く付き合えば、非常に魅力的なツールとなる。1960年代のアメリカ車やイタリア車のように、完璧とは言えないけれど、使いこなす楽しさのある存在として捉えるべきではないだろうか。
今後は、LLMの「できること」よりも「できないこと」を理解することが、より重要になっていくと考えている。繰り返いしになるが、LLMの基本的な仕組みを理解し、適切な用途と使用方法を見極める必要がある。過度な期待や不安を避け、着実な活用を進めていく—それが、日本がAIの世界で戦っていくための鍵となるだろう。