見出し画像

元マサチューセッツ工科大教授、サム・アルトマンとイーロン・マスクを詐欺師呼ばわり

なんとも老害感溢れる見解を持っているMIT(マサチューセッツ工科大)コンピュータ科学・人工知能研究所で教授・所長を歴任し、iRobotやリシンク・ロボティクスの創業で知られるロドニー・ブルックス氏の見解を紹介する動画がアップされましたので紹介していきます。

では上記の動画で解説されているロドニー・ブルックス氏の見解を順を追って紹介していきます。

また、この動画で紹介しているのは下記の記事です。


生成AI は素晴らしい技術だがそれほど有能ではない

ブルックス氏は「生成AIはそのパフォーマンスだけでなく、周囲の能力も過大評価されることがよくあります。人々は生成AIの能力を過大評価し、楽観的に擬人化しています。特定のタスクで人間のパフォーマンスをモデル化するために使用するためです。基本的に、このAIシステムが一つのことをうまく実行できれば、多くの他のこともできると考えられています。しかし、生成AIは人間ではなく、人間らしくもないため、それに人間の能力を割り当てようとするのは間違っています」と語ったそうです。


ブルックス氏に反論:ブルックス氏の意見には一定の妥当性がありますが、彼の見解が技術の進化を過小評価していることも事実です。例えば、生成AIは自然言語処理や画像生成の分野で顕著な進歩を遂げています。OpenAIのGPT-3は、その高度なテキスト生成能力によって、実際に多くの実務的な応用が確認されています(Brown et al., 2020)。また、DeepMindのAlphaFoldは、タンパク質の立体構造予測で科学的ブレークスルーを達成し、これまで解決困難だった生物学的課題を解決しました(Jumper et al., 2021)。これらの実績は、生成AIが特定のタスクにおいて非常に有用であることを示しています。新しい技術の可能性を認識し、柔軟に対応することが重要です。

参考文献:

  • Brown, T. B., Mann, B., Ryder, N., Subbiah, M., Kaplan, J. D., Dhariwal, P., ... & Amodei, D. (2020). Language models are few-shot learners. arXiv preprint arXiv:2005.14165.

  • Jumper, J., Evans, R., Pritzel, A., Green, T., Figurnov, M., Ronneberger, O., ... & Hassabis, D. (2021). Highly accurate protein structure prediction with AlphaFold. Nature, 596(7873), 583-589.

倉庫ロボットシステムへの反論

ある人が彼に、倉庫ロボットに指示を出すためのシステム用に大規模言語モデル(LLM)を構築するのがクールで効率的だと提案しました。しかし、ブルックス氏はそれが生成AIの合理的な使用例ではなく、むしろ物事を遅くするだろうと考えています。彼は代わりに、倉庫管理ソフトウェアからのデータストリームにロボットを接続する方がはるかに簡単であると述べています。

また、彼のヒューマノイドロボットに対する立場も興味深いです。ブルックス氏は、現在一般的に作られているヒューマノイドロボットの設計は基本的に間違っていると考えています。彼は実際の使用にはヒューマノイドよりも、カートのような実用的なロボットを好んでいます。ロボットと人間が協力することが重要であり、そのためには人間のように見えるロボットではなく、ハンドル付きのショッピングカートのようなデザインのロボットが適していると述べています。

ブルックス氏は、多くのヒューマノイドロボットを製造し、納品してきた経験がありますが、これらのロボットは実際にはショッピングカートのような形状が最適であると考えています。ハンドルバーが付いているので、ロボットに問題が発生した場合、人がハンドルバーをつかんで操作することができます。長年の努力を通じて、ブルックス氏はテクノロジーをアクセスしやすく、目的に合わせて設計することの重要性を学びました。彼は常に、テクノロジーを人々が理解しやすいように努めており、その結果、大規模に展開可能な設計ができると述べています。

基本的に、ブルックス氏は、現在の会社ではヒューマノイドのフォームファクターが最適ではないと考えています。特定のシナリオでは、問題が発生した場合に人が簡単に操作できるデザインが重要だと述べています。AIに関する誇大宣伝はしばしば限界を無視しますが、実用的な設計が重要です。


ブルックス氏に反論:ロドニー・ブルックス氏の見解に対して、人型ロボットが倉庫での作業にどのように活躍しているかを示すエビデンスがあります。例えば、AmazonはAgility Roboticsの人型ロボット「Digit」を倉庫作業に導入しており、空のトートを移動させるプロセスを自動化するためにテストを行っています。このロボットは人間が設計した環境で効果的に動作し、感知、把握、移動を自律的に行うことができます​。

また、Boston Dynamicsの「Atlas」も、高度な環境認識能力と適応力を持ち、複雑なタスクをこなす能力が評価されています。これらのロボットは、従来のKiva Systemsのロボットとは異なり、人間のように動作することで、より多様な作業に対応できる可能性があります。

これらの例から、人型ロボットが倉庫作業においても有効であることが実証されています。技術の進化により、人型ロボットがさらに多くの倉庫作業を担うことが期待されます。

参考文献:

  • Agility Robotics. (2021). "Digit." Retrieved from Agility Robotics.

  • Boston Dynamics. (2021). "Atlas." Retrieved from Boston Dynamics.

AIは必ずしも指数関数的に成長するわけではない

AIに関する誇大宣伝は、しばしばその限界を無視しています。技術は必ずしも望むように指数関数的に成長するわけではありません。ブルックス氏はここで奇妙な例を挙げており、そのコメントが少し奇妙な理由も説明しています。結局のところ、これは20年以上この分野に携わってきた人にとっては非常に信頼できる情報源です。彼は、テクノロジーに関して常に指数関数的な成長があるというムーアの法則に基づいた誤った考えが存在すると述べています。

「もしチャットGPT-4がこれほど優れているなら、チャットGPT-5、6、7がどうなるか想像してほしい」という考え方は誤った論理です。ムーアの法則にもかかわらず、テクノロジーは常に指数関数的に成長するわけではありません。彼はiPodの初期モデルを例に挙げており、そのストレージ容量は10GBから160GBに倍増しました。しかし、2017年には160テラバイトのiPodが登場するという予想は外れ、実際には256GBまたは160GBのモデルが販売されました。これは、彼が指摘するように、それ以上の容量を誰も必要としなかったためです。確かに、ムーアの法則は常にすべてのケースで機能するわけではなく、これは技術の進化を分析する上で重要な点です。この例は正しいとは言えませんが、技術の進化には限界があることを示しています。


ブルックス氏に反論:ロドニー・ブルックス氏の見解は「GPT-3からGPT-4への進化は指数関数的であったが、GPT-5以降はマイナーアップデートにとどまり、技術の進化が止まる」考えているかもしれません。しかし、GPT-4oのようなマイナーアップデートでさえ、テキスト、音声、画像、ビデオの入力を受け取り、それらの出力を生成する能力を持ち、音声入力には232ミリ秒で応答するように進化しました。これは人間の会話速度に匹敵します。また、非英語テキストの処理能力も向上し、APIの速度は大幅に改善され、コストも50%削減されています。視覚と音声の理解も既存モデルより優れています。これらの進化を見ると、技術は止まらず今後もさらに進化が続くことが予測されます。

「成功するまで偽装する」文化の懸念

動画を制作したTheAIGRIDは、下記のような補足をコメントしています。
バブル期には、スタートアップ企業に金融サービスを提供するクルーズコンサルティングの財務戦略担当副社長であるジョーンズ氏は、ベンチャー企業が潜在的な投資についてより慎重にデューデリジェンスを行うようになったと述べましたが、それは当たり前のことであり、特別に称賛されるべきではないと指摘しました。ニューヨークタイムズの記事によれば、彼はスタートアップ詐欺について言及し、サンフランシスコのスタートアップシーンの崩壊に注意を払うべきだと警告しています。これはサンフランシスコだけの問題ではなく、スタートアップ文化全体が、人々に実際よりも成功しているように見せかけるプレッシャーを与え、その結果、過大な主張がなされる状況を生み出しています。このような主張を裏付けるために、多くの努力がなされ、場合によっては刑務所に行くことさえあります。

シリコンバレーのスタートアップにおけるコントロールの欠如は、過去10年間でますます顕著になっており、投資家たちは人気企業を支援するあまり、無謀な行動を見過ごし、重要な監視役を放棄しました。創業者が「成功するまで偽装する」精神を貫くと、投資家はそれに気づかなかったり、無力であったりしました。シリコンバレーには成功するまで偽装する文化が根付いており、人々は次の大物になりたがり、その結果、多くのスタートアップが詐欺的な手法を使うようになっています。

例えば、テラノスのケースは史上最大の詐欺の一つとされています。CEOは、血液を一針刺すだけで数秒以内にすべての診断結果を得られるという革命的な製品を開発したと偽っていましたが、その製品は実際には機能しないものでした。この事例からもわかるように、多くの人々が一見うまくいっているように見せかけ、数百万ドルの支援を受けながら、実際には何も成果を上げていない場合があります。


TheAIGRIDの見解に対する感想:TheAIGRIDの動画は、サム・アルトマンに対して非常に批判的な立場を取っているようです。この動画では、アルトマンのビジョンや行動を詐欺と見なすようなニュアンスが含まれていることがわかります。

イーロン・マスクやジャンセン・ハンは間違ってる

ご想像の通り、これらはすべて生成AIと大規模言語モデルに関するものです。2023年はこれらのトピックが科学、文化、政治界の一般意識に浸透した年であることは間違いありません。私は1976年から正式にAI研究者として活動しており、それ以前は高校と大学で趣味としてAIに関わっていました。しかし、世界中の政治家が「人工知能」という言葉を発するのを聞いたのは今年が初めてです。そして彼らがその言葉を使った時、誰も驚かず、皆がその内容を理解していました。

私はこれまでに3回しかコメントしたことがありませんが、ヒューマノイドロボットのバラ色の未来を予測するつもりはありません。なぜなら、私はその分野で25年以上働いており、研究用ヒューマノイドや実際に配備された何千ものヒューマノイドロボットを製造してきたからです。基礎研究のブレークスルーを必要とする非常に困難な課題は明らかでした。数年以内にヒューマノイドロボットが仕事を変えると言っている起業家は多いですが、彼らは間違っています。この発言は、イーロン・マスクやNvidiaのジャンセン・ハングなど、ヒューマノイドロボットが仕事のやり方を変えると主張している多くの人々を指していると思います。イーロン・マスクは、2030年代から2040年代には何百、何千、何百万ものヒューマノイドロボットが存在すると言っていました。

私の予測では、少なくともあと25年間はヒューマノイドロボットが重要な役割を果たさないだろうというものでした。ヒューマノイドロボットに関するデモはすべて偽造されている可能性があります。なぜなら、そのようなことは実際に起こるからです。私は企業に所属しているわけではなく、舞台裏で働いているわけでもありませんが、このようなことが起こるのを見てきました。

ここには、私と私が率いるチームが作ったヒューマノイドロボットがあります。彼らができることは本当に興味深く、クールですが、ロボット工学は想像以上に難しいです。彼のAIに関する話に戻りますが、ディープラーニングを超える次の大きな技術は2023年より早く現れないが、2027年までには確実に現れると予測していました。また、2018年1月の予測では、誰かがすでに次の大きなものに取り組んでおり、それに関する論文がすでに発表されている可能性が高いと述べました。

ブルックス氏に反論:彼の見解には一定の説得力がありますが、技術の進化を過小評価している部分も見受けられます。例えば、Agility RoboticsのDigitやBoston DynamicsのAtlasなどの人型ロボットは、すでに実用的な作業を行っています。Digitは倉庫での荷物運搬や棚整理などのタスクを効率的にこなし、Atlasは複雑な環境でも柔軟に対応できる能力を持っています。さらに、GPT-4の開発によりAI技術も飛躍的に進化しており、マルチモーダル入力への対応や高精度なテキスト生成が可能となっています​。これらの事例は、技術の進化が止まらないことを示しており、今後もさらなる発展が期待されます。

ニューロシンボリックAIを推すブルック氏の見解

Neuro-symbolic AIは、ディープラーニングでよく使われるニューラルネットワークと、高レベルな人間が理解しやすい知識と推論に焦点を当てたシンボリックAIを組み合わせたアプローチです。このハイブリッド手法は、両方のパラダイムの強みを活かして、より堅牢で多用途なAIシステムを作り出すことを目指しています。

具体的には、ニューラルネットワークはディープラーニングにおいて、大規模なデータセットから学習し、非構造化データを処理するのに優れています。特に音声認識や自然言語処理において高い性能を発揮します。しかし、その欠点として、「ブラックボックス」的な性質、明示的なルールや知識の取り込みの難しさ、推論と理解における課題があります。

一方、シンボリックAIはシンボルとルールを用いて明示的な知識を表現し操作するのに優れ、論理的な推論、計画立案、理解において卓越していますが、非構造化データの処理や生データからの学習には限界があります。

そこで、Neuro-symbolic AIはこれらの両方の利点を組み合わせることで、非常に有用なシステムを実現します。ブルックス氏は、2023年3月までに、AIにおける次の大きなブレークスルーが大規模言語モデル(LLM)であることが明らかになったと述べています。この技術革新は2018年以前、具体的には2017年に発表されていたものであり、この予測において勝利を主張しています。

ブルックス氏に反論:ロドニー・ブルックス氏は、AIの未来においてNeuro-symbolic AIが重要な役割を果たすと予測していますが、ニューラルネットワーク技術の進化も依然として非常に重要であり、その進歩は止まることなく続いています。
例えば、イーライ・リリーとOpenAIは、生成AIを活用して薬剤耐性菌(スーパーバグ)感染症の治療に使える抗菌剤を開発するために共同で取り組んでいます。この共同開発は、ニューラルネットワークベースのモデルを使用して行われています。
この共同プロジェクトの主な目的は、薬剤耐性菌による感染症の治療に有効な新しい抗菌剤を発見することです。薬剤耐性菌は、既存の抗生物質に対する耐性を持つため、新しい治療法が必要とされています。

下記のNoteに詳しく解説していますので合わせてご覧ください。

動画へのコメント

「老兵はただ去り行くのみ」的な動画へのコメントがありますので、共有していきますね。

私が見ているのは、嫌悪感を抱く年寄りのアホ野郎です。生成型 AI は一歩先を行くもので、それが完璧だとか AGI の未来だとか言う人はいません。それはパズルの 1 ピースにすぎません。新しい血に限界を押し広げさせ、他の全員に席に座ってもらう必要があります。

はい。CPU のクロック速度を上げられなくなったときに、並列処理と複数のコアを採用したのと同じです。その後、GPU を追加しました。などなど。認識された限界を回避して作業しました。

この男は「いやいやいや、代わりに私のものを買ってください。あれは絶対に機能しませんよ」と言っているように聞こえます。


私はこのチャンネルや他のチャンネルで何度もこのコメントを残してきました。Yann LeCunt のような人たちは、LLM が事実上単なるおもちゃであるかのように振る舞って恥をかいています。彼は嫉妬の臭いがします。

何が起ころうとも、私たちはこれからも衝撃を受け、驚愕し、畏怖し、恐怖し続けるだろうと思います。

この老人の予測は、2、3年後にはばかげたものになるだろう。彼は指数関数的な世界における典型的な直線的思考者だ。

日本人はこの進化についていけるのだろうか?

ブルックス氏がニューラルネットワークやシンボリックAIの未来について語りながらも、現代の技術に対して懐疑的な見解を示しているのを見ると、日本人も同じように1990年代の成功にしがみついているように見えることがあります。

日本の技術革新は、かつては世界をリードしていましたが、近年はその進化の速度に遅れを取っているとの指摘もあります。ブルックス氏のように、過去の実績に固執することで、新しい技術の波に乗り遅れるリスクがあるのではないでしょうか。

日本が再び世界の舞台でリードするためには、過去の栄光にすがるのではなく、現在進行中の技術革新に積極的に対応し、新しい技術とその応用に対する前向きな姿勢が求められます。ロドニー・ブルックス氏の見解は、日本が未来に向けてどのように進化し続けるべきかを考える上での重要な警鐘となるでしょう。

いいなと思ったら応援しよう!