茂木健一郎氏の講演「脳力とAIアライメント」に反論してみた 前編

脳科学者茂木健一郎氏は、「Developer eXperience Day 2024」(日本CTO協会主催)で、「脳力とAIアライメント」というテーマの講演を行った。
https://www.itmedia.co.jp/aiplus/spv/2408/08/news112.html
この元記事のタイトルは「人間は人間にしか興味がない」という扇情的な発言が用いられている。私は、ネット記事とはそういうものとは理解しつつも、「いや、そんなことないでしょ」と感じた。
よって今回はこの講演について、私のAIについての知見をもとに反論を行う。

とはいえ、茂木氏を糾弾する意図は毛頭ないことは名言しておきたい。そもそも「AIアライメント」自体が噛み砕いて表現すると、AIを人間の思い通りにするにはどうしたらいいか、についてのコンテンツである。人間中心の考えについての講演なのだから、そのような発言が出ることにおかしさはない。ここは、脳科学者は人工知能分野の専門家ではないのに、知能という一括りで捉えて議論させることの危険性に気付いて頂きたい。

・ChatGPTはメタ認知を「持たない」のではなく「主体的にできない」
セルフフィードバックを求めたらある程度の会話ターンまではメタ認知ができる人間と似た思考様式、行動決定が可能だが、自律してそうしているわけではないため、人間が指示し続けないと固定できない。
→現段階では人間がフィードバックを与える必要があるが、事前学習によりデフォルト設定させる+記憶領域を増やす(∵メタ認知には過去の事象+自分がどう認識したかの記憶が両方ともセットで必要)ことにより可能と考えられる。或いは複数のLLMを複合することにより行動決定側、客観視側に分けることも考えられる。

・そもそもメタ認知を自発的にしていないので、自己評価はChatGPTの中では(多分)高いも低いもない。よってダニング=クルーガーの論を持ち出すのは不適当である。

・メタ認知が出来ない≠ハルシネーションの原因
確かにメタ認知が出来ることによりハルシネーションの防波堤を築くことはできる(「あ、これ違うかも!」と気付ける)。しかし根本的には情報の取捨選択がまだうまくできてない、というか検索順位や検索結果の母数に情報の精度が影響されるシステムの改善が必要(最も情報の取捨選択をするということは、AIが価値判断をすることに繋がるので、システム構築にあたってはその倫理的問題に関しても議論されねばならない。)

・AGIについての懐疑論、というか、処理速度も正確性も何もかも人間を超越した知能が現れる、というのは妄想だと私も思っている。
ただ、「タスクを習得する一般的な能力を持つ」この言葉から受ける印象に反して、タスク解決の一般的スタンスを持つということは、AIが性格を持つようになるという側面があるだろう。コンピテンスの具体例を、就活の自己分析と重ねて考えてみると分かりやすい。課題解決のスタンスで、客観的データに基づく、周りが納得するかを重視する、正確性を第一とする、即断即決する…これはもはや思考パターン、性格といえるだろう。
性格があるのならば、人間の場合尊重して然るべきだし、AIに人間のような権利は認められないという人も、人間側が機械の特性に合わせた対応を取らないと不利益を被ることがある点には、首を縦に振るはずである。

思いがけず話が長くなったので、本題に入るのは次回とする。

この記事が気に入ったらサポートをしてみませんか?