見出し画像

AIよ、君は本当に「考えて」いるのか? 思考の連鎖がAIの推理力を覚醒させる!

AIは人間の脳のように、複雑な問題を解くことができるのでしょうか? 近年、目覚ましい進化を遂げているAI技術ですが、その推論能力には、まだ疑問が残るようです。

例えば、Googleが開発したAIモデル「PaLM」は、5400億個ものパラメータを持つ巨大な言語モデルです。これだけの規模になれば、さぞかし複雑な問題も解けるだろうと思いきや、小学校レベルの算数の文章題を解くベンチマークテスト「GSM8K」では、なんと正答率が57%にとどまりました。

しかし、ある方法を使うことで、PaLMの正答率は劇的に向上したのです。その方法とは、「思考の連鎖プロンプト」と呼ばれるもの。これは、AIに問題を解くための思考過程を、人間が例示してあげるという方法です。

例えば、「りんごが3個、みかんが2個あります。全部で何個ですか?」という問題に対して、「りんごが3個とみかんが2個なので、合わせて3 + 2 = 5個です。答えは5個です」のように、思考過程を明示的に示してあげるのです。

すると、驚くべきことに、PaLMの正答率は57%から74%にまで向上しました。さらに、複数の回答を生成し、その中で最も多かった答えを採用する「多数決」方式を使うことで、正答率は83%にまで上昇。

思考の連鎖プロンプトは、AIの推論能力を向上させるための、強力なツールとなります。AIは、人間が示した思考過程を模倣することで、より複雑な問題を解けるようになるのです。

しかし、AIの推論能力は、まだまだ発展途上。例えば、問題文に無関係な情報が含まれていると、AIは簡単に騙されてしまいます。

AIが真に人間のように思考し、問題を解決できるようになるには、まだまだ多くの課題が残されています。しかし、思考の連鎖プロンプトのような技術は、AIの推論能力を高めるための、重要な一歩となるでしょう。

参考

Chain-of-Thought Prompting Elicits Reasoning in Large Language Models


いいなと思ったら応援しよう!