AIよ、君は本当に「考えて」いるのか? 思考の連鎖がAIの推理力を覚醒させる!
AIは人間の脳のように、複雑な問題を解くことができるのでしょうか? 近年、目覚ましい進化を遂げているAI技術ですが、その推論能力には、まだ疑問が残るようです。
例えば、Googleが開発したAIモデル「PaLM」は、5400億個ものパラメータを持つ巨大な言語モデルです。これだけの規模になれば、さぞかし複雑な問題も解けるだろうと思いきや、小学校レベルの算数の文章題を解くベンチマークテスト「GSM8K」では、なんと正答率が57%にとどまりました。
しかし、ある方法を使うことで、PaLMの正答率は劇的に向上したのです。その方法とは、「思考の連鎖プロンプト」と呼ばれるもの。これは、AIに問題を解くための思考過程を、人間が例示してあげるという方法です。
例えば、「りんごが3個、みかんが2個あります。全部で何個ですか?」という問題に対して、「りんごが3個とみかんが2個なので、合わせて3 + 2 = 5個です。答えは5個です」のように、思考過程を明示的に示してあげるのです。
すると、驚くべきことに、PaLMの正答率は57%から74%にまで向上しました。さらに、複数の回答を生成し、その中で最も多かった答えを採用する「多数決」方式を使うことで、正答率は83%にまで上昇。
思考の連鎖プロンプトは、AIの推論能力を向上させるための、強力なツールとなります。AIは、人間が示した思考過程を模倣することで、より複雑な問題を解けるようになるのです。
しかし、AIの推論能力は、まだまだ発展途上。例えば、問題文に無関係な情報が含まれていると、AIは簡単に騙されてしまいます。
AIが真に人間のように思考し、問題を解決できるようになるには、まだまだ多くの課題が残されています。しかし、思考の連鎖プロンプトのような技術は、AIの推論能力を高めるための、重要な一歩となるでしょう。
参考
Chain-of-Thought Prompting Elicits Reasoning in Large Language Models