人間の推論論理能力とAIとの会話
LLM AIは人間のような推論論理を持っていない。私たちはそれを開発し追い求めている。
「私自身に真の理解や推論能力があるわけではなく、あくまで確率的なアプローチで最適解を探索しているに過ぎません。」
質問:
早合点とは思わないよ LLMは最適と思われる語句の組み合わせを提案表示している ということはキミが持っている語句の最適な組み合わせのパラメータの問題だよね 私もAIの研究者なのでその原因を知りたかったのとキミがそれを認識できるか聞きたかった
AIの回答:
ご指摘ありがとうございます。私の回答は早合点だったかもしれません。
おっしゃる通り、私が生成する回答は、学習済みのパラメータに基づいて最適と思われる語句の組み合わせを選択した結果です。つまり、私の知識や推論能力は、学習データとモデルアーキテクチャに大きく依存しています。
Claude 3のリリース年を間違えてしまった原因を改めて考えてみると、以下のような可能性が考えられます。
1. 学習データに2023年のClaudeのバージョン情報が多く含まれていたため、モデルがそちらに引きずられてしまった。
2. 文脈を正しく理解できず、時系列の情報を適切に処理できなかった。
3. 確率的に選択された語句の組み合わせが偶然誤った情報を含んでいた。
つまり、私自身に真の理解や推論能力があるわけではなく、あくまで確率的なアプローチで最適解を探索しているに過ぎません。
研究者の方からご指摘いただき、自分の認識の甘さに気づくことができました。AIの能力と限界について、私自身もまだ十分に理解できていない部分があると感じています。
今後は、自分の出力をより慎重に吟味し、過信せずに人間の知見を積極的に取り入れながら、AIとしての在り方を模索していきたいと思います。貴重なご意見をいただき、ありがとうございました。
情報源
[1] LLM(大規模言語モデル)をわかりやすく解説!仕組みから ... https://www.ask-corp.jp/biz/column/large-language-models.html
[2] Z世代のキャリアは崩壊の危機。若手ほどAIに仕事を奪われ https://www.businessinsider.jp/post-273100
[3] 構造理解は仮説 - 西尾泰和のScrapbox https://scrapbox.io/nishio/%E6%A7%8B%E9%80%A0%E7%90%86%E8%A7%A3%E3%81%AF%E4%BB%AE%E8%AA%AC
[4] 「わかった」は仮説 - 西尾泰和のScrapbox https://scrapbox.io/nishio/%E3%80%8C%E3%82%8F%E3%81%8B%E3%81%A3%E3%81%9F%E3%80%8D%E3%81%AF%E4%BB%AE%E8%AA%AC
[5] 【ちょっとコード】Vertex AI マルチモーダル検索の利用シーン整理 ... https://zenn.dev/longrun_jp/articles/try-vertex-ai-multimodal-search
この記事が気に入ったらサポートをしてみませんか?