![見出し画像](https://assets.st-note.com/production/uploads/images/154576022/rectangle_large_type_2_f569f86f8cd68ab881fd1e010c8eaaaa.png?width=1200)
AI普及の鍵は、AIの頭の中を知ること?
こんにちは。
税理士法人上坂会計 DXメンターチームの笹岡です。
先週の9月12日に、OpenAIから新しいAIモデル「o1(オーワン)」が発表されました。次々に色々なAIモデルが登場してきて、目が回りそうですね!
o1は、これまでのAIモデルと違い、「熟慮するAI」と言われています。
例えばGPT-4oに指示文(プロンプト)を投げた場合、ほんの数秒ほどでそれに対する回答文を生成してくれます。
一方でo1は、指示文にもよりますが、回答するまでに数十秒ほど時間が掛かかる場合があります。その代わり、従来のモデルよりも正確で、かつ不適切な表現を避けた回答を生成してくれるようになりました。
単純な文章生成が目的であれば、GPT-4oの方が高いパフォーマンスを発揮しますが、より複雑な思考が求められるような文章生成においてはo1の方に軍配が上がります。特に、STEM分野(科学、技術、工学、数学の分野)を得意とするようです。
ChatGPT Plusとteamユーザーはすでに利用可能になっているので、私も早速試してみたのですが、個人的には「まだもう一歩かな」という印象でした。
なかなか実務レベルで使うことを想定したときに、これまでのAIモデル以上のユースケースが思いつきません。
STEM分野を事業として扱っている会社にとっては有効なのかもしれませんが、それ以外の企業にとってはAIの実践投入するための決定打にはならないと思いました。
個人的には、多くの企業においてAIが実践投入するようになる一つの転換点は、AIのホワイトボックス化にあると思っています。アルゴリズムが単純な機械学習モデル(決定木や回帰モデル)は、AIがどのように考えて判断したかを人間が確認することができるのですが、深層学習と呼ばれるような複雑な機械学習モデルになると、人間側からはAIがなぜその判断をしたのか分かりません(ブラックボックス化)。ブラックボックスになっている部分を明らかにし、AIの判断プロセスを人間が解釈できるようにすることが今後重要になってくるのではないかと思います。
何故なら、ブラックボックスのままでは、人間はAIのことを信用できないためです。
お医者さんがAIを使って患者の病状を診断したとき、お医者さんから「あなたの病気は〇〇です。なぜなら、AIがそう判断したからです」と言われたら、患者は「このお医者さん、大丈夫かな?」って不安になりますよね。
私たちのような会計事務所においてもそうです。
「この会計処理で大丈夫です。なぜならAIが大丈夫だと言ったからです」と税理士が言ってきたら、その税理士のことを信用しないですよね。
AIの判断結果が仮に間違っていても、そこまで大きな影響が出ない分野であれば、AIの判断根拠がブラックボックスのままでも実践投入できるでしょう。しかし、AIの判断が間違ったことで、医療のように人の命に関わったり、会計のようにお金に関わったりすることだと、AIの判断をそのまま鵜呑みにすることは、とても大きなリスクとなります。
しかし、業務効率化のためにAIはやはり活用したいですよね。
この問題を解決するために、XAI(eXplainable AI、説明可能なAI)の研究が注目されています。
こちらは、その名の通り、AIの判断のブラックボックスの部分を説明可能なものにするためのAIの研究分野です。
これまでは画像認識において、XAIの研究がよくされてきました。AIが画像認識に使った部分を視覚的に見せる等、人間がAIの判断を解釈できるようにするツールが開発されて、代表的なものとしてSHAPやLIME、Grad-CAMなどがあります。
生成AIの分野においても、Googleが今年の4月にPatchscopesというフレームワークを発表しました。Googleのブログによると、LLM(大規模言語モデル。生成AIを実現しているAIモデルの1つ)自身の内部の表現を、LLMを使った自然言語によって説明する、とのことです。
つまり、生成AIが自分の頭の中を自分で言語化して説明してくれる、ということですね。
このようなXAIが実用化されて、普及していけば、人間はAIが出した回答を盲目的に信じるのではなく、AIの判断の妥当性を解釈することができます。人間が自分の頭で妥当だと判断できたものであれば、安心してお客様にもその判断結果を伝えることができるようになりますよね。
今回OpenAIが発表したo1は「熟慮するAI」ですが、その熟慮の内容は回答生成の過程で切り捨てられてしまうため、人間には分かりません。
今後、XAIの研究が進み、人間がAIの頭の中を知ることができる日が来れば、その時が多くの企業がAIを本格導入する日になるのではないか、と思います。
今回の記事が、少しでも皆さんのDXの理解に役立てば幸いです。
弊社でも、企業のDX支援をお手伝いさせていただいております。DXについての相談を常時受け付けておりますので、お気軽にお問い合わせください。
弊社へのお問い合わせは、こちらからどうぞ