見出し画像

AIもコスパが大事(7) - AIの課題(1)

AIは魅力的な技術ですが、AIにも色々な課題があります。コストも課題ですが、技術課題としてフレーム問題や説明問題、そして品質問題があります。これらの課題がどのような問題であり、どのように対応すればいいのでしょうか。

前節:AIの選択 次節:未公開


AIの課題

AIは非常に便利な道具ですが、一方、色々な課題があります。AIの学習データ収集やその分析にお金が掛かり過ぎるというコスト問題が一番大きく、本シリーズのテーマにしていますが、それ以外の問題も多くあります。

課題の一つには周りの状況(フレーム)を認識する「フレーム問題」や、AIがどのように判断したかを人間に説明する「説明問題」があり、さらにこれらを含む「品質問題」があります。ここではこれらの問題を見ていくことにします。

フレーム問題

フレーム問題とは、AIで対象にしている用語(記号)が現実世界とどのような関係(枠組み、フレーム)を持っているかを認識できるかと言う問題です。

このひとつに「記号接地問題」があります。AIで対象にしている記号が現実世界でどのように接地(結合)しているかという問題です。

記号設置問題では例えば、「100円持って文房具屋さんで消しゴムを買う」という知識に対し、「文房具屋さん」や「消しゴム」が何かを知っているかという問題です。さらに「営業時間なのか」「台風が来ていても行くのか」などの現実問題も認識する必要があります。

これらは人間であれば、「常識」として認識していますが、この常識をAIが認識できるか(いや、できない(反語))ということになります。そうです、AIは常識を知りません。(人間の勝ち!)

このフレーム問題を解決するには、膨大な学習データを与えることで、幼児レベルから子供レベル、そして一般レベルへ成長できると考えられています。

(閑話)生成AIの場合

なお最近流行の生成AIではこのフレーム問題は華麗にスルーしています。生成AIは巨大なデータをベースにした「穴埋め問題」を解いている(だけな)ので、常識は参考にしたデータに丸投げして、生成AI自身では何もわかっていません。(ディスっているわけはありません。生成AIはそれ以上でもそれ以下でもないだけです。そしてそれは非常に有用な方法です。)

説明問題

説明問題とはAIが下した判断の理由を説明できるかという問題です。例えば、将棋AIでどうしてこの手を指したのか、この局面でどのように評価値を出したのかという理由を人間に説明できるかという問題です。これはAIの透明性の問題になり、AIがブラックボックスになるという問題です。

元々プログラムは(量子コンピュータは置いておいて)決定論的な動作をするものです。その動作した理由もすべてプログラムとデータにあり、動作は完全に説明できるものです。しかし機械学習では、学習データがあまりにも膨大になり、それを分析した学習結果がどのように制御パラメータに影響を与えたかが説明できなくなります。まるでAIは非決定論的な動作をしているように、外側から見えます。

これは人間が多くの経験で学んで、それが脳にインプットされた結果、どのように判断を下したかを説明できないとの同じです。「なんとなく」「直観」「気分で」というのは、説明をするのができないときの言い訳になります。たぶん。

この問題は機械学習以前のAIにもありました。エキスパートシステムでもそのルールが1万個を超えると、どのルールがどのように適用されて、判断をしたのかがわからなくなっていました。

この説明問題は大きな問題になっています。なんと言ってもユーザに動作を説明できません。AIが判断した結果がいいときには問題になりませんが、悪い結果になってときは、責任追及は免れません。そのときに無実の証明が求められます。例えば、自動車の自動運転などはきついものになります。
・・・自動運転システムにトロッコ問題を解かせてみたい(独り言)

説明可能なAI

説明可能なAI XAI(Explainable Artificial Intelligence)に関する研究は多くされています。XAIはAIが下した判断の根拠や経過を人間に示すことができるAIです。

大域的な説明(Global Explanation)としては、AIのモデルを簡単なモデル(例. 決定木、特徴量重要度モデル)にして説明するというものです。これらは全体を掴むのに適したものです。

局所的な説明(Local Explanation)としては、部分的な判断を説明するための簡単なモデルに近似して説明するものがあります。

これらの説明の納得はモデルの近似性に依存します。モデルを簡単にすると近似性に疑問が沸き、モデルを近似し過ぎると複雑になり説明の納得性が悪化します。

(閑話)生成AIの場合

なお最近流行の生成AIではこの説明問題は華麗にスルーしています。生成AIは巨大なデータをベースにした「穴埋め問題」を解いている(だけな)ので、根拠としたデータはそれほど多くなくてよく、根拠を示すのは比較的容易です。(・・・うらやましい)

その他の品質問題(バイアス問題など)

AIの品質問題としては、一番大きなコスト問題以外に、上記のフレーム問題や説明問題が注目されていますが、他にも色々な品質問題があります。例えば学習データの品質問題が大きい問題としてあり、たとえばデータの偏りから来る「バイアス問題」があります。

これらの問題はAIの技術的な問題であり、これらがAIの品質問題になります。

(閑話)生成AIの場合

このバイアス問題は生成AIでも問題になります。生成AIは結局、穴埋め問題を解決するAIなので、その穴埋め問題を解くために、どのような学習データを入力したかで生成AIの品質は大きく異なります。

これは他の機械学習AIよりも大きな影響を受けることになります。つまり、生成AIを信用できるかどうかは学習データに大きく依存します。

データを膨大にすれば、統計的に中立になり、信用度も上がりますが、コストが掛かります。このシリーズのテーマ「AIもコスパが大事」が大事になります。

(予告)AIの課題(2)

今回はAIの技術的な問題を取り上げて、AIの課題を見てきました。次回は非技術的な問題を取り上げていくことにします。お楽しみに。


いいなと思ったら応援しよう!

五味弘
よろしければサポートをお願いします!