AIが得意なこと、苦手なこと
はじめに
多くの方がテーマとして発信されている事柄ですが、筆者のAI利用経験からも考えてみたいと思います。
ChatGPTに聞いてみた
質問:AIが得意な事と苦手な事を両方挙げてください。
LLM回答にありがちな「無難でごもっとも感」はありますが、実際は大きく異なると思います。経験的に、ほとんどが逆なのではと考えています。
昔から言われるAIのステレオタイプを記述しただけの回答なのではないでしょうか。つまりハルシネーションです。
これらについて考えてみたいと思います。
ChatGPTが言うAIが得意なもの
☓ 大量のデータを瞬時に処理し、必要な情報を抽出・整理する
LLMを利用している人なら知っていると思いますが、まず遅いです。大量のデータを処理するなら、データベースやプログラム言語で処理すべきです。
そもそも2024年最強のスパコンAIでも数百万トークン”しか”処理できません。そしてデータ量増加に対して指数関数的にハルシネーションの割合が増えます。つまり、大量データの処理は明らかに不得意です。人が非AIのソフトウェアを利用して解析する方がよっぽど効率的です。
※ もちろん、ビッグデータ解析等で、従来の統計手法や人が認識できなかった新たな「特徴」を拾う能力はあります
◯ パターン認識と分析が得意
これはAIそのものの基本的振る舞いや目的でもあるので、正しいと思います。
☓ 繰り返し行われる自動化と効率化が得意
典型的な現代の生成AIの勘違いだと思います。定形や繰り返し行われるタスクには、正確に命令できる通常のプログラム言語を利用すべきだと思います。全く同じ条件でも同じ結果を出さないのがAIなので、繰り返しや正確性を求めるタスクにはめっぽう弱いです。
一方で、サポート業務などの不確かな「定形ではない・繰り返し行われない」自動化には向いています。というかAIでなければできません。
◎ 自然言語処理・クリエイティブタスクが得意
言うまでもないでしょう。
ChatGPTが言うAIが苦手なこと
☓ 感情の理解と共感が苦手
人間と比較した場合、(文章からの)感情の理解と共感が苦手だとは思えません。むしろ平均的な人間よりも正しく文章の感情の機微を判断できていると思います。もちろんAIが間違える事もありますが、人間はそれ以上に間違えますので。
☓ 常識や背景知識・倫理的社会的な判断が苦手
この内容も、平均的な人間と比べた場合に必ずしもAIが劣っているとは思えません。少なくとも文章から推測する能力は、一般的な人間よりも正しくTPOを理解・判断してると思います。
△ 創造的なものが苦手
LLMの利用術のトップにあるのが、新しいアイデアを出すための「ブレインストーミング」です。創造的なものが苦手とは言えないでしょう。
得意なこと側に「クリエイティブタスク」とあるので矛盾していますしね。
確かに今のAIは、基本的な学習が前提にあるため、全くダメな分野は多いでしょう。しかし、人間と同じで、学習した異なる特徴を組み合わせて新たなものを作り出す能力はあります。
△ リアルタイムでの意思決定が苦手
戦場でも利用されているぐらいなので、人と比べて苦手とは言えないでしょう。ただしシューティングゲームやアクションゲームのAIとしては、計算量の多いDNNは苦手だという意味だと思います。
△ 不完全な情報への対応が苦手
人と比べて苦手だと思えません。むしろ限定的な情報を与えてその後の文章を補完・推測する能力は、AIの方が人よりも優れています。
苦手なのは、論理的に矛盾があるかないかの判定です。正確な結論を出せな点に関しては、情報が限定的であれば、人間もそれほど変らないでしょう。
まとめ
AIを社会に導入するアイデアとして、誰もが最初に「単純作業をAIに置き換える」事をAIのステレオタイプとして思い浮かべると思います。たとえば、文章やプログラムの校正・バグ修正、定形の単純労働です。
しかし現実はミスが多くて効率が悪く、むしろ従来の(非AI)技術で対応した方が適切なようです。校正やプログラミングにおいても、従来のlint+デバグの方がより信頼性が高くなるでしょう。AIツールの場合は、従来の技術では見つけられない難しい問題を発見する能力はありますが、間違い探しの「正確さ」をAIツールに求めて信頼する勇気は筆者にはありません。
一方で、クリエイティブな作業に現代のAIは最適です。コンセプトアートの作成やアイデア出し、たたき台としての概念設計、大雑把な内容の把握(要約)、経営判断を含めた統計データからの直感的な解析(定量的に説明できないもの)、臨機応変な接客、人との面接による能力査定、要望などのクライアントとの折衝、(合法である事をチェックするミス探しではなく)他分野からの違法可能性のチェック。従来は人間しかできないと考えられていた事が得意なわけです。つまり、ミスがある事が前提で、ミスからも新しい価値が生まれる作業に向いています。とても人間的な作業です。
往年のアニメやSFに登場するAIと、リアルに実現した現代のAIには大きな乖離があるように感じます。むしろ真逆の存在なのではと思います。
昔の物語では、AIはプログラムに従って忠実に動作するロボットなので、人の感情を理解する事ができず、定型的で無機質で正確無比な判断しかしない存在として描かれてきました。
しかし実際には、命令は無視し、人よりも大きく劣る正確さ、大雑把さ、幻覚ばかりみているおバカさんの天然キャラです。項目の並び替えをさせると、かなりの確率で何かを抜け落としたり、全く関係ないものをコッソリつけ加えていたりする有様です。そんなおっちょこちょい秘書は、AI Agentとして信頼できないでしょう。
一方で、人間の感情の機微には非常に敏感です。学習した文章や音声からリアルな人間よりも感情の変化をより正確に「分類」できます。デザインや絵画も同じで、SNSで人気がでるかどうかの判断を学習を通して実現しています。人間的なアナログ処理が得意なわけです。
確かに正確さは、これからAI技術と共に向上してく事は明らかでしょう。しかし、相対的な苦手分野は維持されていくものと推測しています。特にハルシネーションに関しては、AIの汎用性と共に増加傾向にあり、基本的に臭いものには鍋蓋方式の「ブロック」しか対応方法がない状況です。悪い言い方をすればNNだけでは制御不能です。
AIネイティブ社会に変われば、AIの新たなステレオタイプがSF物語として登場してくると思います。現代の人々が考える無機質で正確無比なアンドロイドAI像は、(未来の人々はみんな銀の全身ピチピチタイツを被っている様な)間違った古いイメージとされる時代になるかもしれません。