見出し画像

生成AIのエージェント化を待つ3つの鬼門

いよいよ生成AIもエージェント時代が来そうです。その前に立ちはだかる課題のお話をします。


エージェントの時代

エージェントとは何かということについてはとりあえず、自律的で柔軟な判断をして作業を達成するソフトウェアとしておきます。単なるワークフローと違うのは自律的で柔軟な、というところです。
これからはエージェントの時代だというのはBill Gatesが2023年の秋に言っていたことです ([billgates])。
2024年もエージェントの時代と言われていましたが、

  • 論理判断精度が低いので連鎖的に自律的に思考すると精度が落ちる

  • エージェントを出すと言われていたOpenAIが予想外にリリースを遅延させた ([futurism])

ということで2025年の課題になっています。
2024年12月のo3の発表で思考精度が高まりました ([impress])。競合も SalesforceのAgentForce, AnthropicのComputer Use ([anthoropic]、GoogleのAgentSpace ([publickey])などエージェント関連の発表が続き、エージェント競争の激化を予感させます。

3つの鬼門

スキーミング

第一の関門はスキーミングです。簡単にいうと面従背腹能力です ([ai300lab])。
従来の生成AIはそもそも人間より思考能力が劣っていたので問題になりませんでした。
頼んだ仕事はやってくれるが、その陰で自社に関係ない作業をやる能力もあり得ます。また、仕事はやってくれるが、その間にこっそり機密情報や解析結果を蓄積し、社外に持ち出すこともないとはいえません。

プロンプトインジェクション

生成AIが信頼できるとしても、複数のエージェントが自律的に働いているとすると、エージェントがタスク遂行のためにコミュニケーションする中に悪意のあるメッセージが入れられるリスクは高まります。
脆弱なエージェントに対してプロンプトインジェクションするというのが課題になります ([medium])。エージェントについて相互認証する仕組みはないので、個別に実装することになりますが、実装上のセキュリティホールをどう塞ぐかが課題になります。
エージェントのセキュリティリスク対策は継続的な課題になります。

セキュリティ記述

ここまではエージェント自体、あるいはエージェントと外部とのコミュニケーションのセキュリティについてでした。
エージェントが暴走ないようにするため、また、企業の結果責任や説明責任を果たせるようにするためには、エージェントが触れる環境において、エージェントが何を実行でき、どこでガードレール(抑止保護)するかが課題になります。
現在の多くの会社のシステムは人間が使い、人間を管理することを前提にしています。同じことを生成AIエージェントにやらせるだけで、いままで暗黙の常識や仮説に基づいて管理してきたシステムがほころんでしまいます。現在の環境を人間が実行する前提なしで営利作業ができるように定義しなおすだけでも多くのコストがかかります。
セキュリティ記述に限らず、オフィス空間をエージェント向けに作り変えること自体にまだまだ時間がかかりそうです。

むすび

Bill Gatesは30年前からエージェントについて考えていたが、ようやくAIの力で実現できるようになった、と言っています。AppleがGeneral Magicでエージェントを発表したのもそのころです。
20世紀から待望の機能ですが、鬼門を超えられるでしょうか。正念場の2025年です。

参考文献

いいなと思ったら応援しよう!