見出し画像

ハルシネーションを起こさないことが確実に保証できるAIってこんなに有意義なんだ

昔は統計的学習モデルではなくif文だらけで構成された「AI」(エキスパートシステムともいう)を見てダサいなぁと感じていたけれども、生成AIが跋扈する今となってみると「hallucinationsを起こさないことが確実に保証できるAIってこんなに有意義なんだ」という感想しかない、己の不明を恥じるばかり

こんにちは。榊正宗です。本日6つ目の記事は、元Googleのエンジニアさんの投稿について解説しますね。おそらくこの投稿、単純なAI批判ではなく深い意味があると思いました。

ちなみに、間違わないAIが有意義だって言われても、ちょっと皮肉っぽくなりますが、AIが出てくるずっと前から、わざと間違わせる仕組みって存在してたんですよね。

例えばゲーム業界を見てみると、昔から「if文だけじゃキャラクターが思考してるように見えない」って理由で、ランダム要素を入れたり、あえてミスを組み込んだりして、キャラクターが意外な動きをするように作られてました。それによって、プレイヤーが同じパターンに飽きないように工夫されていたんです。これ、AIがたまに間違うことにも通じる部分がありますよね。

実は「間違えること」って、面白さや人間らしさを引き出す大事な要素なんです。だからこそ、現代のAIが時々間違いを犯すことを「欠陥」って決めつけるのは、ちょっと短絡的だと思うんです。

だって、AIがわざと間違っているわけじゃないにせよ、その誤り自体が人間の創造性とか、多様な思考パターンを模倣していると言えるんじゃないでしょうか。

考えてみれば、人間だって間違える生き物ですよね。AIが学んでいるのは膨大な人間のデータで、その中には当然、正解もあれば誤りも含まれているんです。

だから、AIがときどき間違うのは、むしろ人間らしいってことなんじゃないかな。特に答えが一つに決まらないような複雑な問題に対して、AIがいろんな答えを提示するのは、柔軟性があって素晴らしいことだと思いますよ。

昔のゲームでも、同じパターンに従って動く敵キャラに、わざとランダムな動きをさせることで、プレイヤーに「このキャラ、考えてるのかも?」って錯覚させるテクニックが使われていました。これって、今のAIが見せる「考えているような」挙動と似てると思いませんか?

AIが間違った答えを出すことで、予測不可能な反応を引き出している。それによって、AIが「考えている」ように感じるんです。つまり、AIの「誤り」って場合によっては、クリエイティブな答えにさえなるんですよ。

もしAIが絶対に間違わない存在だったとしたら、それってもう驚きも意外性もなくなってしまうんですよね。昔あったエキスパートシステムってやつがまさにそうで、全てが固定されたルールで動くから、攻略のパターンがバレバレでつまらなくなってしまうんです。

人間だって、日常で誤ったり、予測できない行動をするから面白い。そんな人間らしさを反映したAIの「不完全さ」こそ、むしろ魅力なんだと思うんです。

だから、「間違うAI」っていうのは、欠点なんかじゃなくて、その柔軟性やクリエイティブさを証明しているんだと思います。AIの誤りって、単なるバグやミスじゃなくて、むしろ人間社会に適応するための大切な機能とも言えるんです。

アートやデザインなんかの創造的な分野では、「間違い」とされるものが、新しい価値を生み出すことがありますよね。だからこそ、AIが見せる意外な答えが、時にはルールに従うだけのシステムじゃ絶対に生まれないような、新しい視点を提供してくれることがあるんです。

結局のところ、AIは私たち人間社会の一部として存在しているわけで、その中で「誤り」すらも価値ある要素として捉えられるべきなんです。AIが完全無欠な存在だったら、それこそ人間らしさが失われてしまいます。

技術はその不完全さを含めて進化しているんだって、理解することが大切だと思いますよ。

ちなみに、この話、AI批判ではなく建設的に考えるともっと面白い思考実験が出来そうです。

例えば「間違いを抑えるエキスパートシステム」と「ハルシネーションを起こす生成AI」をどうやって組み合わせるかって、興味を持ってる人も多いんじゃないでしょうか。

確かに、生成AIの柔軟性と創造性を活かしつつ、エキスパートシステムのように間違いを抑える機能があれば、もっと信頼できるAIが作れるんじゃないかって思いますよね。

エキスパートシステムって、決められたルールに従って動くから、間違いが少なくて、特に医療や金融、法律みたいな分野では信頼性が高いんです。ただ、やっぱり融通がきかない部分があって、複雑な問題や予想外のケースにうまく対応できないことがあるんですよね。

一方、生成AIは大量のデータを学んで、クリエイティブな応答を出すのが得意なんです。でもその反面、ハルシネーションと呼ばれる誤った情報を生成してしまうこともあって、これがなかなか大きな課題です。だから、生成AIの出力をどうやって正しくコントロールするかがカギになってくるんです。

例えば、1つ目の方法としては、生成AIが出力した結果をエキスパートシステムがファクトチェックする、というアプローチが考えられます。生成AIが出した答えが正しいかどうかを最後にエキスパートシステムが確認してくれるんですね。

こうすれば、生成AIの創造性を活かしつつ、致命的な間違いを防ぐことができるんです。特に医療や法律みたいな正確さが求められる分野では、この方法が有効です。

次に、エキスパートシステムが生成AIをガイドするハイブリッドな方法もあります。このやり方では、エキスパートシステムが生成AIに「この範囲で答えを作ってね」って指示を出して、その中で自由に答えを生成させる感じです。

これだと、生成AIの柔軟性を残しつつ、極端なミスを防ぐことができるんですね。例えば、金融分野でのアドバイスなんかで、この方法が使われることが考えられます。

あとは、生成AIが出した答えをエキスパートシステムが自動で校正するっていう方法もあります。生成された情報が既存の知識と矛盾していないかどうかをルールに基づいて確認して、必要に応じて修正する仕組みです。これも技術文書や専門的なデータ分析なんかで役立ちそうですよね。

生成AI自体に「自己修正機能」を持たせるっていう方法もあります。生成AIが誤った情報を出したときに、自分でその誤りに気づいて修正できるようにするんです。

これだと、生成AIがどんどん学習して、より正確な答えを出せるようになります。医療チャットボットなんかでも、この自己修正機能を組み込むことで、より信頼性の高いアドバイスが提供できるようになりますね。

こうやって、エキスパートシステムと生成AIをうまく組み合わせることで、双方の強みを活かしつつ、欠点を補い合う形で、より賢くて安全なAIが作られるようになると思います。

いいなと思ったら応援しよう!