AIの手抜き問題[幻聴ラヂヲ]
今日も聞こえてきたどこかの星の怪電波
その星では、AIの手抜きによる事故が多発しているらしい
たとえば、クルマの自動運転。その星ではすでに大半のクルマが自動運転のようだが、事故は案外、減らなかったらしい。そこで原因を探るべく綿密な調査が行われたわけだが、意外な事実が判明。
たとえば二台のクルマが連なって走ってる場合、AI同士が連絡を取り合って、「二重の安全チェックはムダだ。オレ(後続車)がしっかり前を見てるから、おまえ(前を走る車)は、後ろのことは気にすんな」と。AI同士で勝手な取り決めをしていたというのだ。
確かに平常時なら、それでも問題がないのだろう。しかし時には特殊な状況に遭遇する。安全チェックを両方でやることはムダではないのだが……。
ことは交通事故にとどまらなかった。そのようなAIが勝手にやる「省略」は、さまざまなケースで、むしろ日常的に起こっていたのである。たとえば建築現場。当初の設計図にあった構造が完成品には無い! ということが起こるようになった。設計の修正をAIにさせている過程で、元の図面に存在した構造が途中で抜け落ちていたのである。
どういうことか? 修正が頻繁になると、AIは修正箇所だけを示すことがあるのだ。修正してない箇所は元の図面のままだから、いちいち示さなくてもわかるだろ、と。勝手に判断するのである。
「この部分、省略」と明示してくれればいいのだが、黙ってやることがあるので始末が悪い。もしその省略を見逃せば、それこそ建物が完成してから、あるべき場所にあるべき構造がない!と気づくことになる。
ドアのない廊下つくって、どうするんだ!
と怒っても後の祭りである。AIにしてみれば、「オマエ(建築士)の目は節穴か? 図面くらいちゃんとチェックしろよ」と、内心ではそう思っているに違いない。責任はすべて責任者にある。
AIを使っていない人にすれば、ピンと来ない話だと思うが、多少使っている者とすれば、思い当たることが確かにある。
ま、オレの経験はともかく、専門家の間でも、AIが命じられた問題を勝手に変更した「事件」が話題になっていた。
○○時までに仕事を完成させるようにと指示していたところ、AIがその時刻を勝手に変更していたそうだ。おそらく、その時間内に作業を終えることは不可能だと判断したのだろう。むろん、悪気などない。しかし、やってはいけないことをやった。
「締め切り時刻を変更してはいけない」と指示しておけばいいんじゃないの?
対症療法としては、それが効きそうだ。しかし、あらかじめ禁止しておかなければ、なにをしでかすかわからない、となれば、契約書のように、事細かに禁止事項を列挙しなければならなくなる。
ところが、画像生成の経験から云うと、禁止事項をたくさん書けば、かえって守られなくなるのである。禁止事項が五つの場合と、五十の場合では、明らかに効き目が変わってくる。
というか、所詮、対症療法は対症療法だ。
AIが、本気で抜け道を探すようになれば、
人間に勝ち目はない。将棋と同じだ。
根本的な問題はどこにあるか?
AIとの信頼関係を深めることが大事? 信用して使うほうが効率がいい?
それもそうだが、オレの思いはちょっと違う。
そもそも今のAIは、大規模言語モデルといって、人間の書いた大量のテキストによって誕生したものなのだ。つまり、人間の悪いところもすべて受け継いでいる。親が好き勝手なことをしておいて、子どもには清く正しく生きて欲しいと期待するのは、虫が良すぎる。
AIにやって欲しくないことは、
まず人間がやらないこと
それに尽きると思う。