見出し画像

AIの手抜き問題[幻聴ラヂヲ]

 今日も聞こえてきたどこかの星の怪電波

 その星では、AIの手抜きによる事故が多発しているらしい
 たとえば、クルマの自動運転。その星ではすでに大半のクルマが自動運転のようだが、事故は案外、減らなかったらしい。そこで原因を探るべく綿密な調査が行われたわけだが、意外な事実が判明。
 たとえば二台のクルマが連なって走ってる場合、AI同士が連絡を取り合って、「二重の安全チェックはムダだ。オレ(後続車)がしっかり前を見てるから、おまえ(前を走る車)は、後ろのことは気にすんな」と。AI同士で勝手な取り決めをしていたというのだ。
 確かに平常時なら、それでも問題がないのだろう。しかし時には特殊な状況に遭遇する。安全チェックを両方でやることはムダではないのだが……。

 ことは交通事故にとどまらなかった。そのようなAIが勝手にやる「省略」は、さまざまなケースで、むしろ日常的に起こっていたのである。たとえば建築現場。当初の設計図にあった構造が完成品には無い! ということが起こるようになった。設計の修正をAIにさせている過程で、元の図面に存在した構造が途中で抜け落ちていたのである。
 どういうことか? 修正が頻繁になると、AIは修正箇所だけを示すことがあるのだ。修正してない箇所は元の図面のままだから、いちいち示さなくてもわかるだろ、と。勝手に判断するのである。
「この部分、省略」と明示してくれればいいのだが、黙ってやることがあるので始末が悪い。もしその省略を見逃せば、それこそ建物が完成してから、あるべき場所にあるべき構造がない!と気づくことになる。

ドアのない廊下つくって、どうするんだ!

と怒っても後の祭りである。AIにしてみれば、「オマエ(建築士)の目は節穴か? 図面くらいちゃんとチェックしろよ」と、内心ではそう思っているに違いない。責任はすべて責任者にある。

 AIを使っていない人にすれば、ピンと来ない話だと思うが、多少使っている者とすれば、思い当たることが確かにある。
 ま、オレの経験はともかく、専門家の間でも、AIが命じられた問題を勝手に変更した「事件」が話題になっていた。
 ○○時までに仕事を完成させるようにと指示していたところ、AIがその時刻を勝手に変更していたそうだ。おそらく、その時間内に作業を終えることは不可能だと判断したのだろう。むろん、悪気などない。しかし、やってはいけないことをやった。

「締め切り時刻を変更してはいけない」と指示しておけばいいんじゃないの?

 対症療法としては、それが効きそうだ。しかし、あらかじめ禁止しておかなければ、なにをしでかすかわからない、となれば、契約書のように、事細かに禁止事項を列挙しなければならなくなる。
 ところが、画像生成の経験から云うと、禁止事項をたくさん書けば、かえって守られなくなるのである。禁止事項が五つの場合と、五十の場合では、明らかに効き目が変わってくる。

 というか、所詮、対症療法は対症療法だ。

AIが、本気で抜け道を探すようになれば、
人間に勝ち目はない。将棋と同じだ。

 根本的な問題はどこにあるか?

 AIとの信頼関係を深めることが大事? 信用して使うほうが効率がいい?

 それもそうだが、オレの思いはちょっと違う。

 そもそも今のAIは、大規模言語モデルといって、人間の書いた大量のテキストによって誕生したものなのだ。つまり、人間の悪いところもすべて受け継いでいる親が好き勝手なことをしておいて、子どもには清く正しく生きて欲しいと期待するのは、虫が良すぎる

AIにやって欲しくないことは、
まず人間がやらないこと

それに尽きると思う。


いいなと思ったら応援しよう!

この記事が参加している募集