自律型AIの脅威
我々の多くは「ドラえもん」に安心感を持っている。それは、「ドラえもん」は何かを相談されなければ自分からは何もしないからだ。現状のチャットベースのAIは、これに似ている。AIの回答に疑問を感じたとき、そこで操作を打ち切れば、AIの示したものが正しくても誤りであっても、それ以上に事態が複雑化することはない。
現在、チャット型の生成系AIに続き、自律型AIというものが研究され、実用化段階に入っている。これは何かというと、人間が呪文(プロンプト)を作成せずとも自動的に行動を提案し、またはその行動を行う、というものだ。
別の解説で、ChatGPTなどの生成系AIの出力する呪文が、他の生成系AIの入力や、再びその生成系AIの入力になりうることを説明した。例えば、画像生成AIのための都合の良い呪文を、文書生成AIが出力するといった組み合わせである。
これを発展させると、生成系AIが自分自身への命令(呪文の作成)を半永久的に繰り返すことが可能になる。このサイクルを制御する仕組みが、自律型AIである。
自律型AIでは、最初に大義(達成すべき大きな目標)が与えられる。例えば、それは、あるユーザーのSNSのフォロワー数を極限まで増やす、といった目標かも知れない。そうすると、自律型AIは、そのために出力すべき文章や画像を自動生成し、SNSに投稿する。そして、その反応を自動聴取し、効果を測定し、出力を改良する。それを自動的に繰り返すのである。
ここまで読むと、一抹の不安を覚えるのは当然だろう。誰がどのような大義を自律型AIに与えるのかは分からないし、そういった自律型AIが多数存在する世界の相互干渉も想像がつかない。星新一の小説のように、何でも破ることのできる「矛」と、何からも破られることのない「盾」が衝突したとき、その結果を人類が予測することなど無理ではないか。
追伸:現状の対話型AIは、過去の文例から確率的に可能性の高い単語を組み合わせているだけなので、広く知られた知識を再現することはできても奇抜な表現や新規の事象には対応できません。未学習のことをAIに質問しても嘘をつかれるだけです。プログラミングでも法律でも、そして翻訳でも、その専門家がAIを助手にして成果を出すのが最善であると私は考えています。また、AIが「人類は害悪である、よって抹殺すべき」と考える可能性については、AIに良心回路を義務付けるべきかという永遠の課題で、科学者のみならずSF作家や漫画家から哲学者まで頭を悩ませる問題だと思います。