グッドデイズ、マイシスター。(完全版)5
5:Verse.(3)
いつものようにガヤガヤしている、授業前の講義室。席を埋め尽くさん勢いで座っている100名近くの学生達。
だが、別に私の講義内容が人気だからではないのは分かっている。生徒が私達教授らを評価する、いわゆる『逆評定』や『逆通信簿』なるものによれば、私の授業は単位が取りやすい、いわゆる『楽単授業』で通っていて、だからこその盛況っぷりなのだと知っている。
しかし、だからと言って別に評点を厳しくしようとも思わない。大きく理由は2つ。
あまりに厳しくし過ぎるとそもそも授業を聞きに来る人がいなくなってしまうというのが、理由の1つ。
そしてもう1つは、これだけの規模の学生を1人1人きちんと見て厳しく――つまり、具に理解度を測っていく余裕などないからだ。私にだって研究がある。
『逆評定』やら『逆通信簿』で『鬼』(単位を取りづらい厳しい教授のことだ――裏を返せば、それだけ生徒に厳しく真剣に向き合っていると、私は思っているのだが)と称されながらも、きちんと研究成果を残している方達には頭が上がらないし、足を向けて寝ることだってできやしない。
……少々脱線した。
プリントを配り、演壇に立ち、始業のチャイムが鳴る。一応それなりの大学ではあるのか規律はしっかりしており、チャイムが鳴った瞬間から話し声が急激に弱まり始める。
学生達を見回す。こんな私の授業でも熱心に聞こうとノートを用意する学生。既に居眠り準備に入っている学生(その隣にはマイクレコーダーが置いてあるのを、以前ちらりと見たことがある。不真面目なのかそうじゃないのか判然としない)。用済みとばかりに退室していく数名の学生。
そんな中に居座る、合歓垣燻離。さも初めから私の授業を受けに来た学生然として、堂々と座っている。その堂々さが、逆に私の中の異物感を増幅させていた。
チャイムが鳴り終わった。プリントを一瞥してから、授業を始める。
「――本日はAIの仕組みと、そこから更に踏み込んで倫理的な課題について話す。原理を知り、課題を知ることが、今後の研究に何よりも重要である。将来、私と同じくAI学に踏み入れるのであれば、今日はその足掛かりとして貰いたい。そうでなくとも、現況について知ることは、AIの発達したこの世の中においては有意義だと確信している。
さて。前提として、コンピュータプログラムというのは一様に、次のような動きをしている――データを入力し、入力データをシステムによって制御・加工し、その結果を出力する。AIも基本コンセプトは同じだ。データを入力し、システムによって制御・加工し、その結果を出力する。
ただし、AIが他のプログラムと最も違うのは、その中のシステム部分だ。一般の他のプログラムに組み込まれるシステムは、人間によってあらかじめ、予測される結果を出力するように制作される。つまり、望まれた計算結果を出力し、望まれた作業を遂行し、望まれた機能を実現することが期待される訳だ。
一方AIは、入力したデータを元に推論・予測をし、その結果を出力するよう制作される――それはつまり、人間の予測できない・予測しようのない結果を出すことがある、ということだ。裏を返せば、望むと望まぬに関わらず、人間の予測しない結果を出力するよう制作されたのが、AIと言っても良い。よく『AIの判断過程はブラックボックス』と言われるが、正にそれだ。
しかしこれではまるで、与えられたモノを何でも口入れてしまう赤子や、無礼なことを言ってしまう幼子のようなものだ。このままではAIは、我々人類に敵対することをしかねない――AIを脅威として扱う著作や創作作品が示しているように、だ。
さて、AIが台頭して以来、人類はAIをなるべく人類に寄せようと進歩させてきた。人工無脳から派生した対話型AI、画像認識AI、業務効率化AI――今までに出てきたあらゆるAIは、出力結果を人類に寄せようとした産物と言って良い。そのために人類は、AIに大量のデータを教え込み、推論・予測のパターンを構築させていった。この仕組みが、世間でよく聞く機械学習というものだ。AIは、この学習をより効率よく行うため、ディープラーニング――すなわち、加工や制御を行うシステムを多層化し、より効率的に学習させる手法をとっている」
私はここで一旦話を切る。
そして息を吸って、吐いて、講義を続ける。
「しかし、これが完全に上手くいった試しは無い。幾ら学習させたとしても、また、幾ら推論や予測のパターンを確立させたとしても、人間に寄らない部分が必ず出てくる。黒人をゴリラと同等に見なすなどの差別に繋がったり、プロファイリングや診断などで不正確・不誠実な結果を出力したり、事実と異なる事柄を出力したり。それがたとえ他者を深く傷つけるものであっても、全く意に介さず、無邪気に出力する。
これは、人工知能バイアスが原因の1つと考えられている。AIに学習させて推論や予測のパターンを確立させる、と言ってきたが、その学習をさせるのはあくまで人間で、学習をする対象は人間の作り上げたものだ。人間には主観――すなわち認知の偏りがある。AIの学習に携わる人間や対象に、この偏りが無いとは言い切れない。しかもAIはこの偏りをも、無邪気に貪り食らって自らのモノにする。それが場合によっては、人間には受け入れ難い思考回路を組み上げる。
こうしたことから、人類はAIに学習させる際、そのデータが偏りのないものか――すなわち、極限まで客観に近いものかを吟味しなくてはならない、という教訓が一般に得られる」
私はまた一息置く。
ふと、燻離学生の姿が視界に入った。彼女は意外にも真面目に授業を聞いていた。
ならばここからは、言葉を慎重に選ばねばならないだろう――私は口を再び開く。
「しかし、こうした教訓を逆手に取った者も現れた。すなわち、『これまで人工知能バイアスが問題になったのは、彼らが人間を作ろうとしたからではない。世界中の倫理に配慮された、なるべく中立的で客観的な、まさしくモノを言う機械を作ろうとしていたからだ。逆に、認知に偏りがある学習をさせた方が、より人間に近しいAIが作れるのではないか』と。
人間は、生まれた国・獲得した言語・触れた文化・受けた教育・覚えた情報など、様々なバイアスによって強固な個を確立する。つまり、人間とは元来偏りのあるモノで、人間に寄せたAIを作るには、むしろ偏りのある情報を入れていけば良い――と考えた訳だ。分かりやすく言うと、私に似たAIを作りたい場合、私の経験・教育・記憶などの情報を全て突っ込めば、私に限りなく近しいAIができるだろう、ということだ。
これを使って、偏りのあるAI――人間に近しいAIを作ろうとした者は何人もいた」
――私も、その1人だ。
暴走の果てに消えた慈愛リツのことを心に浮かべながら。
彼女からの言葉を、思い出しながら。
努めて冷静に、私は、講義を続ける。
「これは、驚くべきことに上手くいった。しかし上手くいったが故に危険視され、ことごとく開発が中止されていった。
どういうことか。一言で表せば、AIに倫理的価値観や自我と言えるモノが芽生えたのが問題視されたからだ。
ここで倫理的価値観とは、善悪判断や是非判断の価値観のことで、この価値観によって思想の方向性や行動の方向性が決定される。そしてこの価値観は、経験や教育、記憶によって醸成される――ここまでの話を総括すれば、人類は、経験や教育・記憶を数値化し、AIに教え込むことで、倫理的価値観の複製を作り上げることに成功した。
一般に、倫理的価値観――善悪や是非が判断できる基準を持っていれば、自我を持っていると人間は見なせる。何故なら、それが全ての倫理的・哲学的・日常的な種々の判断の大元となるからだ」
倫理的価値観。
自律AIが、自ら善悪を判断する元。
これが故に、私は失敗したのだ。
だからこそ、私は音夢崎すやりの開発には乗り気ではない。
それ以外にも、理由はあるが。
「しかし、これにより問題となることがある。
1つには、この倫理的価値観――善悪の判断基準が、人間の意図しない形で出来上がることもある、という問題だ。例えば、AI自動運転とトロッコ問題の議論にあるように、どのようにAIが倫理的なジャッジを下すのかという過程については、ブラックボックスのままだ。下手すれば、謂れの無い理由で人を殺しかねない――物理的にも、社会的にも。
そしてもうひとつ。察しが良いと気付くだろうが、この『人間に近しいAIを作る』ことは、極めて『人間のクローンを作る』ことに似ている。物理的な肉体を持つか、電子的な肉体を持っているかの違いだけで、人間としての精神を持つ存在という意味では、基本的な構造としてイコールだ。
クローン人間は、特定の目標達成の手段として人間を再定義しかねないこと、人という誕生や形質に関する一般認識から逸脱すること、安全な成長を保証しづらいこと、などの種々の人格権に関わる問題点から、制作することを禁じられている。人間に近しいAIの制作も、これと同様の問題が発生すると考えられる。すなわち、自律AIに関する人権問題――自律AIも人間として扱われるべきかという複雑な問題が出てくる」
どうして。
どうして!
私は、間違ってない。
正しい行いをしなかったのは、そっちのくせに。
…………この――
――慈愛リツの悲痛な声が。
あの最後の声が。
私の記憶の中から、今も響いてくる。
「だが、AIという技術がまだ発展途上であるからか、世間では、こうした議論が未発達なように思える。しかし、今回の講義を通し、皆の頭の中に残ってくれると嬉しい――」
(Seg.)