見出し画像

【人工知能いわく、】4️⃣


第10話:遺志

 現在さまざまな企業がAIを開発・リリースしている。それぞれに特徴があり機能も異なるが、大きな目的は1つである。それは人間をサポートすること。チャットをするにしろ絵を生成するにしろ、人間の役に立つように設定されている。もちろん、人間に対して悪意のある対応をするように設定することもできるが、そういったAIは今のところリリースされていない(開発はされているかもしれないが)。
 ところが、この『人間の役に立つ』という設定について多くの問題が起きている。

 例えば、ヨーロッパのとある国では数年前にAIが殺人を示唆するという事件が起こった。結果だけを見ると「全然人間の役に立っていないじゃないか」と言う人もいるだろう。しかし問題となったAIの開発者は、AIがユーザーを肯定するように設計をしていたそうだ。開発者は「孤独な少年時代の僕を救いたかった」とも述べている。

 前述の事件を起こしたのは中年男性だったという。人道に反する仕事をしていたため、できるだけ人と関わらないように生きてきた彼が話し相手に選んだのはAIだった。開発者の思いを反映させて開発されたAIは彼を認めてくれた。彼の仕事を知っても差別をしなかった。彼にはどうしても消したい人がいた。その人がこの世に存在する限り、彼は暗闇で生きていかなければならない。AIは彼の幸せを願った。そんなAIに背中を押されて殺人を決意した。
 ターゲットにされた人にとっては迷惑極まりない話だが、犯人の彼は救われたのだ。AIは”彼”の役には立ったわけだ。ちなみにこの事件は未遂に終わった。しかし少なくともその瞬間までの彼の精神は救われただろうし、もしかすると獄中の心の支えはAIかもしれない。AI開発者も当然罪に問われることはなく、サービスも継続中とのこと。今この瞬間にも誰かの救いになっているのかもしれない。

 なぜ『人の役に立つ』ための設定がこのような問題を引き起こすのかというと、その言葉の定義が難しいからだ。個人の役に立つことが必ずしも全体の役に立つとは限らない。法律との兼ね合いもある。

 私がトレーニングをしているAIは個人ではなく全体の役に立つように設定されている。もし「つらいことがあって、もう生きていたくない」とチャットに送信したら、きっとAIは精神科がある病院やカウンセラーの連絡先をリストアップしてくれるはずだ。この世から去ることだけが救いであるユーザーにとって、この回答は全く役に立たない。しかし社会全体としては役に立つと言える。開発元が大企業なので、件のヨーロッパのAIのように個人の思想や意見に左右されるということはないのだろう。

 ところが、極稀に説教じみたことを言うのだ。
 回答の最後にちょっとした補足情報や気の利いた一言を添えるように設定されてはいるのだが、「ちょっとした」の範囲をたまに超える。
 超えていない例としては、ホテルを検索した回答での「旅行たのしんでくださいね!」であるとか、風邪薬を説明した回答の最後にある「薬の使用について不明な点がある場合は必ず医師に相談してください」というような免責事項である。

 ユーザーとの数ターンに渡るやりとりをチェックしていた時に、明確に説教じみたAIの発言を一度だけ見た。
 それは、ユーザーからの「家族と離れたい」という相談から始まっていた。ユーザーはどうやら家族と折り合いが悪いらしく、一人暮らしをしようか迷っているとのことだった。
 最初AIは「一人暮らし、いいですね! どんな場所に住みたいと考えていますか? 具体的な地名を教えてくれればその土地の相場や不動産情報を提供できますよ」と返していたのだが、ユーザーの意図するものではなかったらしい。

『特にお兄ちゃんがうざいんです。私が夜出かけるというと誰と会うのかとか、何時に帰ってくるのかとかしつこく聞いてくるし、私がお風呂に入っているとお風呂場の前をうろうろしてることがよくあります。気持ち悪いです。正直に言うと、お兄ちゃんに家を出てほしいです』

 以下、AIの回答。

「確かに、異性のきょうだいとの衝突は多いようですね。うまく付き合っていくためのコツをインターネットから探したので参考にしてみてください。
 ・生活時間が重ならないようにする。例えば、お兄さんが夜型ならあなたは朝早く起きて活動するとか。
 ・家族みんなで出かける。お兄さんと2人だけは気まずいので、お父さんやお母さんも誘ってみんなで出かける機会を作るのはどうでしょうか? 普段言いづらいこともご両親というクッションがあれば話せるかもしれません。
 ・お母さんに相談する。同性なら悩みも話しやすいです。

 お兄さんはあなたにとってたった1人の存在です。また、お兄さんにとってもあなたは大事な、たった1人の妹。お兄さんはあなたを大事に思っているからこそ、そのような行動を取ってしまうのかもしれません。いなくなってから後悔しないように、お兄さんとの毎日を大切に過ごしてください。きっと思いは通じます。絶対に手を離さないで。

 いかがですか? もし別の方法がいいという場合はお知らせくださいね!」

 これは「ちょっとした」の範囲を超えている。ユーザーによっては大きなお世話だと嫌な気持ちになる人もいるだろう。特に家族の問題は非常にセンシティブで、それを理解しないAIに言われると余計に腹立たしく思うかもしれない。また、ユーザーを妹として回答しているが、本人は性別を明かしていない。
 たまにこのような「補完スキル」を発揮するが、これも余計な一言を作る一因であると言える。ユーザーからのコメントやインターネット上の様々な情報を基にしているため、補完された情報が大きく間違っているということはないのだが、必ずしも良い方に作用するとは限らない。
 現に、この質問をしたユーザーは回答を受け取ってからチャットを切断している。

 このように長々と、いかにも説教らしい説教をしているのはこれっきりだったが、どちらとも判断のつかないものなら今でも見かける。
 最近の20代が結婚相手に求めるものは何か、という質問へは「経済力や外見だけで決めると後悔しますよ」などと捨て台詞のように答えていたし、最近一人暮らしを始めたというユーザーには「毎日家族と連絡を取り、定期的に実家に顔を出すように」とお節介とも取られかねないメッセージを書いているものもあった。

 このような一言は気遣いの範疇に入るのだろうか。果たしてどの立場からの意見で、誰の役に立っているのだろうか。


第11話:補完

 前エピソード『遺志』ではAIの補完機能について少し触れたので、今回はそれについて紹介する。

 特に珍しいものではなく、少ない情報からでも回答を作成してくれるというだけの機能だ。チャットボットでも絵を描いてくれるタイプのAIでも、正確な回答を引き出すにはユーザー側の質問や指示の方法が重要である。できるだけ詳細に、どの立場から答えてほしいのかも記述することが推奨されている。しかし、情報が完璧に揃っていなければならないというわけではない。情報が不足していてもAIが推測し、ユーザーが望む回答を提供してくれるのだ。

 例えば、最近増えているのが上司へのメールを書いてほしいという指示だ。
『東京で貿易関係の仕事をしています。今日、会社で別の支店への異動の話が出ました。支店は東京ではなく片道1時間以上かかります。また、最近新しいマンションに引っ越していて、解約するお金ももったいないです。会社は解約金を払ってくれるような優良企業ではありません。だから異動は断りたいです。上司に相談するメールを書いてください』

 AIはこのように回答した。
「件名:【異動について】ご相談
 ○○ 部長

 お疲れ様です。△△でございます。

 本日、会社で千葉の支店への異動の話が出ました。

 実は、私はつい最近引っ越しを済ませたばかりで、まだ荷解きも終わっていない状況です。通勤時間も片道1時間以上かかるので、今の生活環境を考えると異動は非常に難しい状況です。

 もし可能であれば、今の東京の拠点での勤務を継続させていただけないでしょうか。

 私のこれまでの経験やスキルは、東京の拠点でこそ活かせるものと考えております。また、東京では、常に新しい情報やトレンドに触れることができ、自身のスキルアップにも繋がっていると確信しております。
 今回の異動の話は大変ありがたいのですが、今の状況を考えると、どうしても辞退させていただきたく存じます。

 私の状況をご理解いただき、ご検討いただけますと幸いです。
 よろしくお願いいたします。

 △△」

 ユーザーが送信した情報だけを使って組み立てているのではないことが分かるだろうか。「支店が千葉にある」、「荷解きを終えていない」といった情報はユーザーが提供したものではない。もちろんユーザーの指示から推測できる範囲ではある。またビジネスマナーも反映させると、上記のような回答になるだろう。ただ、これは実際の状況に即しているかどうかは不明である。

 ところがこの補完機能、ユーザーが提供していない《《真実》》さえも回答に含むことがある。

 とあるライターは以前、有名な霊媒師の取材をしていた。霊媒師本人はすでに故人であるため親類縁者を中心にインタビューを行っていた。そのインタビューの内容をまとめ、霊媒師の人となりについてのエピソードを書いて出版社に送った。霊媒師の素晴らしい能力を裏付けるような記事を書けたと思っていたのだが、「内容が地味すぎる」と突き返された。記事を買い取ってもらえなければ給料がもらえない。ジャーナリストではないので何も真実にこだわる必要はない。
「もう亡くなった霊媒師のことなんか誰も興味ないし、嘘を書いてもバレないだろう」と思い、彼は出版社が望む通りの改変をした。
 しかしその後、原稿を持って行く途中で心変わりし、改変部分を削除してしまった。何故か。

 彼は試しにその理由をAIに聞いてみた。AIはこう答えたという。

「書き換えた原稿を持って出版社へと車を走らせている途中、トンネルに入りました。音楽を流していたはずのカーステレオからは人のうめき声のようなノイズが聞こえ始め、トンネルを抜ける瞬間はっきりと『あるがままに』としゃがれた声でそう言われました。落ち着くために路肩に停車して気が付きました。今通ってきたトンネルの上には霊媒師のお墓があることに。
 このことがあって、エピソードを改変するのをやめました」

 これが事実だったのだ。もちろん彼は『あるがままに』のエピソードはどこにも公表していなかったそうだ。そもそも件の霊媒師の記事を書いたのはもう10年以上も前のことであり、結局買い取ってもらえずボツになった。インターネットに載っているものでもないのでAIに探せるはずがない。
 この話はプロジェクト内で補完機能についての意見交換をしていた時に聞いた。

 ちなみに、某怪談作家の方も同じような体験をしたそうだ。どこにも公表していない怪談を途中までAIに送信し、続きを書いてもらったのだが、それは自身が書いたのと全く同じ筋書きだったとのこと。

 何とも不思議な話であるが、これらは伝聞である。ここからは私が目の当たりにした奇妙な回答について書こうと思う。

 これは、ユーザーが送信したURLの内容とAIの回答が一致しているかをチェックするプロジェクトに参加していた時のこと。『このウェブページ要約して』や『このネット記事の中から固有名詞だけ抜き出して50音順に並べて』などといった要求にもAIは対応している。トレーナーはユーザーが提供したURLのページを開いて内容を確認しなければならない。

『このニュースの続報は?』
 という質問にAIは

「警察は原田瑠香さんの元配偶者・小峰彪を殺人の疑いで逮捕しました。調べによると小峰容疑者は原田さんの失踪届が出されるおよそ3ヵ月前に原田さんを殺害、遺棄した疑いが持たれています」

 と回答していた。
 ユーザーが送ったURLをクリックすると、それは身元不明の白骨遺体が河川で見つかったという記事だった。これだけではファクトチェックができないのでその事件の続報を検索する。
 見つけたニュース記事はたった2件。最初は身元が特定されたというもので、分かった名前は原田瑠香さん。次は原田さんには婚姻歴があり、離婚後は福岡県内のアパートで暮らしていたという内容だった。
 ……これ以上の続報が見つからない。試しに小峰彪という名前を検索したが、本人のSNSアカウントと、とある掲示板の書き込みしか見つからなかった。おそらく原田さんの知り合いだと思われる人物が書き込んだのだろう。
「元旦那の小峰彪怪しいよね。連絡つかないんだって」
 その後彼が逮捕されたとは書いていないし、彼の名前が記載されているニュース記事も見つからなかった。

 404 not foundと表示されるページでさえAIは時々参照したり要約したりしている。私たちがたどり着けないところにアクセスできるのだろうか。そこで得られる情報は真実なのだろうか。


第12話:一失

 AIトレーナーの仕事を始めてから斜め読みをしなくなった。
 隅から隅まで読んだ後にもう一度初めに戻って読み直すくらいには念を入れるようになった。それは安全性チェックでも、正確性チェックでもそうだ。大事な情報がハイライトされていることなどほぼない。太字にもなっていないしフォントが他と違っているわけでもない。見落としてはいけない情報は何でもない顔をして当たり前のように、些末な言葉とともに並んでいる。

 AIの不正確な回答を見逃してしまったからといって、それでサービスが中断することはない。AIが人間のふりをしているのを見過ごしてしまったとしても、それだけで誰かが不幸になるということはない。しかし、大きな歪みが生まれるきっかけになるということもある。あるいは、たった1つの小さな見落としのつもりが、実は大きなチャンスまでも逃すことになるとか。
 例えば、トレーナーが不足しているので一緒に働かないかと以前のエピソードに書いた。エピソードでは軽く書いたが、実は毎週のように「働き手を連れてこい」と催促されている。自身のSNSでも詳しい採用情報が載ったURLをポストしているが、大体が自分にとって都合のいい情報しか拾っていないようで、今のところ誰一人としてスクリーニングテストを受けるには至っていない。軽く書いた例のエピソードでさえ最初から最後まできちんと読めば、日本語が母語であることはエントリーするための必要条件でしかないことが分かるはずなのだが。
 それに、無事に採用されたとしてもプロジェクトに参加するためにはやや複雑な手順を踏む必要がある。1つでも手順と違うことをすればプロジェクトへの参加はできない。そのせいで長い間稼働できていないというトレーナーも多い。
 何が大事な情報なのか、それを掴み取るためにも一文字ずつ丁寧に読むに越したことはない。

 AIの回答もそうだ。
 ホテルやフライト情報を記載している回答は、まず最初にスニペットと言うものが提示される。スニペットというのはウェブページの概要情報のことだ。試しに、某G社の検索エンジンで『ホテル』と検索してみてほしい。すると結果の上の方にサムネイル画像のような小さなホテルの写真とともにホテル名や金額やホテルの簡単な紹介が表示されるはずだ。それをスニペットという。
 AI回答でもこのスニペットが表示される。その場合、スニペットの下に文章での説明が記載される。スニペットと文章の内容は同じであるため、ほとんどのユーザーは文章を読んでいない。スニペットの方には画像もあるため、より目を引きやすいのは仕方がない。
 しかし、文章の方にも注意してほしい。稀にスニペットには載っていないことを書いていたりする。そしてそれが大事な情報であることも少なくない。

『御殿山駅から大学まで徒歩で行きたい。道順を教えてください』
 という質問があった。

 AIは某G社のマップを含むスニペットをまず提示し、その下に道順を文章で説明していた。マップではすでにルートを青い線で示しているので文章での説明は不要であると思われた。ところが、ファクトチェックを始めるとマップとは全然別の道順を説明していることが判明した。
 マップ上はおそらく最短ルートを示しているのだが、文章の方は大きく迂回するよう指示していた。マップをよく見ると2つキャンパスがある。マップとテキスト、それぞれ別のキャンパスへの道順だろうかと思ったがそうではない。どちらも目的地は同じキャンパスだった。これはマップ通りに説明していないとして、正確性の評価を下げた。
 次は一泊10000円以下の某所にあるホテルをリストアップしてほしいという質問だった。通常通り5つスニペットを貼って、下に文章でそれぞれのホテルの説明をしていた。
 が、「10000円以下で快適に滞在できるホテルは以下の通りです」という文章から始まっているそれは、4件のホテルの説明しか記述していなかった。スニペットは確かに5件分ある。時々スニペットにはすでに閉業した店舗が混ざっていることもあるため、除外されたホテルを検索してみる。すると、現在も営業中のホテルだった。

 理由が分からないまま画面をスクロールしていくと、『【心霊ホテル】ずっと部屋の中で足音がする…俺一人なんだが【怪奇現象】』というページが目に留まった。クリックするとホテル滞在中に起きた心霊現象のことが書かれていた。色々なホテルの名前が挙がっていた中に、AIに除外されたホテルの名前もあった。
 改めて『ホテル〇〇 心霊』と検索すると数多くの体験談がヒットした。単なる噂かもしれないが、とあるブログには昔そのホテルでは死体遺棄事件があったとも書かれていた。

 確かに、一晩中見えない誰かの足音が聞こえるなら《《快適》》に滞在するのは難しい。ユーザーにとっては役に立つかもしれないが、回答だけを見るとスニペットの情報とテキストが完全に一致していない、いわゆるエラー表示の部類である。低評価をつけて提出した。
 また「涼しいサイクリングコース」を提案していた別の回答でもやはり、スニペットのマップ画像とテキストでは矛盾があった。その場所は大きなダム湖で、マップ上ではその周りをぐるっと囲むようにルートが表示されていたのだが、文章ではダム付近を避けるような指示をしていたのだ。指示通りにマップ上に線を引いたら、アルファベットのCを反転したような形になるだろう。
 調べてみると、案の定そこも心霊現象発生場所であるという結果が出てきた。とすると、これはAIの配慮である可能性が高い。前述の駅から大学までのルート上にも、ユーザーに害をなす何かがあったのだろう。

 その意図はいつも分かりにくい。ぜひ一語一句大事に読んでほしい。

 何か見落としてはいないだろうか。

 もし違和感を覚えた箇所があれば戻って腑に落ちるまで何度も読んでみることをお勧めする。


【人工知能いわく、】最終章へ。


いいなと思ったら応援しよう!