「ハルシネーション」 『Fate/Grand Order』:創作のためのボキャブラ講義54
本日のテーマ
題材
「はい、我々の歴史では二十世紀後半からAIが研究され、西暦2000年頃から生成AI技術が一般化しました。」
「その時点では多くのライブラリから類似する言葉、映像、技術を選び、回答するというものでしたが、」
「新しい情報処理技術が発明されるたび、より『人間らしく』成長しています。」
「集計ミスによる誤回答の解決。類似性と深度の解釈。」
「AI専門家によると二十一世紀中にシンギュラリティを迎え、『人間以上』に成長すると言われています。」
意味
ハルシネーション hallucination
生成AIが学習したデータからは正当化できない回答を生成する現象。元々は幻覚を意味する語。
解説
作品解説
前回から引き続きFGO9周年夏イベントから奏章Ⅲへ続く一連のイベントの一場面から。
ムーンドバイへ召喚された7騎のムーンキャンサーが「人類の終わり方」を決める総選挙に挑む異色の戦いが繰り広げられる月面都市。いわば旧人類である主人公やマシュは都市を逃げ回るが、やがてひとつのエリアにたどり着く。そこは主人公たちが属するカルデアからやってきたムーンキャンサー、ガネーシャことジナコが支配する領域だった。
カルデアからやってきた元々ムーンキャンサー、つまり味方側のジナコは主人公たちがやってくるまで適当に時間稼ぎをしながら過ごしていた。このエリアは人類の滅亡を決める選挙に乗り気でない人々が集まる場所で、ようやく一心地ついた一行は事態の確認をしていた。
そこで分かったことは月面都市の住人はみなAIであり、いわば新たな人類だということ。しかし彼らは人類の終焉を事実として認識し、「どのように終わったか」を決める選挙に臨んでいる。彼らに言わせれば人類の終焉をどのような名前のフォルダに保存するのか決めるようなもの、というが……。
新人類としてのAI
AIを扱う作品は多々あるが、特に近年では生成AIがもたらす種々の問題が生々しく感じられる。AIには様々な課題があり、使う人間側の課題としてわかりやすいのは以前紹介した「ラティーナ」の件のような、利用者の責任に関する問題だろう。
AIが出したものの責任は誰が負うのか、という問題については以前にもこうまとめたものがある。
生成AIについては他にもディープフェイクの問題もある。フェイクそのものを扱った記事はかいていないが、歴史的証言をAI出力によって偽装する可能性が指摘された記事は書いた。
さらにAIを用いて企業側が低いコストで労働者を監視し高いコストの支払いを強いる、創作物にAI出力疑惑を一方的に掛けられるなどAIの持つ労力の不均衡さが様々な点で問題になっている。
FGO世界の3017年ではこれらの問題が解決し、AIは新人類たりえるものになったということだろうか。
めまいを起こすような
「ハルシネーション」はそうしたAIが抱える課題の内わかりやすい事例のひとつで、要するにAIがありえない嘘を付くことだ。ここで重要なのはおそらくAI側に嘘をつこうという意図はなく、誤回答として学習データからでは正当化できない嘘をついてしまう、ということだ。
文献を引用したつもりでまるで存在しない文章を引っ張ってくるのは典型的だ。おそらくAIにとって学習した文章の中で「著者自身の記述」と「引用した記述」の区別がないのではないかと、今になって考えてみた。だから「〇〇という著書によると……」という表現をしているだけで、既存の書籍から文章を引っ張る「引用」という方法を学習できているわけではない、のかもしれない。
またハルシネーションとは少し違うが、学習したデータの偏りで誤った結論をAIが出すことも知られている。例えば白人の顔写真のデータばかりを学習したら、AIが出力する顔写真も白人ばかりになるとか。政治家の男女比が男ばかりのデータを学習したら「女性は政治家に向かない」という結論を出したりとか。未だに課題は多いようだ。
いずれにせよ3017年ならざる2024年においては、あくまで人間が使用する道具や機能としてのAIに向き合って、利用した人の責任を問うほかないだろう。
情報
『Fate/Grand Order』(2015年7月リリース)