「AI安倍晋三」あり?なし?物議醸す先端技術◆ディープフェイク災害デマも【時事ドットコム取材班】(2022年10月19日09時00分)
人工知能(AI)が生成した画像や動画が、物議を醸す事例が相次いでいる。静岡県の台風被害では、無数の家屋が浸水しているように見える偽の「空撮写真」がツイッターで拡散。銃撃を受け亡くなった安倍晋三元首相の声を合成し、「最後のメッセージ」を語らせた動画も波紋を広げた。問題の背景には、急激な技術の進化に対し、正しく活用するための議論が追いついていない現状がある。(時事ドットコム編集部 太田宇律)
「マジで悲惨」水害写真の正体
「ドローンで撮影された静岡県の水害。マジで悲惨すぎる・・・」 2022年9月26日未明、こんな文章と共に、3枚の画像がツイッター上に投稿された。住宅地が一面茶色い水に漬かっている様子や、増水した川に押し流される家屋をとらえた写真のように見え、多くの人が「被害は深刻だ」「多くの人にこれを知ってもらって支援しにいかないと」とリツイート。ところが、これらの写真には、あるはずの電柱が写っていなかったり、水面に存在しない建物の影が映っていたりといった不自然な点があり、次第に「合成写真ではないか」と疑う声が強まっていった。
投稿した人物は同日夕、AIで生成した画像だったことを認め、「偽情報を発信してしまい、申し訳ありませんでした」などと謝罪した。だが、SNS上には、投稿を信じて静岡県の知人に安否確認の電話をしてしまったという声もあり、「被災者の心を踏みにじる行為だ」と怒りが渦巻いた。
5分で生成「いたずら程度」
実際に多くの人が浸水被害に苦しむ中、なぜ偽画像を発信しようと考えたのか。投稿者に接触を試みたところ、すぐにツイッターのメッセージ機能で「こちらでお答えします」と返信があった。
この人物によると、問題の画像は、英国に拠点を置くAI関連企業が提供している画像生成サービスで作ったもの。AIに英文で指示して画像を生成させる仕組みで、「flood damage(水害)」「shizuoka(静岡)」と打ち込んだところ、「時間にして5分程度」で複数の画像を生成できたという。
以前からAI技術に習熟していたわけではなく、サービスを利用したのはこれが初めて。「水害という文章を打ち込むとどのような画像が生成されるか見てみたかった」と説明した。
実際の災害写真と誤認させる目的で投稿したのかを尋ねると「おおむねその通り」と認め、「いたずら程度」だったと釈明。「正直こんなもので真に受けて拡散されるとは思っていなかった。浅はかだったと思う」とした上で、画像を信じた人や被災者に「真摯(しんし)に謝罪したい」ともつづった。ただ、ツイッター上では、だまされた人をやゆするような投稿も繰り返しており、本心かどうかは不明だ。
賛否を呼んだ「AI安倍晋三」
デマ画像の拡散とほぼ同じころ、「故安倍晋三元総理追悼AIプロジェクト」と題された企画も物議を醸した。
安倍晋三元首相の国葬を2日後に控えた9月25日以降、「東京大学AI研究会」を名乗る団体が、元首相の声をAIで合成したとする計7本の追悼動画をネット上で相次いで公開。「最後のメッセージ」と題されたものは、合成音声の元首相が「本日、私の国葬が厳粛に執り行われます。このような形でお見送りしていただきありがとうございます」などと語り掛ける内容だった。
「志半ばに終わった私の人生・・・」と振り返ったり、国民に対し「天国からそっと支えている」と呼び掛けたりする合成音声に、SNS上には、「素晴らしい取り組み」「涙があふれた」と称賛する声の一方、「死者への冒瀆(ぼうとく)ではないか」と危ぶむ意見もみられた。
メールで取材に応じた団体側によると、研究会は現役東大生を中心に、複数の大学の学生で構成。「元首相の声でメッセージを届けることで、遺族や議員、国民の喪失感を癒やし、勇気づけることができるのではないか」と考え、独自開発したAIで生前の声を合成したという。
AIに読み上げさせた「台本」について、事前に遺族や自民党側と調整したかを尋ねると、「故人の声を再現する以上、慎重に検討を重ねました」とだけ回答。元首相の実弟である岸信夫前防衛相がSNSで動画を紹介したことなどを踏まえ、「賛否両論あるかと思うが、多くの皆さまに共感いただけたと考えている」と振り返った。
なお、団体がアップロードしていた動画の大半は、9月27日の国葬終了後に閲覧できなくなった。団体のサイトには東大工学部電子情報工学科・電気電子工学科のサイトへのリンクがあったが、大学側は「当学科の団体ではない」との声明を出している。
「ディープフェイク」強まる脅威
AIが無数のデータを基に生成した精巧な偽情報は「ディープフェイク」と呼ばれる。「ディープラーニング(深層学習)」と「フェイク(偽物)」を組み合わせた造語だ。写真や動画だけでなく、安倍元首相の動画のように本人そっくりの声を合成する「音声のディープフェイク」も存在し、要人の発言をすり替える偽動画や、出演者の顔部分を別の人物に差し替える「フェイクポルノ」が社会問題となっている。
偽情報の作成や拡散は違法ではないのか。災害デマをめぐっては、熊本地震の直後に「ライオンが動物園から逃げた」とうそのツイートをした男が偽計業務妨害容疑で逮捕された例がある。ただ、このとき投稿されたライオンの写真はAIで合成されたものではなく、容疑は、動物園に問い合わせ電話を殺到させ、園の業務を妨害したとするものだった。
2020年には女性芸能人のフェイクポルノを作成、配信した男らが逮捕されたが、主な容疑は芸能人に対する名誉毀損(きそん)で、ディープフェイクの作成や拡散行為そのものを直接処罰する法律があるわけではない。
技術の進歩とともに、浮き彫りになってきた課題。情報セキュリティーが専門で、ディープフェイク対策を研究している国立情報学研究所の越前功教授は「AIを使えば、自分では描けなかった絵や、撮れなかった映像が手に入る時代になったが、『人をだますこともできる技術だ』ということを十分に意識して利用することが求められる」と指摘。「偽情報による被害を防止するためには、最新のAIが何をできるようになったか、速やかに周知することも大切だ」と話す。