危険な AIフィーバー
1957年に人間の脳をイメージしたニューラルネットワークの基礎になるパーセプトロンモデルが考案されてから AIは進化し続け、2006年には多層化したニューラルネットワークを用いた学習の研究によってディープラーニングが誕生。
産業ロボットや自動運転をはじめ、コンシューマ向けではアプリの画像処理など様々な分野で利用されていたものが、2022年11月 OpenAIの大規模言語モデル(LLM) ChatGPT-3の公開を機にメディアが大きく煽ってブームに火が付き、AIは「金脈」になった。
この金脈にビッグテックは食指を動かし、Microsoftは OpenAIと提携して ChatGPTをベースにした「Copilot」を、Googleは大規模言語モデル LaMDAをベースにした 「Bard」を、Metaはオープンソースとして公開した大規模言語モデル Llamaをベースにした「MetaAI」を開発。
大規模言語モデルはスクレイピングして出力しているだけなので、正誤の判断や倫理感が欠如しており、「ハルシネーション(幻覚)」と呼ばれる誤った情報を生成することが知られており、当初 Googleは「すべてのユーザーにとって機能しない可能性のあるものを公開することはできない」と慎重な立場を取っていたが、2023年 2月に Microsoftが Bingに ChatGPTの組み込みを発表する前日、Googleは急遽 Bardを発表。
そのデモンストレーションで宇宙望遠鏡について誤った情報を出力し、Googleの親会社 Alphabetの株価を 9%近く下げることになったほか、テスト段階とはいえ 2021年のノーベル平和賞の受賞者に架空の人物を表示したり、第二次世界大戦の開始年を間違ったりとハルシネーションの報告が相次いだ。
生成AIは米国の著作権法が定めている「フェアユース」という特定の条件下(利用の目的・著作物の性質・使用される情報量と実質製・著作物への影響)では、著作権者の許諾なしに利用しても著作権の侵害にならないという概念に基づいて情報を要約しているが、生成AIは公開当初から著作権の問題が指摘されている。
(日本の著作権法にはフェアユースに該当する条項はないが、一定の条件下で著作物を利用できる例外がある)
多くのウェブサイトはユーザーを自サイトに呼ぶため有益な情報を発信し、広告表示やアフィリエイトなどで情報を収益化して成り立っており、このエコシステムによってユーザーは無料で情報を得ることができているが、生成AIは情報のみを収集してユーザーに表示するため、ウェブサイトへのトラフィックは確実に減少し、「著作物への影響」は看過できない。
※AIの導入によるサイトへのトラフィックについて、 Googleのサンダー・ピチャイ CEOは「増加する」と回答している。
この問題に対して Googleは米国最大の掲示板 Redditと提携して、著作権のない「投稿」を AIのトレーニングに使用できるようにし、2024年 2月に名称を「Gemini」に改めて対話型 AIを公開。
5月には米国限定で「AIオーバービュー」として検索結果に表示されるようになったが、「腎臓結石を治療するために尿を飲む」「吐き気を和らげる手段として妊婦に喫煙を推奨」「ピザにチーズを付ける方法として無毒の接着剤を使用」などの回答が提供されたとネットで話題になり、BBC や ニューヨーク・タイムズ が報道するまでになった。
日本の「2ちゃんねる」に似た性質がある Redditの投稿を学習しているためトンデモ回答が生成されるのは当たり前で、データクレンジングが不十分なまま公開された Geminiには、Copilotを Windowsに統合し、AI PCを投入するなど AIブームに乗っている Microsoftに対する焦りが見える。
生成AIにハルシネーションがあることを考慮すれば Geminiの誤回答も特筆すべきことではないのだが、Googleの検索エンジンは7割以上のシェア占め、少なからず公共性のあるサービスということに大きな問題がある。
SNSで拡散した「スマホを電子レンジで温めると急速充電できる」という2ちゃんネタを信じてスマホを破壊した人がいるように、表示される情報を鵜呑みにするユーザーは一定の割合で存在し、特に一般的な Googleのイメージは最先端の技術を提供する IT企業であり、AIについてはメディアが必要以上に万能感を煽っているため、Googleの AIが表示する情報の影響力は非常に大きい。
香川県三豊市は ChatGPTを使用した「ゴミ出し案内サービス」の実証実験を進め、1回目の実証実験で正答率が 62.5%、改善後の 2回目の実証実験では 94.1%に達したが目標値の 99%に届かなかったため導入を断念。
公共サービスである以上「ほとんど正解」では弊害があるという英断だが、これからは生成AIを提供する側のモラル以上にユーザーのリテラシーが必要になってくる。