
デジタル空間における情報流通の健全性確保の在り方に関する検討会とりまとめ(案)についての意見
書誌事項
デジタル空間における情報流通の健全性確保の在り方に関する検討会とりまとめ(案)本文
提出した意見
意見を述べる機会を賜り、ありがとうございます。
加速化する生成AI
第4章 デジタル空間における情報流通の健全性確保に向けた対応の必要性と方向性
1.対応の必要性
・該当箇所
(リスク・問題を)「「加速化する」、生成 AI 」(p.247)
・意見
リスクについて「加速化」という特有な用語を使用せず、「生成AIはリスク・問題を高める」などリスク評価できる前提での用語を使用して下さい。
リスクは、大きいか小さいかを評価できます。リスクの軽減や回避のための計画を立案し、実行することで、大きいリスクを小さくすることができます。
本文書の「加速化する」は、特有な言い回しで、意味を確定できません。「不確実性(リスク)」を加速化するとか、「マイナスの価値をもたらす可能性(リスク)」を加速化するなどといっても、定性的にも定量的にも評価できません。
生成AIは様々なリスクを高めており、そのリスク(量)を軽減し、回避するための取り組みが必要です。しかし「加速化する」と表現された結果、本文書には、生成AIによるリスクを軽減するための提案が一つも含まれませんでした。
例えば、生成AIは手軽に誰でもフェイク画像を生成できるようにしました。フェイク画像が社会に出現するリスクは高まりました。1枚の画像の深刻度も深まり、フェイク画像の数も増えます。そのように高まるリスクに対して、どのような対応をすべきかが、「デジタル空間の健全性」の確保に必要です。
「生成AIはリスクを高める」と普通に表現したうえで、そのリスクを評価し、基本理念を定めて下さい。
インシデントの誤記
第3章 諸外国等における対応状況
2.EU
・該当箇所
(1)法制度に関する動向
(2) AI 法(p.210)
・意見
「システミックリスクの評価・軽減や重大インデントへの対応」の「インデント」は、「インシデント(incident)」の誤記と思われます。
ご執筆ご担当者におかれましては、このような誤記が残るということは、AI法について十分な理解が進んでいない可能性がありますので、生貝先生の資料の他、AI Actの原文を参照するなどし、域外適用や著作権法との関係なども含め、AI Actについてあらためてご研究頂くのがよろしいかと感じました。
表現の自由
第5章 情報流通の健全性確保に向けた基本的な考え方
1.基本理念
・該当箇所
(1)(1) 表現の自由と知る権利の実質的保障(p.251)
・意見
まず、思想の自由市場や自己統治(自己決定)に言及しながら、表現の自由を基本理念の骨格とすることに賛成します。
さて、表現の自由には、考えを公表する自由と、意に沿わない内容の表現を強制されない自由(消極的表現の自由)があります。ディープフェイクは、自分の顔や自分の声で、自分が意図しない内容が許可無く公表されてしまうため、その多くは、消極的表現の自由の侵害です。
ディープフェイクは、単純に、偽・誤情報の拡散で社会が混乱するというだけでなく、個人の基本的な人権を損ねる表現の公表です。
生成AI(システム)は、人間の肖像写真、声、歌声、絵柄、筆跡などを合成し、本人でないのに、その人であると受け手が感じる肖像や作風の表現を簡単に短時間で生成します。
つまり、表現の自由の実質的保障について、消極的表現の自由の自由を考慮すると、生成AIが出力する多くのコンテンツは、デジタル空間で健全性がない表現です。
生成AIユーザーは、学習元データの本人ではないため、なりすまし型偽広告のような、偽・誤情報を出力します。本人の意に沿わない内容が許諾無く公開されており、本人が話し手もいない、描いてもいない表現が強制的に公開されてしまうという、消極的表現の自由を奪っています。
このような偽・誤情報である生成AI出力物が増えると、人間が、思想の自由市場において、真実を発見していく際の膨大なノイズとなります。ノイズが増えると、適正な判断ができなくなっていき、思想の自由市場の機能が低下して、人々がファクトにたどり着かなくなります。
デジタル空間の健全性確保のための基本理念として、第1に、消極的表現の自由を考慮すべきであり、第2に、生成AI出力が思想の自由市場を脅かす高リスクな存在であることに留意すべきです。
例えば、「生成AIの出力は、学習された本人の意に沿わない表現を強制する公表をもたらす可能性があり、思想の自由市場への悪影響が懸念されることに留意すべきである」といった一文を基本理念に追加することが考えられます。
責任ある発言
第5章 情報流通の健全性確保に向けた基本的な考え方
1.基本理念
・該当箇所
(2)(1) 自由かつ責任ある発信の確保(p.253)
・意見
責任ある発信の確保として、EUのAI法と同様に、著作権法の遵守義務があることを本文書に明記し、著作権法による民事・刑事の既存の規律によるリスク軽減を図るべきです。
透明性
第5章 情報流通の健全性確保に向けた基本的な考え方
1.基本理念
・該当箇所
(3)(2) 透明性(p.254)
・意見
広告仲介 PF 事業者、広告主、広告関連事業者(p.259)に、広告についての透明性を求め、どの広告をどの媒体に出稿したかについての統計情報の開示を強制すべきです。特に、詐欺的としてユーザーから指摘の多かった広告については、広告主や掲載媒体を事後的に実名で公開する義務を法定すべきです。
そして、広告仲介 PF 事業者、広告主および広告関連事業者は、広告に関して責任を持つ取締役か執行役員(Chief Marketing Officer)を特定し、広告の意図や内容について行政や社会から説明が求められる際にそのCMOが回答すべきです。
企業が、デジタル空間での健全性との関連性を含む広告についてのポリシーを定めるようなガイドラインを、国が制定することも一案です。
複数の構成員殿の資料でもあるように、リスティング広告の運用ではコーポレート全体のブランド価値まで検討せずにデジタル広告を出稿している可能性もあり、CMOによる統合思考での企業経営が期待されます。
AI関連事業者に期待される役割・責務
第5章 情報流通の健全性確保に向けた基本的な考え方
2.各ステークホルダーに期待される役割・責務
・該当箇所
(3)(4) AI関連事業者に期待される役割・責務(p.260)
・意見
AI関連事業者は、情報インテグリティのための国連グローバル原則(p.228)を参照し、第1に、意味のある透明性を確保し、ユーザーのプライバ シーを尊重しつつ研究者や学術界がデータにアクセスできるようにし、公開性のある独立監査を委託し、産業の説明責任に関する枠組みを共同策定すべきです。
第2に、子どもたちの保護のための特別な施策を講じるべきです。具体的には、子どもたちに生成AIを使わせないように利用規約を定めるべきです。そして、生成AI出力の広告を子どもにみせない、生成AI出力の広告に未成年者を登場させない、なども健全なデジタル空間に必要です。ディープポルノの仕組みを本人が理解できるようになるまで、子どもたちは、生成AI、特に画像を生成する生成AIから距離をおくべきです。
続いて、国連グローバル原則から離れて、第3に、世界からアクセスできるWebサービス等を提供しているAI関連事業者は、グローバルな各地域の規律のうち、もっとも厳しい規律に従い、日本国内においてもそのグローバルで最も厳しい規律を遵守すべきです。例えば、EUのAI法を遵守したサービスを日本国内でも提供すべきです。
第4に、AI関連事業者は、著作権法を始めとする知的財産法についてのポリシーを定めて公開し、知的財産権法を遵守すべきです。
これら第1から第4を、本文書に明記すべきです。
ラベリング
第6章 総合的な対策
2.総合的な対策
・該当箇所
(4)技術の研究開発・実証
1.技術の研究開発・実証に関する現状と課題
・意見
すべての生成AI出力にラベル付けをし、電子透かし等をいれることが急務であり、技術開発に一定期間を要するのであれば、少なくとも画像と動画については生成AI出力の公開を禁止すべきである。
生物の写真や、歴史的な写真が、生成AI出力であるかどうか不明なまま大量に出現してしまい、新しい生物なのか、生成AI出力画像なのかの判別が必要となっています。恐竜の歯の数がおかしい博物館のチラシなども配布されています。
情報空間が偽情報で汚染されており、生成AI出力であることが機械的にも目視でも簡単にラベル等でわかるように義務付けられるまで、この汚染が続きます。写真やイラストのストックサイトも、大量の生成AI出力画像であふれ、普通の写真やクリエーターによるイラストを探すことが難しくなってしまいました。
その結果、パンフレット、Webサイトやチラシ等で意図せず生成AI画像が使われはじめています。歴史、建物や町並みなどの文化、生き物、パースさらには腕の数まで正常でない画像があふれ、教育に良くないばかりか、国際的に高い水準にある印刷物等の商業デザインのスキルや感覚、センスが失われてしまいます。
具体的に、危機的に、情報空間が汚染されています。
そして、フェイクかどうかをAIで判定することの精度は100%とはならず、入学試験や就職試験等でそのAI判定を使うことは、AIによる自動決定となり、誤った判定をした場合に回復できない不利益を人間に生じさせるため、現実問題として利用できません。
また、生成AIの学習、生成、さらに判定で電力を消費するのはあまりに不必要です。
生成AIの出力自体を規律しなければ、デジタル空間の健全性を保てません。生成AI出力であることのラベリングがしばらくできないのであれば、生成AI出力画像および動画の公開禁止も選択肢です。
生成 AI コンテンツ判別技術
第6章 総合的な対策
2.総合的な対策
・該当箇所
(4)技術の研究開発・実証
(2) 技術の研究開発・実証に関する具体的な方策
(イ)生成 AI コンテンツ判別技術(p.299)
・意見
ファクトは、思想の自由市場において形成されていくもので、国家を含む特定の主体が定めることではありません。政府や社会ができることは、ファクトに辿り着きやすくなるように、思想の自由市場の環境整備をすることです。
実際の市場では、例えば、不正競争を防止し、公正取引がなされるように、国家や法制度が介入しています。思想の自由市場においても、思想の公正取引がなされるような国家による監視や介入は想定できます。表現内容の規制ではなく、市場機能の維持です。
ディープフェイクは思想の自由市場を混乱させるため、生成AIの利用禁止範囲を定めるなど構造的な改革が求められます。
不正競争の類型を参照すると、商品やサービスの需要者がその出所を混同するような表示の利用は不正競争ですから(不競法2条1項1号)、知名度のある肖像や絵柄を生成AIで出力し、需要者が出所(商品・サービスの提供者)を誤解するようであれば、それは思想の自由市場を混乱させています。
知名度のある肖像や絵柄・作風を使った意見の表明やコンテンツの提供は、思想の自由市場の機能を低下させ、ファクトチェックの可能性を低下させます。
市場機能を維持することでファクトチェックをスムーズに行わせるという観点で、需要者や受け手が思想の提供者を誤解するようなディープフェイクの禁止は、間接的に思想の自由市場の機能を守る目的として、国家による介入が一定程度許容されると思われます。
デジタル広告関連技術
第6章 総合的な対策
2.総合的な対策
・該当箇所
(4)技術の研究開発・実証
(2) 技術の研究開発・実証に関する具体的な方策
(ウ)デジタル広告関連技術(p.300)
・意見
デジタル広告については、構造的・抜本的改革が求められます。広告主が誰であるかもわからない詐欺的な広告が、伝統的な新聞社のWebサイトに掲載されており、新聞社は掲載をコントロールできていません。
デジタル広告は、顔の見えないデジタル取引で複雑な商流となっており、誰がどのような責任を負うのか不明なまま、表示数やクリック数で争われ、詐欺的な方向へと常にエスカレートしています。
構造的、抜本的改革として、第1に、ブランド力のある広告主が、ブランド力のあるWebサイトやWebサービス(媒体企業)にデジタル広告出稿できるような制度と技術の開発をすべきです。
資本金1億円以上で広告担当執行役員(CMO)を定めている企業(広告主と媒体企業)をデジタルで(API等により)識別できるようにし、広告出稿取引をデジタル処理で成約させるなどである。
第2に、広告会社に広告出稿先について事業報告を義務付け、かつ、ユーザーから詐欺的であると指摘の多かった広告については実名での報告を義務付けたい。事前に審査しきらなくても、事後的で確実な報告を蓄積できれば、政府や研究者含め幅広く調査分析し、生産性の高い改善策を提案していくことができる。
コンテンツモデレーション
その他
・意見
別紙にあるコンテンツモデレーションについては、自己の権利を侵害された者による申出・申請に迅速に対応することに賛成する。
行政法規に抵触する違法な偽・誤情報については、司法手続として介入することが原則であり、行政庁を原告とする司法手続を簡易にすることが考えられる。少なくとも、令状のように、裁判官の関与があると良い。
しかし、災害時など緊急性のある場合、立法された根拠に基づいて、コンテンツモデレーションの手続ができるようにすることも考えられる。