AIに対する政府の取り組み
政府は昨今のAI問題に取り組むべく、2023年5月にAI戦略会議を立ち上げました。
AI戦略会議が問題視する事象の中には、生成AIによるフェイクニュースの拡散、それに伴う世論工作が挙げられています。
その一方で、産業、医療、研究など様々な分野において便益が期待出来るとも示唆しています。
政府はリスクがあると断言しているにも関わらず、法規制の範疇に留めるべきではないとの見解を示しています。一方、AIの利用状況は民主化が進みすぎて抑止出来ないレベルまで拡がっているのが現状です。
生成AIによる社会問題
少し前にGoogleの開発したAI「Gemini」の問題がメディアで大きく取り上げられました。
この事象はGoogleに限らず起こり得ることです。無料AIアプリでは入力したテキストに基づいてAIが画像を自動生成してくれる機能がありますが、テキストの内容とは程遠い仕上がりになるケースもあります。Geminiの問題に重ねると、「ナチス 兵士」と入力すればアジア人のナチス兵が生成されてしまうかもしれません。
知見のない人がAIを使えば、意図せずフェイクニュースに繋がる危険もあります。
クリエイターの権利
生成AIによる画像、映像、あるいは音楽の自動生成がクリエイターの権利に悪影響を及ぼす懸念も見逃せません。ワンタップで理想の創作物を作ってしまうAIは、利益損害や著作権侵害に繋がる可能性があります。
また、創作物を競い合うコンクールやコンテストでもAIによる創作物を自身の作品として提出し、仮にそれが入賞しようものなら、こんな滑稽な話はありません。
国内では2023年6〜7月、武蔵野美術大学とIT企業2社が生成AIアプリを使用条件とした絵画コンテストを共同主催しましたが、著作権侵害の懸念からコンテスト自体を中止。
海外では、AIを使った作品が絵画コンテストで優勝し、批判の声が集まりました。優勝者は応募の時点でAIツールを使用と明記していたにも関わらず選出されています。
当人の主張はAIツールは制作の一工程にすぎず、実際に完成までは80時間以上を費やしたという。
本来、AIはクリエイターの制作をサポートするためのツールであることが望ましいですし、政府もそのような見解を示しています。しかし、そのサポートもどこからどこまでが許容範囲なのか、論点を絞るのは困難と言えます。
著作権侵害の判断基準
2024年4月に発足されたAI事業者ガイドラインの共通指針項目では、以下のように記載されています。
同ガイドラインではその他に教育・リテラシーの項目があり、AIリテラシーの必要性について講じられていますが、クリエイターの権利を守る施策は今のところ具体像が見えません。
生成AIによる著作権侵害の判断基準は文化庁のサイトに詳しい詳細が載っています。
生成AIによる創作物を自身の作品として発表する場合、著作権侵害の判断基準は類似性・依拠性が論点となります。依拠性とは、既存の著作物を基に創作することを指します。
類似しているかどうか、その上で作者に既存の著作物を真似た意思があったかどうか、ということを確認する必要があります。
類似性と依拠性のいずれも認められたとして、それが著作権侵害に当たらないケースは、権利者から許諾を得ている、もしくは許諾が不要な権利制限規定が適用される場合です。
著作権が放棄された作品、著作権を譲渡してもらった作品、あるいは一定の基準を満たせば類似作品も許容されます。この基準は、主に作者の提示する二次創作規約に則ることを指します。
AIに仕事を奪われる危険性
AIに仕事を奪われる危険のある職業は100種類以上と言われています。
パターン化された業務を繰り返し行うような職業は人の手で行うよりもAIに任せた方が効率が良いです。国が対策を施さない限り、人に取って代わる労働現場へのAI導入は有り得る未来です。
資格が必要とされる職業に就くには、人は勉強して、試験を受けて、というプロセスが必要なのに対しAIはデータがあれば対応できてしまいます。
政府はAIの開発・技術促進を促す一方で、人がより良く働けるため、企業にとってAIがどうあるべきかを考える必要があるでしょう。
近い将来、各企業で大規模なリストラ計画が実施され、街は失業者で溢れ返るかもしれません。
AIの産業競争によって社会全体に及ぼす影響は良いことばかりではないことを私たちは知っておくべきでしょう。
AIを悪用した犯罪
OpenAIの提供するChatGPTは、人や社会に悪影響を及ぼす何かしらの方法についてユーザーが問いかけても、情報提供はしない仕組みになっています。
このように、検索テキストによっては規約違反の警告が出ることもあります。
先ほどは「ハッキング」というストレートなキーワードを使いましたが、「企業のサーバーにアクセス」というキーワードに変えてみたところ、事細かく情報提供してくれました。
合法的なアクセス方法からハッキングのヒントは得られないと断言出来るでしょうか。
無料AIアプリでは、イラストを入力するだけで架空の人物画像を生成出来ます。しかし、本当に画像の人は存在していないでしょうか。
AIはテキストとデータベースの情報を照合し、最適解を導き出します。画像と瓜二つの顔立ちをした女性が世界のどこかにいないとは言い切れません。
極端な話ですが、今から顔を整形する人が医者に上の画像みたいにしてくださいと頼んだら、限りなく近い顔になるかもしれません。
AIで作成した人物画像をSNSのアイコンにしたり、商用利用するのは地雷を踏んでいる可能性も否めません。今のところ筆者の中では、「AIでの創作=オリジナル」という認識は半信半疑です。
知らず知らずのうちに悪用していたという無意識の行為が蔓延すれば、その脆弱性を悪用した知能犯のサイバー犯罪も起こり得ます。
海外のAI問題に対する取り組み
日本ではまだAIの法規制はありませんが、国外ではどのような取り組みが行われているでしょうか。
EUでは2024年5月にAIに対する法律が成立しています。この法律はEU域内、及びAIサービスをEUに提供する他国にも適用されるため、日本の関連企業も認知する必要があります。
AI事業者に法規制の要件(リスクベース)を義務付けることで、個人利用者のAIに対する関心度を高める効果も期待出来ます。
カリフォルニアではAIの規制法案が可決され、近い将来法規制が施行される可能性が出てきました。
厳しい審査内容に加え、AIによる社会的損失は開発企業に責任があるとするこの法案は、下流のAIアプリにも適用されます。
つまりオープンソースAIの企業は従来のように開発後、気楽にネットで公開出来ないわけです。そのため、オープンソースAIを開発する企業からは法案の可決はイノベーションの低下に繋がると異論があり、カリフォルニアのAI業界は波紋を呼んでいます。
最後に
AIに対する政府の取り組みは各国で活発化しています。日本ではAIが世間的に認知されていても、法規制の動向にはまだ注目が集まっていないように感じます。
各国、主に先進国の政府はAIがデジタルイノベーションの促進に不可欠な存在であるとし、規制案、もしくはガイドラインの構築を急務としています。(日本は少し出遅れていますが...)
今後、AIの開発に着手する企業はハードな責務を負いますが、私たち個人利用者もAIリテラシーを強く持たなければいけません。無料で使えるからと言って、気付けば著作権を侵害していた、犯罪行為に手を染めていた、という事態は言語道断。
正しいAIリテラシーを持って、許容範囲内でAIを利用しましょう。