Air Street Capital社のState Of AI Report 2023を読む(10)
AIの話題で世界的に議論されているのはその利用方法に制限/規制をつけるべきか否か、という話題です。
各国ではそのアプローチは異なっていて、既存の法政で管理するか、新たに法制化するか、特定のAIサービスを禁止する方針をとる、という事で別れています。
日本は既存の法律の範囲でまずはAIを積極的に採用する方針をG7でも表明されてますが、海外では違う方針を取っている国も多く、世界的なコンセンサスに至るのは難しいのかもしれません。
軍事的な目的での使用への懸念、著作権/プライバシー保護の課題、偽情報への対処方法、などITにとどまらずかなり広い範囲に影響を及ぼす、というAI固有の特性が要因だと考えます。
EUはその中で、AI Actという独自の法律体系を制定しようと動いていますが、その作業が難航し、年内に終了しない、という発表を10月にしています。
同じヨーロッパでは、UKは独自の "AI Safety Institute" と呼ばれる組織を立ち上げてるが国内志向の高い活動だ、と表明してます。
米国ではAIの安全、セキュアそして信用できる利用を保全するための施策として大統領令を2023年2月に発表し、それに続き5月には、主要AIベンダーを招集し、"Blueprint for an AI Bill Of Rights"と呼ばれる法制化の準備活動、さらにNISTによるAI利用リスクと対策を分析したフレームワークとして "AI Risk Management Framework" を策定してます。
国際連合はAIの国際的なガバナンンスを議論することを目的とした主要ベンダーやアカデミアの代表によるアドバイザリー組織を立ち上げてます。
各国政府の動きがここに進む一方、主要AIベンダーを含めた114社が共同でPartnership on AI (PAI) と呼ばれるパートナーコミュニティを作り、安全に利用できるFoundation Modelに関する開発/利用ガイダンスを発行してます。
また、Anthropic、Google、Microsoft、OpenAIが共同でFrontier Model Forumと呼ばれる組織を作り、$10Mを投じて AI Safety Fund という基金を立ち上げ、R&Dに役立てる、と発表してます。
OpenAIによるChat-GPTの登場で急速に利用は進みながらも、安全性、著作権、などの面で課題も急速に出てきたために、こういう活動も急速に立ち上がってきた状況ですが、当面新機能/新サービスの開発スピードがさらに加速する中で、それになんとか追いついてこうと必死になって頑張る政府、業界団体のイタチごっこ的な構図は当面続くと思われます。