EU欧州理事会、AI法を承認
2024年5月21日、EU欧州理事会、AI法を承認しました。
【ニュース】
2024年5月21日 EU AI法案が加盟国に承認され成立 規制は2026年に適用の見通し
EU欧州理事会
2024年5月21日 人工知能(AI)法:EU理事会、AIに関する世界初の規則に最終承認
https://www.consilium.europa.eu/en/press/press-releases/2024/05/21/artificial-intelligence-ai-act-council-gives-final-green-light-to-the-first-worldwide-rules-on-ai/
(機械翻訳)
本日、理事会は、人工知能に関する規則を調和させることを目的とした画期的な法律、いわゆる人工知能法(AI法)を承認しました。主力の法律は「リスクベース」のアプローチに従っており、社会に害を及ぼすリスクが高いほど、ルールは厳しくなります。これは世界初であり、AI規制のグローバルスタンダードを設定することができます。
この新しい法律は、EUの単一市場全体で、民間と公的機関の両方による安全で信頼できるAIシステムの開発と採用を促進することを目的としています。同時に、EU市民の基本的権利の尊重を確保し、欧州における人工知能への投資とイノベーションを刺激することを目的としています。AI法は、EU法の範囲内にのみ適用され、軍事および防衛、および研究目的にのみ使用されるシステムなどの例外規定を設けています。
AIシステムを高リスクで禁止されているAI慣行に分類する
新しい法律は、リスクに応じてさまざまな種類の人工知能を分類します。リスクが限定的なAIシステムには、非常に軽い透明性義務が課せられ、リスクの高いAIシステムは認可されますが、EU市場にアクセスするための一連の要件と義務の対象となります。例えば、認知行動操作やソーシャルスコアリングなどのAIシステムは、そのリスクが容認できないと判断されるため、EUから禁止されます。また、この法律は、プロファイリングに基づく予測警察活動や、生体認証データを使用して人種、宗教、性的指向などの特定のカテゴリに従って人々を分類するシステムのためのAIの使用を禁止しています。
汎用AIモデル
AI法は、汎用AI(GPAI)モデルの使用にも対応しています。
システミック・リスクをもたらさないGPAIモデルには、透明性など限定的な要件が適用されますが、システミック・リスクのあるGPAIモデルは、より厳しいルールに従わなければなりません。
新しいガバナンス アーキテクチャ
適切な施行を確実にするために、いくつかの統治機関が設立されています。
EU全体で共通のルールを施行するための欧州委員会内のAIオフィス
執行活動を支援する独立した専門家の科学パネル
AI法の一貫性のある効果的な適用について、欧州委員会と加盟国に助言し、支援する加盟国の代表者からなるAI委員会
利害関係者がAI委員会と委員会に技術的な専門知識を提供するための諮問フォーラム
罰則
AI法違反に対する罰金は、違反企業の前会計年度における全世界の年間売上高に対する割合または所定の金額のいずれか高い方として設定されます。中小企業や新興企業には、相応の行政罰金が科せられます。
基本的権利の透明性と保護
公共サービスを提供する一部の事業体が高リスクのAIシステムを導入する前に、基本的権利への影響を評価する必要があります。また、この規制は、リスクの高いAIシステムの開発と使用に関する透明性の向上を規定しています。高リスクAIシステム、および公的機関である高リスクAIシステムの特定のユーザーは、高リスクAIシステムのEUデータベースに登録する必要があり、感情認識システムのユーザーは、そのようなシステムにさらされている場合、自然人に通知する必要があります。
イノベーション支援策
AI法は、イノベーションに優しい法的枠組みを提供し、証拠に基づく規制学習を促進することを目的としています。新しい法律では、革新的なAIシステムの開発、テスト、検証のための制御された環境を可能にするAI規制のサンドボックスは、現実世界の条件下での革新的なAIシステムのテストも可能にする必要があると予測しています。
AI規則案(419頁)
AIに関する調和されたルールを定める規則案(AI法)
この文書は、人工知能に関する調和されたルールを定めるEU議会と理事会の規則案です。
目的と範囲
内部市場の機能を改善し、AIシステムの開発、市場投入、サービス提供、および使用に関する統一された法的枠組みを確立することを目的としています。
基本的価値と保護
AIの開発と使用がEUの価値観と基本的権利を尊重し、健康、安全、民主主義、法の支配、環境保護を保護することを保証します。
リスクベースアプローチ
AIシステムが生み出すリスクの強度と範囲に応じて、規則のタイプと内容を調整するリスクベースのアプローチを採用しています。
リスクベースアプローチの要点は以下の通りです。
リスクの定義:AIシステムが生み出すリスクの強度と範囲に応じて、規則のタイプと内容を調整する必要があります。
不適切なAIの使用禁止:人間の尊厳、自由、平等、民主主義、法の支配などのEUの価値観に反するAIの悪用は禁止されています。
高リスクAIシステムの要件:公共の利益や基本的権利を保護するために、高リスクAIシステムに対する共通の規則が設けられています。
透明性の義務:特定のAIシステムに対しては、透明性を確保するための義務が課されています。