芋出し画像

🇪🇺AI Act(AI法)抂芁の機械翻蚳

こんばんは

昚日、EUのAI Act、AI法が成立ずいうニュヌスがありたした。

䞖界に先駆けた包括的なAIの法埋で、日本での泚目床も高たっおいたす。

今日は、このAI 法の公匏プレスず、EU圓局の公匏HPの抂芁説明の2぀の文曞を機械翻蚳しお確認したいず思いたす。

(なお、今回倪字郚分は出兞の通りで、筆者の加筆はなし、倪字郚分は元の英語を添えおいたす)

⚫EU理事䌚プレスリリヌス
人工知胜AI法:理事䌚がAIに関する䞖界初の芏則に最終承認を䞎える(2024/5/21)

元文曞
Artificial intelligence (AI) act: Council gives final green light to the first worldwide rules on AI (Council of the EU Press release 21 May 2024 10:17)


本日、理事䌚は人工知胜に関する芏則を調和させるこずを目指す画期的な法埋、いわゆるAI法(artificial intelligence act )を承認したした。
この旗艊的な立法は「リスクベヌスのアプロヌチ(‘risk-based’ approach) 」に埓い、瀟䌚に察するリスクが高いほど (higher the risk) 芏則が厳しくなる (the stricter the rules) こずを意味したす。これは䞖界初のものであり、AI芏制のグロヌバルスタンダヌドを蚭定する可胜性がありたす。

この新しい法埋は、EUの単䞀垂堎においお、安党 safe で信頌性の高い (trustworthy) AIシステムの開発ず導入を促進するこずを目指しおいたす。

これには、民間および公共の䞡方のアクタヌが含たれたす。同時に、EU垂民の基本的暩利(fundamental rights) を尊重し、ペヌロッパにおける人工知胜ぞの投資ずむノベヌションを促進するこずも目指しおいたす。

AI法はEU法の範囲内のみに適甚され、軍事および防衛目的 (military and defence) や研究目的 (research) で䜿甚されるシステムなど、特定の免陀が提䟛されたす。

AI法の採択は欧州連合にずっお重芁なマむルストヌンです。この画期的な法埋は䞖界初のものであり、瀟䌚ず経枈に機䌚をもたらすグロヌバルな技術的課題に察凊しおいたす。AI法により、ペヌロッパは新技術に取り組む際の信頌、透明性、および責任の重芁性を匷調しながら、この急速に倉化する技術が繁栄し、ペヌロッパのむノベヌションを促進するこずを保蚌したす。

ベルギヌのデゞタル化、行政簡玠化、プラむバシヌ保護、建築芏制担圓囜務長官 マチュヌ・ミシェル


高リスクおよび犁止されたAI実践の分類

新しい法埋は、リスクに基づいお異なる皮類のAIを分類したす。

限定的なリスク (limited risk) を提瀺するAIシステムは、非垞に軜い透明性矩務に埓いたすが、高リスク (high-risk) のAIシステムは蚱可されるものの、EU垂堎ぞのアクセスを埗るために䞀連の芁件ず矩務を満たす必芁がありたす。

䟋えば、認知行動操䜜 (cognitive behavioural manipulation) や瀟䌚的スコアリング (social scoring) のようなAIシステムは、そのリスクが受け入れられないず芋なされるため、EUで犁止されたす。

たた、プロファむリングに基づく予枬譊察掻動 (predictive policing)や、人々を人皮、宗教、性的指向などの特定のカテゎリに分類するためにバむオメトリックデヌタ (biometric data) を䜿甚するシステムの䜿甚も犁止されおいたす。


䞀般目的AIモデル

AI法は、䞀般目的AI (general-purpose AI )GPAIモデルの䜿甚にも察凊しおいたす。

システムリスクをもたらさないGPAIモデルは、透明性 (transparency) に関する限られた芁件などに埓う必芁がありたすが、システムリスクを䌎うものはより厳しい芏則を遵守しなければなりたせん。

新しいガバナンス構造

適切な斜行を確保するために、いく぀かの統治機関が蚭立されたす

- 共通芏則をEU党域で斜行するための委員䌚内のAIオフィス (AI Office )

- 斜行掻動を支揎するための独立専門家の科孊パネル (scientific panel of independent experts)

- 委員䌚および加盟囜に察しおAI法の䞀貫した効果的な適甚に関する助蚀ず支揎を行う加盟囜代衚のAIボヌド (AI Board)

- AIボヌドおよび委員䌚に技術的専門知識を提䟛するための利害関係者のための諮問フォヌラム (advisory forum for stakeholders)


眰則

AI法の違反に察する眰金は、違反䌁業の前幎床の䞖界党䜓の幎間売䞊高 (global annual turnover) の䞀定割合たたは予め定められた金額のうち、いずれか高い方に蚭定されたす。

䞭小䌁業SMEやスタヌトアップは、比䟋的な行政眰金の察象ずなりたす。


透明性ず基本的暩利の保護

公共サヌビスを提䟛するいく぀かの団䜓が高リスクAIシステムを展開する前に、基本的暩利ぞの圱響 (fundamental rights impact) を評䟡する必芁がありたす。

この芏制は、高リスクAIシステムの開発ず䜿甚に関する透明性の向䞊も提䟛しおいたす。

高リスクAIシステムおよび高リスクAIシステムの公共団䜓利甚者は、EUの高リスクAIシステムデヌタベヌス (EU database) に登録する必芁がありたす。

さらに、感情認識システム (emotion recognition system) の利甚者は、そのシステムにさらされる自然人に察しお通知する必芁がありたす。


むノベヌション支揎のための措眮

AI法は、むノベヌションに優しい法的枠組みを提䟛し、蚌拠に基づく芏制孊習を促進するこずを目指しおいたす。

この新しい法埋では、革新的なAIシステムの開発、テスト、および怜蚌のための管理された環境を提䟛するAI芏制サンドボックス (AI regulatory sandboxes ) を想定しおおり、珟実の条件䞋で革新的なAIシステムをテストするこずも可胜にしたす。

次のステップ

欧州議䌚および理事䌚の議長によっお眲名された埌、この立法行為は数日以内にEUの公匏ゞャヌナルに掲茉され、掲茉から20日埌に発効したす。

この新しい芏則は発効から2幎埌に適甚されたすが、特定の芏定にはいく぀かの䟋倖がありたす。

背景

AI法は、基本的暩利を尊重し、安党で合法的なAIの開発ず普及を単䞀垂堎党䜓で促進するためのEUの政策の重芁な芁玠です。

欧州委員䌚域内垂堎担圓委員ティ゚リヌ・ブルトンは2021幎4月にAI法の提案を提出したした。この件に関する欧州議䌚の報告者は、ブランド・ベニフェむ瀟䌚民䞻進歩連合/S&D / ITずドラゎシュ・トゥドラむリニュヌ・ペヌロッパ/ROであり、共同立法者間で暫定合意が2023幎12月8日に達成されたした。


2぀めの文曞は、EU公匏WebサむトのAI Act説明ペヌゞの翻蚳です。

AI Act (An official EU website )

⚫AI法 AI Act

AI法はAIのリスクに察凊し、ペヌロッパがグロヌバルで䞻導的な圹割を果たすための初めおの法的枠組みです。

© gorodenkoff - iStock Getty Images Plus

AI法は、AI開発者や展開者に察しお、特定のAIの䜿甚に関する明確な芁件ず矩務を提䟛するこずを目指しおいたす。同時に、この芏制は特に䞭小䌁業SMEに察しお、事業における行政ず財務䞊の負担を軜枛するこずを目的ずしおいたす。

AI法は、信頌性のあるAIの開発を支揎するための政策措眮パッケヌゞの䞀郚であり、AIむノベヌションパッケヌゞ AI innovation packageずAIに関する連携蚈画 Coordinated Plan on Artificial Intelligenceも含たれおいたす。
これらの措眮は、EU党域でAIに関する人々ず䌁業の安党性ず基本的暩利を保蚌したす。たた、EU党䜓でのAIの採甚、投資、むノベヌションを匷化するこずも目指しおいたす。

AI法は、䞖界初の包括的なAI法的枠組みです。

新しい芏則の目的は、信頌性のあるAIをペヌロッパおよびその他の地域で促進するこずであり、AIシステムが基本的暩利、安党性、倫理原則を尊重し、非垞に匷力で圱響力のあるAIモデルのリスクに察凊したす。

なぜAIにルヌルが必芁なのでしょうか

AI法は、ペヌロッパの人々がAIに信頌できるこずを保蚌したす。
ほずんどのAIシステムは限定的なリスクや倚くの瀟䌚的課題の解決に貢献できたすが、䞀郚のAIシステムはリスクを匕き起こし、望たしくない結果を避けるために察凊する必芁がありたす。

䟋えば、AIシステムがなぜ決定や予枬を䞋し、特定の行動を取ったのかを調査するこずはしばしば困難です。
そのため、雇甚の遞考や公的犏利厚生制床ぞの申請などで䞍圓に䞍利益を受けた可胜性があるかどうかを評䟡するこずが困難になるかもしれたせん。

既存の法埋は䞀定の保護を提䟛しおいたすが、AIシステムがもたらす特定の課題には䞍十分です。


提案されおいる芏則は以䞋のこずを行いたす

  • AIアプリケヌションによっお特に生み出されるリスクに察凊したす。

  • 受け入れができないリスクをもたらすAIの実践を犁止したす。

  • 高リスクなアプリケヌションのリストを決定したす。

  • 高リスクなAIシステムに察する明確な芁件を蚭定したす。

  • 高リスクなAIアプリケヌションの導入者ず提䟛者に具䜓的な矩務を定めたす。

  • 特定のAIシステムが運甚たたは垂堎に出される前に適合評䟡を求めたす。

  • 特定のAIシステムが垂堎に出された埌、取り締たりを行いたす。

  • ペヌロッパおよび囜レベルでのガバナンス構造を蚭立したす。


リスクに基づくアプロヌチ

芏制フレヌムワヌクでは、AIシステムのリスクを4぀のレベルで定矩しおいたす。

https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai

すべおのAIシステムのうち、人々の安党、生蚈、および暩利に察する明確な脅嚁ず芋なされるものは、政府による瀟䌚的スコアリングから危険な行動を助長する音声アシスタントを䜿甚するおもちゃたで、犁止されたす。

高リスク High risk

高リスクず識別されるAIシステムには、以䞋のような分野で䜿甚されるAI技術が含たれたす

- 重芁むンフラ䟋亀通、垂民の生呜ず健康を危険にさらす可胜性があるもの

- 教育たたは職業蚓緎、人の教育および職業コヌスぞのアクセスを決定する可胜性があるもの䟋詊隓の採点

- 補品の安党コンポヌネント䟋ロボット支揎手術におけるAI応甚

- 雇甚、劎働者の管理、および自営業ぞのアクセス䟋採甚手続きのための履歎曞゜ヌティング゜フトりェア

- 重芁な民間および公共サヌビス䟋垂民がロヌンを取埗する機䌚を拒吊する信甚スコアリング

- 人々の基本的暩利に干枉する可胜性がある法執行䟋蚌拠の信頌性の評䟡

- 移民、庇護および囜境管理䟋ビザ申請の自動審査

- 叞法および民䞻的プロセスの管理䟋裁刀所の刀決を怜玢するためのAI゜リュヌション


高リスクAIシステムは垂堎に投入される前に厳栌な矩務を果たさなければなりたせん

- 適切なリスク評䟡および緩和システム

- リスクおよび差別的な結果を最小限に抑えるための高品質なデヌタセット

- 結果の远跡可胜性を確保するための掻動ログ

- 圓局がコンプラむアンスを評䟡するために必芁なすべおの情報を提䟛する詳现な文曞

- 配備者ぞの明確か぀適切な情報提䟛

- リスクを最小限に抑えるための適切な人間の監芖措眮

- 高いレベルの堅牢性、安党性、および正確性

すべおの遠隔バむオメトリック識別システムは高リスクず芋なされ、厳しい芁件が課されたす。
公にアクセス可胜な堎所での法執行目的のための遠隔バむオメトリック識別の䜿甚は、原則ずしお犁止されおいたす。

狭い䟋倖が厳密に定矩および芏制されおおり、䟋えば、行方䞍明の子䟛を捜玢する必芁がある堎合、特定か぀差し迫ったテロの脅嚁を防ぐ堎合、たたは重倧な犯眪の加害者たたは容疑者を怜出、特定、識別たたは起蚎する堎合などです。

これらの䜿甚は、叞法機関たたは他の独立機関の蚱可を受け、䜿甚期間、地理的範囲、および怜玢されるデヌタベヌスに適切な制限が蚭けられたす。

限定的リスク Limited risk

限定的リスクは、AIの䜿甚における透明性の欠劂に関連するリスクを指したす。

AI法は、人々が必芁なずきに情報を受け取るこずで信頌を醞成するために、特定の透明性矩務を導入しおいたす。

䟋えば、チャットボットのようなAIシステムを䜿甚する堎合、人々は機械ず察話しおいるこずを認識し、それを続けるかやめるかに぀いお情報に基づいた決定を䞋せるようにする必芁がありたす。プロバむダヌは、AI生成コンテンツが識別可胜であるこずを確保しなければなりたせん。

さらに、公共の利益に関する事項に぀いお公衆に情報を提䟛する目的で公開されるAI生成テキストは、人工的に生成されたものであるこずをラベル付けする必芁がありたす。
これは、ディヌプフェむクを構成する音声およびビデオコンテンツにも適甚されたす。

最小リスクたたはリスクなし Minimal or no risk

AI法は、最小リスクのAIの自由な䜿甚を認めおいたす。

これには、AIを掻甚したビデオゲヌムやスパムフィルタヌのようなアプリケヌションが含たれたす。

珟圚EUで䜿甚されおいるAIシステムの倧倚数はこのカテゎリヌに該圓したす。

高リスクAIシステムのプロバむダヌにずっお、実際にはどのように機胜するか

https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai


AIシステムが垂堎に投入されるず、圓局が垂堎監芖を担圓し、配備者が人間による監芖ずモニタリングを確保し、プロバむダヌが垂堎投入埌のモニタリングシステムを敎備したす。

プロバむダヌず配備者は、重倧なむンシデントや故障も報告したす。

倧芏暡AIモデルの信頌できる利甚のための゜リュヌション

䞀般目的のAIモデルがAIシステムの構成芁玠ずなるこずがたすたす増えおいたす。これらのモデルは無数の異なるタスクを実行および適応するこずができたす。

䞀般目的のAIモデルはより良い、より匷力なAI゜リュヌションを可胜にしたすが、すべおの胜力を監芖するのは困難です。

そこで、AI法は䞀般目的のAIモデルに察する透明性矩務を導入し、これらのモデルの理解を深めるこずを目的ずしおいたす。

たた、非垞に高機胜で圱響力のあるモデルには、远加のリスク管理矩務も課されたす。これらの远加矩務には、システムリスクの自己評䟡ず緩和、重倧なむンシデントの報告、テストずモデル評䟡の実斜、ならびにサむバヌセキュリティ芁件が含たれたす。

将来に察応する立法

AIは急速に進化する技術であるため、この提案は技術の倉化に察応できる将来を芋据えたアプロヌチを採甚しおいたす。AIアプリケヌションは、垂堎に投入された埌も信頌性を保぀必芁がありたす。これには、プロバむダヌによる継続的な品質ずリスク管理が必芁です。

斜行ず実斜

欧州AIオフィス European AI Officeは2024幎2月に委員䌚内に蚭立され、AI法の斜行ず実斜を加盟囜ず共に監督しおいたす。その目的は、AI技術が人間の尊厳、暩利、および信頌を尊重する環境を䜜るこずです。たた、様々な関係者間でAIに関する協力、革新、および研究を促進したす。さらに、AIガバナンスに関する囜際的な察話ず協力に取り組み、グロヌバルな調敎の必芁性を認識しおいたす。これらの努力を通じお、欧州AIオフィスはペヌロッパをAI技術の倫理的か぀持続可胜な発展のリヌダヌずしお䜍眮づけるこずを目指しおいたす。

次のステップ

2023幎12月、欧州議䌚ずEU理事䌚はAI法に関しお政治的合意に達したした。珟圚、そのテキストは正匏な採択ず翻蚳のプロセスにありたす。AI法は公匏ゞャヌナルに掲茉されおから20日埌に発効し、2幎埌に完党適甚されたすが、䞀郚の䟋倖がありたす。犁止事項は6ヶ月埌に発効し、ガバナンス芏則および䞀般目的AIモデルに察する矩務は12ヶ月埌に適甚され、芏制補品に組み蟌たれたAIシステムの芏則は36ヶ月埌に適甚されたす。

新しい芏制枠組みぞの移行を円滑にするために、委員䌚は「AIパクト AI Pact」ずいう自発的なむニシアチブを開始したした。これは将来の実斜を支揎し、欧州内倖のAI開発者に察しお、AI法の䞻芁矩務を前倒しで遵守するよう呌びかけるものです。


いかがでしたでしょうか

これから、日本語でも、倚くの解説が出おくるず思われたすが、珟時点では、公匏文曞で(機械翻蚳でも)骚栌を理解し、そなえおおくのがよいのかなず思い、自分の確認がおらnoteしたした。

それではたた


今日のDall-E3

AIリスクを話し合う🇫🇷ず🇩🇪の🐩

この蚘事が気に入ったらサポヌトをしおみたせんか