英米AI協定:AI安全性パートナーシップを築く
英国とアメリカはAIの安全性を確保するために協力することを発表しました。この協力関係は、アメリカのホワイトハウスがこの週に発表したAI開発の新しい規制と、英国の「フロンティアAIタスクフォース」による既存の作業を組み合わせることを意図しています。両国はAI安全性に関する新しい研究所を開設し、情報共有と研究協力に参加する予定です。ロイターなどで報じているAI安全性パートナーシップについて深掘りしていきます。
英国の「フロンティアAIタスクフォース」とは
「フロンティアAIタスクフォース」は、英国によって設立されたAIのリスクと機会を評価し、対応策を策定するための組織です。このタスクフォースは、特に先進的なAI技術の安全性を評価し、AIの発展に伴う潜在的なリスクに対処することに焦点を当てています。この取り組みは、AI技術の責任ある使用と開発を促進し、技術の進歩が社会に利益をもたらすことを目的としています。英国の「フロンティアAIタスクフォース」は、最新のAIモデルに対する「特権的アクセス」をすでに持っており、Google DeepMind、Anthropic、OpenAIなどの主要なAI企業の技術モデルを評価しています。
「フロンティアAIタスクフォース」は未公開の最新技術やAIモデルにアクセスできる
「特権的アクセス」という表現は、一般に解放されていない最新の技術やAIモデルにアクセスできることを意味します。これは、音声エンジンやSoraなどの特定の先進的な技術にも当てはまる可能性があります。このようなアクセスは、特定のタスクフォースや研究機関、政府機関が、AIの発展におけるリスクを評価し、規制や安全基準を策定するために設けられています。ただし、このアクセスは厳密な条件や合意のもとで行われ、技術の濫用を防ぐためのセキュリティ対策が伴うことが一般的です。
米は英の「フロンティアAIタスクフォース」を参考
米国のAI安全研究所は商務省に設置され、英国のAI安全研究所はフロンティアAIタスクフォースの作業を基に設立されます。
アメリカはイギリスの「フロンティアAIタスクフォース」の取り組みを参考にして、自国内でAIの安全性を確保するための機関を設立しました。この経緯は、両国がAIの安全性に関して協力することを決定し、それぞれの国で安全研究所を開設することから始まります。アメリカで設立された研究所は「United States AI Safety Institute」と呼ばれ、商務省の下に設置されました。この研究所は、AIシステムのリスクを評価し、軽減するためのガイドライン、基準、およびベストプラクティスを作成することを目的としています。
西側協定の外で開発されるAIについての懸念点
英米がAI安全性パートナーシップを通じて西側諸国のAIを厳格に規制する場合、中華圏やロシアのAIが制約が少ない環境で急成長する可能性は確かにあります。規制の不均衡は、技術開発の地政学的な均衡を変えることができます。西側諸国が厳しい規制を設けることで、技術革新が遅れるかもしれませんが、これは安全性や倫理的な懸念を考慮に入れるための措置を英米協定が緩めるとは思えません。
したがって、国際的な協調が重要であり、AIの安全性と革新に対するグローバルなアプローチを模索する必要があります。各国が自国の技術発展を促進しつつも、グローバルな基準と協力によってリスクを管理することが望ましいです。一部の国だけが厳しい規制の下に置かれ、他の国が野放図にAIを発展させるような状況は避けなければなりません。
英米は、安全性の確保を大前提としつつも、AIの可能性を最大限に引き出せるような柔軟な枠組み作りを心がけてもらいたいものです。
この記事が気に入ったらサポートをしてみませんか?