見出し画像

生成AI News - 生成AIの安全性

こんばんは、りょぶんです

以下の記事で生成AI主要6社の安全対策が発表されました
その結果が、かなり悪いようです。やはりまずは技術ありきで、安全対策というのは後回しになっているようです

このような記事が出てしまうと、ビジネスで使って大丈夫なのかな?と思われる方も多いかと思います。

やはり使う側がしっかりと理解した上で安全に使うことが今のところは求められそうですね😓


米国「フューチャー・オブ・ライフ・インスティテュート」による生成AI安全性評価:主要6社の現状分析

概要:生成AI安全性評価の重要性

2024年12月11日、非営利団体「フューチャー・オブ・ライフ・インスティテュート(FLI)」は、主要AI企業6社(Anthropic、Google DeepMind、OpenAI、Zhipu AI、x.AI、Meta)の生成AIの安全対策を評価した報告書を発表しました。AI技術の進展が加速する中、FLIはこの「AIセーフティインデックス」を通じて、安全性向上のための透明性と責任ある開発の促進を目指しています。


安全性評価の基準と主要指標

FLIは以下6つの評価基準に基づき、企業を総合評価しました。

  1. リスク評価:潜在的な危険能力やモデルの脆弱性を評価。

  2. 現在の被害:AIがもたらす社会的、法的リスクの実態を検証。

  3. 安全性フレームワーク:リスク管理のための具体的な手法と基準。

  4. 存在的リスク対策:人類存続に関わるAIリスクへの対策。

  5. ガバナンスと責任追及:組織構造と透明性。

  6. 透明性とコミュニケーション:安全性対策情報の開示状況。

各評価基準には42の詳細指標が設定され、これに基づきA(最優秀)からF(最低)のグレードで判定されました。


主要6社の評価結果

総合評価

  • Anthropic: C(スコア2.13)

  • Google DeepMind: D+(スコア1.55)

  • OpenAI: D+(スコア1.32)

  • Zhipu AI: D(スコア1.11)

  • x.AI: D-(スコア0.75)

  • Meta: F(スコア0.65)

主要な課題

  • 全社が「人間の制御下にある高度なAI開発」に関する戦略を欠いている。

  • 多くの企業が、利益追求のために安全基準を犠牲にしている傾向が見られる。


評価項目ごとの詳細

1. リスク評価

Anthropicが「C+」で最高評価を得たものの、全体的に十分なリスク評価が実施されていません。x.AIとZhipu AIは、リスク評価に関する公表データが極めて少ないため「F」に近い評価となりました。

2. 現在の被害

Anthropic(B-)とGoogle DeepMind(C+)が比較的良好な評価を受けましたが、Metaはモデルの安全性が低く、重大な社会的リスクをもたらしている点が指摘されました。

3. 安全性フレームワーク

OpenAI、Google DeepMind、Anthropicのみがフレームワークを公表しており、Anthropicが「D+」で最高評価となりました。他社は「未策定または公表なし」とされ、信頼性が低いと評価されています。

4. 存在的リスク対策

全社が「不十分」と評価されました。特にMetaとx.AIは、存在的リスク対策について公表された戦略が全くないと批判されました。

5. ガバナンスと責任追及

Anthropicが「C+」と最も良い評価を受けた一方で、x.AIとMetaは「D-」以下であり、ガバナンスの透明性が低いとされています。

6. 透明性とコミュニケーション

全体的に透明性の欠如が目立ちます。Anthropicが第三者機関と協力して透明性を確保しようとしている点は評価されましたが、Metaは「F」の評価を受け、情報開示において最も悪いとされました。


ケーススタディ:Anthropicの安全性向上策

Anthropicは、「Responsible Scaling Policy」という独自の安全性基準を設けています。例えば、化学兵器やバイオリスクに関連する能力を持つモデルの開発を制限し、透明性の高い評価手法を採用しています。

また、UKおよびUSのAI安全機関と協力し、モデルの事前テストを実施。これにより、外部からの客観的評価を受ける体制を構築しています。


まとめ:今後の課題と展望

この報告書は、AI企業が依然として安全性を犠牲にして利益を追求する傾向があることを浮き彫りにしました。特に、以下の点が喫緊の課題とされています。

  • 透明性の向上:第三者評価と情報開示の徹底。

  • フレームワークの強化:存在的リスクを包括的にカバーする戦略の策定。

  • 利益と安全のバランス:企業文化の見直し。

FLIは今後も定期的な評価を行い、AI業界全体の安全性向上を目指すとしています。

参考リンク


今日もお読み頂き、誠にありがとうございました🥰

いいなと思ったら応援しよう!

りょぶん🎈
よろしければサポートお願いします😊いただいたサポートは文鳥の記事であれば豆苗🥬に、その他は資格の本の費用📖に使わせていただきます🙇‍♂️