見出し画像

安心して利用できる生成AIに向けた動き

生成AIの活用が進んでいく中で、AIがビジネス、政治、生活や生命といった私たちの生活の中で関与度合があがり、今後さらに深く関わってくることになることが想定されます。

AI開発をリードしているITベンダーを中心に様々な動きが出ておりますが、この中で代表的な動きをご紹介したいと思います。


主要ベンダーの代表的な動き

AIの開発をリードしているグーグル、マイクロソフトやオープンAIにおいて安全なAI開発をすること目的とした「Frontier Model Forum」という業界団体を設立しました。
現時点の主要な取り組みとしては、以下の4つになります。

  1. フロンティアモデルの責任ある開発を促進し、潜在的なリスクを最小化するAI安全性研究の促進

  2. フロンティアモデルの安全性ベストプラクティスの特定

  3. 責任あるAI開発のための政策立案者、学術関係者、市民社会などとの知識の共有

  4. 気候変動の緩和と適応、がんの早期発見、サイバー脅威との闘いなど、社会課題に対処するためのAI活用の取り組みの支援

この3社が中心になわることになると思いますが、協創できる部分については様々な企業に参加いただいて安全なAIの開発・活用が浸透する世の中になってほしいものです。

業界団体の設立もありますが、各社それぞれにおいてもAIの取り扱いについて検討整理が進んでいます。日本においてもNTTデータやNECなどにおいて倫理的な部分の整備を進めていますが、ユーザー企業側においても今後AIの活用についても整備されていくのではないかと思われます。
セールスフォースにおいては、生成AIの導入を優先事項と考えている一方で、データセキュリティや情報の偏り等によるリスクに対する懸念を持っていました。その中で生成AIに関する利用を明確にさせるためのフレームワークの整備に取り組み、実務レベルでの落とし込みを進めています。
すぐには整備は難しいと思いますが、実務レベルまで進んだフレームワークやガイドラインが出てくることを楽しみにしています。

技術的な取り組み

ニューラルネットワーク、機械学習や深層学習など現在主要になっているAIのエンジンは学習によって処理が決められており、どのような判断・処理がされてこのような結果が導き出されたかということが説明できなくなってきています。
すべてが不透明なわけではなく、一部説明可能な単純なアルゴリズムによって高い精度を持った結果を手に入れることができます。そのため、複雑な処理が必要な部分についてはブラックボックスで許容しつつ、説明が求められそうな処理については単純な処理の組み合わせによるホワイトボックス化という2軸の考えでAIの開発を進めていくのも1つのやり方だと思います。

今回は、業界の取り組みや技術についてご紹介しましたが、様々な枠をこえた形でいろいろな観点で安全にAIが活用できるような取り組みが進んでいくと思います。AIはすぐれた道具でありますが、一報でナイフのような取り扱いを間違えれば大きな問題を発生させます。私も含めてAIについての取り扱いは気を付けながら行うべきではないかと思います。

この記事が気に入ったらサポートをしてみませんか?