ChatGPTも機能を追求するだけでなく ガバナンスを強化する時代に突入した
ChatGPTを含むAIの進歩は凄まじいものがありますね。毎日のように新しい情報が報じられています。
この素晴らしい技術については新機能の部分の発表に目を奪われがちですが、ガバナンスについてきちんと考える時代に早くも突入したと思います。
Sam Altmanも今回このような記事を公開していますので、皆さんもぜひ一緒に考えてみて下さい。
ガバナンスって何?
そもそもガバナンスって時々聞くけどなんなんでしょうか?
皆さんわかりますか?
まずは、この記事で出てくる2つのキーワード「ガバナンス」と「超知能」について軽く勉強しておきましょう。
ガバナンス
ちょっと硬いですね。ChatGPTに小学校レベルでもわかる様な説明に変えてもらいました。
超知能
こちらもChatGPTに小学校レベルでもわかる様な説明に変えてもらいました。
どうですか?「ガバナンス」と「超知能」についてなんとなくわかりましたか?
それでは早速内容に入っていきましょう。
このnoteは以下のサイトを日本語にして一部コメントを追加したものです。
情報が更新される可能性がありますので最新の情報は以下のリンク先を参照して下さい。
Governance of superintelligence
https://openai.com/blog/governance-of-superintelligence
超知能のガバナンスについて
今こそ、AGIを凌ぐ性能を持つ未来のAIシステムである超知能のガバナンスについて考え始める良い機会です。
May 22, 2023時点での記事となっています
Authors
AI の責任、安全性と整合性
今後10年以内に、AIシステムがほとんどの領域で専門家のスキルを超え、現在の大企業と同等の生産活動を行うようになる可能性があります。
超知能は、そのメリットとデメリットの両面から、人類が過去に直面した他のテクノロジーよりも強力なものになるでしょう。私たちは、より豊かな未来を実現できますが、そのためにはリスクを管理しなければなりません。実存的なリスクの可能性を考えると、私たちはただ反応するだけではいけません。このような性質を持つ技術としては、原子力発電が歴史的な例としてよく知られていますが、合成生物学もその一つです。
現在のAI技術もリスクを軽減しなければなりませんが、超知能は特別な扱いと調整が必要でしょう。
出発点
この開発を成功裏に進めるために重要なアイデアはたくさんあります。以下では、そのうちの3つについての私たちの最初の考えを示します。
まず、超知能の開発が安全性を維持し、これらのシステムが社会と円滑に統合されるようにするために、主導的な開発間である程度の調整が必要です。これを実装する方法は多くあります。世界の主要な政府がプロジェクトを立ち上げ、現在の多くの取り組みがその一部となるようにすることもできますし、フロンティアにおけるAI能力の成長速度を年間一定の割合に制限することを(以下に提案するような新しい組織のバックアップ力を得て)集団で合意することも可能です。
もちろん、個々の企業には、極めて高い責任ある行動が求められるはずです。
次に、私たちは最終的には、超知能の努力に対する何かしらのIAEAのようなものが必要になる可能性があります。一定の能力(または計算リソース)のしきい値を超える任意の努力は、システムを検査し、監査を要求し、安全基準の遵守をテストし、デプロイメントの程度やセキュリティレベルの制限を設けるなど、国際的な権限の対象となる必要があります。計算とエネルギー使用の追跡は大きな助けとなり、このアイデアが実際に実装可能であるという希望を私たちに与えるでしょう。第一歩として、企業は自発的に、このような機関がいつか要求するであろう要素の実装を開始することに同意することができます。そして第二のステップとして、個々の国がそれを実装することができます。このような機関が存在的なリスクを減らすことに焦点を当て、AIが何を言ってよいかを定義するなど、個々の国に委ねるべき問題ではない問題に関与することが重要です。
第三に、超知能を安全なものにするための技術的能力が必要である。これは現在の研究課題であり、私たちや他の研究者が力を入れているところです。
スコープ外
私たちは、企業やオープンソースプロジェクトが、ここで説明するような規制(ライセンスや監査のような負担の大きいメカニズムを含む)を受けずに、重要な能力の閾値以下のモデルを開発することを認めることが重要だと考えています。
今日のシステムは世界に大きな価値を生み出し、リスクを抱えているとは言え、それらのリスクのレベルは他のインターネット技術と見合ったものであり、社会の適切なアプローチに合致していると感じられます。
一方、私たちが懸念しているシステムは、これまでに作られたどの技術よりも強力な力を持ちます。この基準を大幅に下回るテクノロジーに同様の基準を適用することで、焦点がそこから逸れることには注意を払うべきです。
公共の意見と潜在力
しかし、最も強力なシステムのガバナンスや、その配備に関する決定には、強力な公的監視が必要です。私たちは、世界中の人々がAIシステムの境界とデフォルトを民主的に決めるべきだと考えています。そのような仕組みをどのように設計するかはまだ分かりませんが、その開発に向けて実験していく予定です。私たちは、このような広い範囲の中で、個々のユーザーが、自分たちが使うAIがどのように振る舞うかについて、多くのコントロールができるようにすべきだと考え続けています。
リスクや難しさを考えると、なぜ私たちがこの技術を構築しているのか、考える価値があると思います。
OpenAIでは、その理由が二つあります。まず、今日我々が想像できるものよりもずっと良い世界を築くことにつながると信じています(既に教育、クリエイティブな仕事、個人の生産性などの分野で初期の例を見ています)。世界は解決するためにはもっと多くの助けが必要な問題を抱えています。この技術は我々の社会を改善し、新しいツールを使う全ての人の創造力は間違いなく私たちを驚かせるでしょう。経済成長と生活の質の向上は驚異的です。
二つ目に、超知能の創造を止めることは直感的にはリスクが高く、困難であると信じています。その利点が非常に大きいため、それを構築するコストは毎年減少し、それを構築する行為者の数は急速に増えており、それは我々が進んでいる技術的なパスの一部であるからです。それを止めるには、何かしらのグローバルな監視体制が必要になりますが、それさえ保証されているわけではありません。だからこそ、私たちは正しく行わなければなりません。
まとめ
ChatGPTを日常生活のさまざまな面で活用することで、多くの助けとなることでしょう。ただし、機能や使いやすさだけを追求するだけでなくガバナンスを強化していくことを忘れないでください。
この素晴らしい技術と共存していくためにはガバナンスについて考えることは重要です。
終わりに
本noteをご覧いただきありがとうございます!
今後ChatGPTに関する情報を受け取りたい方は公式LINEにご登録いただくと定期的に情報を受け取ることができます。
もしご興味がありましたら以下から登録をお願いします。
◉情報受け取り用公式LINE⬇︎
< https://lin.ee/F3fGixV >
こちらを参考に皆さんがAIと少しでも仲良くなれることを願っております。
この記事が気に入ったらサポートをしてみませんか?