超知性AIのガバナンス:未来を見据えた行動
5月22日付のサム・アルトマン氏のブログの内容について記事にします。
超知性AIの可能性とリスク
今後10年以内に、AIシステムが専門家のスキルレベルを超え、大企業と同等の生産活動を行う可能性があるとOpenAIは見ています。超知性AIは、人類が過去に対処した他の技術よりも強力な可能性とリスクを持っています。私たちはより豊かな未来を手に入れることができますが、そのためにはリスクを管理する必要があります。
超知性AIの開発と調整
超知性AIの開発は、安全性を維持し、これらのシステムを社会にスムーズに統合するために、主要な開発努力間での一定の調整を必要とします。これは、世界中の主要な政府がプロジェクトを設立し、現在の努力がその一部となるようにするか、新たな組織の支援力を背景に、AI能力の成長率を年間一定の割合に制限することで実現できます。
超知性AIの安全性
超知性AIを安全にするための技術的な能力が必要です。これはOpenAIなどが多大な努力を注いでいる未解決の研究課題です。超知性AIの創造を停止することは、直感に反してリスキーで困難であると指摘されています。そのため、「それを正しく行う必要がある」という考え方が強調されています。
超知性(Superintelligence)とは?
今回のサム・アルトマン氏の執筆は超知性(Superintelligence)についてでした。この超知性(Superintelligence)についてChatGPTに聞いてみたところこんな回答が得られました。
ChatGPTが超知性に進化する?
ChatGPTにこの様に質問してみました。「サム・アルトマン氏はGPT-5, 6, 7と進んでいくと語っていました。あなたのヴァージョンアップがやがてSuperintelligenceになるのでしょうか?」
ChatGPT返答: