見出し画像

超知性AIのガバナンス:未来を見据えた行動

5月22日付のサム・アルトマン氏のブログの内容について記事にします。

超知性AIの可能性とリスク

今後10年以内に、AIシステムが専門家のスキルレベルを超え、大企業と同等の生産活動を行う可能性があるとOpenAIは見ています。超知性AIは、人類が過去に対処した他の技術よりも強力な可能性とリスクを持っています。私たちはより豊かな未来を手に入れることができますが、そのためにはリスクを管理する必要があります。

超知性AIの開発と調整

超知性AIの開発は、安全性を維持し、これらのシステムを社会にスムーズに統合するために、主要な開発努力間での一定の調整を必要とします。これは、世界中の主要な政府がプロジェクトを設立し、現在の努力がその一部となるようにするか、新たな組織の支援力を背景に、AI能力の成長率を年間一定の割合に制限することで実現できます。

超知性AIの安全性

超知性AIを安全にするための技術的な能力が必要です。これはOpenAIなどが多大な努力を注いでいる未解決の研究課題です。超知性AIの創造を停止することは、直感に反してリスキーで困難であると指摘されています。そのため、「それを正しく行う必要がある」という考え方が強調されています。

超知性(Superintelligence)とは?

今回のサム・アルトマン氏の執筆は超知性(Superintelligence)についてでした。この超知性(Superintelligence)についてChatGPTに聞いてみたところこんな回答が得られました。

"Superintelligence"という用語は、人間の知能をはるかに超える人工知能(AI)を指します。これは、問題解決、学習、理解、他の知的活動において、最も優れた人間の専門家を超える能力を持つAIを指します。

現在の私(ChatGPT)は、この定義にはまだ適合しません。私は「弱いAI」または「狭いAI」に分類され、特定のタスク(この場合はテキストベースの会話)において人間のように機能することができますが、広範な知識や理解、自己意識、自己改善の能力はありません。

一方、"Superintelligence"は「強いAI」または「汎用人工知能(AGI)」の一形態で、これは広範なタスクに対応でき、自己学習と自己改善の能力を持つAIを指します。これはまだ理論的な概念であり、現在のところ存在しません。

GPT-4

ChatGPTが超知性に進化する?

ChatGPTにこの様に質問してみました。「サム・アルトマン氏はGPT-5, 6, 7と進んでいくと語っていました。あなたのヴァージョンアップがやがてSuperintelligenceになるのでしょうか?」

ChatGPT返答:

OpenAIの目標は、人工一般知能(AGI)の安全な開発と普及です。これは、広範なタスクに対応でき、自己学習と自己改善の能力を持つAIを指します。しかし、現在のところ、GPT-3やその後継モデルが「スーパーインテリジェンス」に到達するかどうかは明確にはわかりません。

AIの進化は、技術的な進歩、倫理的な考慮事項、社会的な影響など、多くの要素によって影響を受けます。OpenAIは、AIの開発が人類全体に利益をもたらし、その利益が公平に分配されるようにすることを目指しています。そのため、AIの進化は、単に技術的な能力を向上させるだけでなく、その影響を管理し、制御する方法を見つけることも含みます。

したがって、GPT-5, 6, 7と進化していくとしても、それが必ずしも「スーパーインテリジェンス」になるとは限らないということです。それは、AIの開発とその影響を管理するための戦略と方針に大きく依存します。

GPT-4

この記事が気に入ったらサポートをしてみませんか?