見出し画像

人類は絶滅するのか?

夜の灯りクリニックのヨルです。
今夜は人類は絶滅するのかについて考えてみたいと思います。

どうしてそんなことを考えてみたいの?馬鹿なの?死ぬの?と思われる方もいらっしゃると思いますが、文明が進むにつれて人類の絶滅リスクが高まっていることは確かです。

例えば、こういう話があります。
最近のAI界隈では大規模言語モデル(LLM)の隆盛が観察されていますが、これを受けて2023年5月30日にアメリカの非営利団体Center for AI Safety (CAIS) から一行の声明文が提起されました。

Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war.
AIによる絶滅リスクを軽減することは、パンデミックや核戦争などの他の社会的規模のリスクと並び、グローバルな優先事項であるべきだ。

Center for AI Safety

この一行の声明文に対して、ChatGPTをローンチしたOpenAIのサム・アルトマン最高経営責任者(CEO)や、Google DeepMindのデミス・ハサビスCEOなど、AI分野で活躍する著名な経営者や専門家が多数署名しています。

CAISによると、AIによる人類絶滅リスクは以下のように分類されます。

Weaponization 兵器化
Enfeeblement 弱体化
Eroded Epistemics 経験則の侵食
Proxy misspecification 目標の誤設定
Value Lock-in 価値観の固定化
Emergent functionality 予期しない機能の獲得
Deception 欺瞞
Power-Seeking Behavior 力を求める行動

概念的過ぎる文字の羅列になってしまいましたが、一行に要約すると、AIが強くなる一方で人類が弱くなることが人類絶滅リスクであるということになります。
ご興味のある方はCAISの原著論文をご参照下さい。

パンデミックが発生した時や核兵器が誕生した時と同じように、人類が新しい絶滅リスクに曝されているということは確からしくみえます。

はたして人類が絶滅する日は来るのでしょうか。人類はAIが生み出した生物化学兵器によって死に絶え、地球はAI同士が争い合う核戦争によって崩壊してしまうのでしょうか。。。

しかし起きてもいないリスクを恐怖していても何も始まりません。
次回は「人類は絶滅するのか」という問いをもう少し俯瞰的に捉えてみたいと思います。

次回予告「人類は絶滅しないのか?」


いいなと思ったら応援しよう!

この記事が参加している募集