見出し画像

超知能がぬるっと誕生する可能性に実感が湧かない

正直なところo1までは超知能の実現をまだあまり実感していなかった。しかし、oシリーズの進歩の速さとその性能飛躍の大きさに現実感が逆に今なくなっている。これは現実に起こっていることなのだろうか、と。

下手をしたら来年か再来年には人間のトップAI研究者に比肩するAIシステムが開発される可能性もあるのではないか・・・?と。

もうすぐ人間のできる殆どの認知タスクを凌駕するAIシステムが誕生するというのは文化的には何十年も前から語られていたことだし、今年の2024年6月に公開されたLeopold Aschennbrener氏のエッセイを読めば2027年末までにはAGIが開発される可能性があることは理解できた。

しかし、2024年の12月半ばに入って、o3が発表された時、少し目を疑った。o3がo1と比較していっきにおよそ人口換算100倍の能力をcodeforcesで会得したのだ。


CodeforcesのEloのoシリーズの伸び


おそらくo1世代まではcode forcesのratingは1891~2000の間と仮定すればおよそ参加者の数十人に一人のratingということになる。しかしいきなりo3は2727という2000人に1人レベルのratingを記録した。つまり数十人に一人の能力が数千人に一人の能力と一気に100倍の飛躍を見せたのだ。

もちろんこれはcodeforcesという狭い領域に限った話であり、他の多様な知能の向上がどの程度なのかは検証の余地があるだろう。

しかし、冷静に考えてoシリーズが世代毎(6ヶ月毎)に100倍の賢さ(codeforcesのratingを参照したざっくりした意味)になるとしたら、

2024年6月末o1が1/20
2024年12月末o3が1/2000
2025年6月末にo4が1/20万
2025年12月末にo5が1/2000万

となる。…やばくないか。

保守的に見た場合の補正項として例えば創造性/長期計画/エージェント性のために上記人口比に1/1000をかけても2万人に1人の賢さ※のAIシステムが来年末までには誕生する可能性がある。

※この記事でいう賢さは厳密な意味では使ってはおらず、ムードを感じてもらうための暫定的な単語である。

そして

2026年6月末までにo6が1/20億
2026年12月末までにo7が1/2000億

保守的にみても2027年末までにはどんな人類よりも賢いAIシステムが登場する可能性がこの直線を信じるとしたら出てくる。

o3が出て、xで話題になるだけで世界は殆ど日常の風景を崩してないところをみると人類史が変わる嵐の前の静けさを感じる。

何十年も前世紀から議論されてきた人間より賢い存在の誕生があっさりと最近のトレンドをすっと伸ばすと見えてきてしまうことが、あまりにも実感がない。

この「ムード」が本当ならば、AI Safety/安全保障/他あらゆるリスクが急上昇することになるだろう。

もちろんメリットも史上計り知れないレベルだが大きなメリットのある技術には大きなデメリットも出てくるのが常だろう。

AIをコントロールするためのSafeguardedAIプロジェクト等がOpenAI/Anthropicと連携できればいいが、国家安全保障上開発を緩めることが難しくなる場合もあり、本気で懸念が増してくる。

最近デデデデというアニメを見たが、そのアニメのようにいつの間にやらUFO(超知能)が上空にいる世界が日常になるのかもしれない。あまりにもぬるっとしすぎていて困惑する毎日だ。あまりにも奇妙なリアリズムに苛まれている。

一方ではレイカーツワイルやDario Amodeiの最近投稿したMachines of
Loving Graceのようなユートピア的な世界が待ち受けているかもしれない。

他方ではAIの制御に失敗して世界は6回目の大量絶滅を起こすかもしれない。その大量絶滅は光円錐上の全ての空間にわたる史上類を見ない宇宙規模の位相変化のようになるかもしれない。

そのどちらでもないある程度人間や他の生命体も共存できるようなデジタルネイチャーのようなカオスな世界になるかもしれない。

ユートピアか宇宙的絶滅かはたまた別様の可能性か

私たちに待ち受けているのはどんな世界なのだろうか。いずれにしても今までの世界が大きく変化する可能性は数字の上では高くなっている気がしている。

その数字を実感できるか、信じるか、外挿を妥当と見るか、定義を精緻にするという話とは別だが、そんな奇妙な時代に生まれていることに眩暈がする。

そして本当かどうかは別としてこの手の話を真剣にもう捉える必要を感じる。例えば、高度なAIが出てきた場合の政府の対応としてどのようなものが望ましいか?真剣に議論しなくてはいけない。

例えば以下の元OpenAIのガバナンス研究者のMiles Brundage氏の投稿(重みのセキュリティを高くしないといけないなど)参考になるかもしれない。


いいなと思ったら応援しよう!