AIのリスクは考えなくて良い
AIの危険性について警鐘を鳴らす記事は多い。AIが氾濫を起こすだとか、人間の職を奪うだとか、枚挙にいとまがない。
だが、もう考えなくて良い。なぜなら、AIを禁止にはできないからだ。
法律で禁止したとしても、小型のLLMも高性能になってきたことだし、必ずどこかの誰かが作ってしまう。もう人類は一度思いついたことを撤回はできない。
百歩譲って法律で禁止できたとしよう、だが今度は国が作ってしまう。国に守らなければならない法律はないため、他国が先に作る前に作る必要がある。
原爆をアメリカが作った時も、先にドイツが作るかもしれないという状況の中作られてしまった。
量子コンピューティングも、先に作られてしまったら暗号という暗号がすべて一瞬のうちに解読されてしまうので、速攻自国をぶっ壊されてしまう。先に他国が作ったらやばいため躍起になって各国が作っている。
人間は好奇心という諸刃の剣を持った生物で、この好奇心は抑止できない。蒸気機関も作ってしまったし原爆も作ってしまった。政治でも道徳でも阻止できなかった。
これは、良いとか悪いとか考えるだけ無駄だ。抑止できない人類の機能なのだから。
量子コンピューティングも、核融合も、AIによるシンギュラリティもきっと起こるだろう。
大型加速器でぶつけ合う粒子のエネルギーもどんどん大きくなっていく(かもしれない)。今後実験の最中にブラックホールができちゃうかもしれないが、これだって抑止できない。※注1
人類はブラックホールを作った瞬間、スパゲッティの様にうにょ~んと伸びて、明かりを消すようにふっと絶滅する。※注2
「人間は好奇心を抑止できない」ということを公理にすえれば、
ブラックホールを作って絶滅するのが人間であり、作らず絶滅しないのであれば人間ではないと言える。
僕も2児の父だが、同時に人類の一人なので、家族全員でスパゲッティになる覚悟はできている。
※注1 実際にCERNの実験を、ブラックホールができちゃうかもしれないから裁判で止めようとしたこともある。これは失敗している。また、実際はブラックホールは大きくなる前に蒸発して消えてしまう可能性が高い。
※注2 絶滅するとは限らない。ブラックホールの中がどうなっているかは不明だ。