
AIの活用を誤れば人類滅亡の危機が訪れる。SFの世界の話ではない!
テクノロジーの悲惨な末路という意味で過去の歴史を遡れば原爆の開発が真っ先に浮かぶのではありませんか?広島や長崎に原爆を落とされた日本としては現在のロシア・ウクライナ戦争において核兵器が使われるのではないかと強く脅威を感じています。
それと同じことがこの人工知能(AI)の進化に当てはまるのではないかと非常に懸念している今日この頃です。AIの進化は日進月歩どころが、時間単位で進化しています。私自身もそれについて行くだけでほんとうに大変な思いをしています。
ところで、あなたはシングラリティーという言葉を聞いたことがあると思いますが、ご存じでしたでしょう?ほんとうに近い将来に確実に起こります。
シングラリティ(Singularity)とは、
技術の進化がある点で非常に急速になり、人類の理解や予測を超える瞬間や段階を指す概念です。特に、人工知能やコンピュータ技術の進歩に関連して使われることが多いです。
具体的には、シングラリティが訪れると、人工知能が自らを改良する能力を持ち、その改良のスピードが非常に速くなるとされています。その結果、技術の進化が加速度的に進行し、人間の理解を超える可能性があると言われています。
この概念は、未来の技術的な展望や人工知能の影響についての議論の中でよく取り上げられます。一部の人々は、シングラリティが人類にとって大きな脅威となる可能性があると懸念していますが、他の人々はそれを楽観的に捉え、新しい技術的な可能性や機会をもたらすものと考えています。
現在は人類にとって、明暗を分ける岐路たっているのではないでしょうか?。転換点にかけての人類の行動が、強力なテクノロジーを最良な手段とするか、最悪な方向に暗転させる地雷とするかを決めると思っています。
人類の英知がどちらに転ぶかにかかっています。
同じことが遺伝子ゲノム編集のテクノロジーにも言えます。ゲノム編集技術で、人間の能力を拡張したり、理想的な人間を生み出したりすることに優位性を求め、もしくは何かしらの理由でそうせざるを得なくなり、歯止めが利かなくなったときが怖い。
今は亡き英国の理論物理学者であるスティーヴン・ホーキンス博士は生前、人工知能(AI)の脅威について人類に警告していたことを思い出しました。
彼の警告は、現代の技術進化に対する深い洞察を持つものであり、私たちにとって大きな示唆を与えています。