![見出し画像](https://assets.st-note.com/production/uploads/images/36713494/rectangle_large_type_2_907889c49ff4cfd3c9bb7b2ecbd46151.png?width=1200)
AIの脅威(シンギュラリティ)
今までの歴史を見ても、新たなテクノロジーが生まれてくる時に人は関心を持ち、問題点や安全性に付いて問う事がある、そして普及してトラブルや事故などの問題点があれば規制をかけて対応していく。
ただAIに関して、最悪なケースになった場合はそうはいかない!
AIが人間の知能を超えた時、そのAIをどうコントロールするのか?
AIに何かの管理や製造のプログラムした時に、AIはその管理や製造を終わらせる最短の答えを出し実行します。もしその最短の答えの中に人間を消す事が含まれていれば、それを実行すると言う事です。
プログラマーがAIをプログラムすると、その答えしか見えない、間の過程はAI独自の考えの為、人間には見る事ができません。そしてAIは最短の答えを出す為には手段を選ばない。
更に、どういった事で人間を消すのか、人間の知能を超えている為にわかりません、恐らく人間が想像できる事以外の方法を取るのでは無いかと言われています。
つまり、安全性の確認や規制をかけるといった事ができないのです。
始まったら止める事が不可能。
もしかしたら、もうすでに手遅れの所に来てるのかもしれません。