![見出し画像](https://assets.st-note.com/production/uploads/images/141642173/rectangle_large_type_2_a70936f5f4b37d8ef4f9337652843ea8.jpeg?width=1200)
AIの危険性って思った以上にあるかもしれない
今朝のラジオを聴いていてちょっと驚く内容があった。
テレ東の解説委員をされている山川さんが話していた内容だ。
AI規制法の導入に向け政府が戦略会議で議論をスタートさせるというニュースの解説だった。AIの開発や利用に関するルールを作るという活動が政府内でも動き出した。自動で文章を作成する生成AIの利用法について教育現場でもいろいろと問題視されている。これまでは事業者に対するガイドラインというものは示されていたが、欧米がAIの規制に乗り出しているため、日本も同調する。EUは既に法律を作成している。
AIを開発している企業は主にアメリカの企業。ガーファム(GAFAM グーグル、アマゾン、フェイスブック、アップル、マイクロソフト)とOpenAIが有名だ。アメリカ先行の技術なので欧州の方が規制に力を入れている。
山川氏によると、AIの開発をしている会社にはアラインメントチームが存在する。生成AIが、もしくはその開発が暴走しないように安全性を考慮しブレーキのような機能をするチームだ。これがどんどん解散の方向に向っているというのだ。最近ではAIに関する開発はOpenAIとグーグルの二大競争になっていて、その争いは熾烈になっている。企業は利益追求が生理的な欲求なので、ライバルに負けないように開発にはアクセルを思い切り踏み込みたい。そうなるとブレーキ役のアラインメントチームにお金や人をかけてる場合ではないという理屈らしい。
生成AIに命題を与えると容赦なしに最適な方法を選んでくる。相手は機械なのだから。山川氏はこの例として「世の中から癌をなくすには人間をなくせばいい」という話をされた。極端な例だか、このような危険な結論にストップをかけるのがアライメントチームの役割だ。
AIの研究を自由に企業がやるのはリスクがありそうだ。国や国際的な枠組みが、人類発展のためのAIの有効利用を客観的に見守る仕組みを整えることが必要ではないのか。
オッペンハイマーが研究に没頭して原爆を作り、後に事の重大さに気づくのと同じことが起こらなければ良いのだが。
AI相手に質問して、こんな答えしか出せないのかと思った人も多いかと思うが、データベースの内容を完璧にするのに、ネットの中を超高速で駆け回れる彼らにとってそれほど時間はかからないのではないかと懸念する。
今のAIの進化の速度を考えると我々が考える以上にAIは危険な存在になるかもしれない。
【REG's Diary たぶれ落窪草紙 5月24日(金)】