AIのノーベル賞受賞に考える、新技術利用への倫理観の反映方法
【今日のポイント】
2024年のノーベル物理学賞と化学賞をみても、AIが科学技術とその利用に及ぼす影響の大きさを改めて感じますね。
それだけに、AIの発達に人間側が悪用の防止などの利用面で追いつかないリスクも増大していることが、受賞者自身の言葉からも窺えますが、
この課題への対応として、AI自体の安全性向上の取り組みに関する情報収集も重要と考える次第です。
1.2024年のノーベル物理学賞と化学賞におけるAIの貢献
既に多くのニュース等でも皆さんがご存知のとおり、今年2024年のノーベル物理学賞は、「人工ニューラルネットワークによる機械学習を可能にした基礎的発見と発明に対する業績」の功績で、プリンストン大学のジョン・ホップフィールド氏とトロント大学のジェフリー・ヒントン氏に、
化学賞は、「コンピューターを用いたタンパク質の構造予測」の功績で、英国Google DeepMindのデミス・ハサビス氏とジョン・ジャンパー氏に、
「コンピューターを用いたタンパク質の設計」の功績で米ワシントン大学のベイカー教授に、授与されました。
物理学賞、化学賞とも、AIなどのコンピュータサイエンスを利用した研究結果が評価されたものであり、
これも、以下の(一社)日本物理学会の記事など、多くの解説記事で語られているように、AIの進化が、それらの技術の新たな利用方法の構築を促し、現在の技術発展と実用化を促進している様子が窺えると改めて感じる次第です。
『2024年ノーベル物理学賞は、「人工ニューラルネットワークによる機械学習を可能にした基礎的発見と発明に対する業績」によりJohn J. Hopfield 氏(プリンストン大学、アメリカ)、Geoffrey E. Hinton 氏(トロント大学、カナダ)の2氏が受賞することに決定。』
2024/10/8公開(2024/10/10に解説追加)の、一般社団法人 日本物理学会(https://www.jps.or.jp/)の記事。
https://www.jps.or.jp/information/2024/10/2024novelprize.php
2.物理学賞受賞者が鳴らす警鐘と近年の軍事利用等への懸念
私が述べるまでもなく、AIの進化とその利用の広がりのスピードと勢いは凄まじいものがありますが、
上記の日本物理学会の記事の最後の一節や、以下の記事などでも、
AIの急速な発展に、私達人間の適切な利用スキル(ユーザーリテラシー)や、開発の方向性に関する法規制も含めた対応が追いつかないリスクも、目にする機会が増えていますね。
『ノーベル物理学賞のジェフリー・ヒントン博士が警鐘「数年後、私たちはAIに負ける」』
2024/10/15の、MAG2NEWS(https://www.mag2.com/p/news/)に掲載されている辻野晃一郎氏の記事。
https://www.mag2.com/p/news/625102
ディープフェイクやハッキングなどのサイバーセキュリティ面の犯罪や、軍事面での利用、
更にAIとIoTや監視カメラ、ウェアラブルデバイスなどの組み合わせによるプライバシーの問題など、
AIの発展が、新たな問題の発生や、従来からある問題の深刻化を招いていると考えている方も多いのではないかと思います。
3.AIへの倫理観機能搭載の可能性と、私達自身のユーザーリテラシー向上
前回の、『「ブラックマーケティング」を読んでー脳科学とマーケティングの出会いからの示唆』でお伝えした、脳科学のマーケティングへの適用における負の側面への対応と同じく、
科学技術の発展とその実用化の進展に対して、使う側の私達のユーザーリテラシーの向上は必要不可欠ですが、
個人レベルでの情報収集面も含めた限界や、法規制など行政面での対応のスピードなども考えると、
「ニューラルネットワークの研究の様に、人間の脳や心理などの分析研究結果を利用して、AIに倫理観を持たせる研究開発が進む」事も予想できるのではないかと思います。
ジェフリー・ヒントン博士の警告や同氏のGoogleからの退社からは、改めてフランケンシュタイン博士の小説を思い出すとともに、
人のユーザーリテラシーの進歩の速度を超えてAIが進化する怖さを感じますが、
この課題に対応するためには、AI自体に倫理観を持たせる様な研究開発も、人の価値判断などに関する研究ともに進める必要があるのではと感じます。
「説明可能AI(AIの予測・認識等の判断の根拠が説明できるAI)」の必要性が注目され、以下の総務省の報告書などでも取り上げられていますが、
AIの判断や推論の根拠の透明性や、エッジAIなどによるプライバシー保護と並んで、AI自体がある主の倫理観を持つ方向の開発ニーズも今後高まるのではないかと感じています。
『報告書 2022~「安心・安全で信頼性のあるAIの社会実装」の更なる推進~』
2022/7/25の総務省 AIネットワーク社会推進会議の報告書。
https://www.soumu.go.jp/main_content/000826703.pdf
ただし人間でも、この「倫理観」自体も、時代や地域、文化、置かれた立場などにより変わるものではありますので、
社会学や心理学などの人文学の分野も含めて慎重な検討が必要かとは思いますが、
機械の安全性がフェールセーフや予知保全など、時代に合わせて進歩してきたように、AIの安全性の発展も、人がコントロールする部分と、AI自身がコントロールする部分の双方で更にスピードアップすることに期待するとともに、
ユーザー側の私達も、この分野の情報収集は今後も続けていかなくてはと、自戒も込めて考える次第です。
なお、この人文科学や社会科学と技術進歩の関係については、以下の本ブログトピックスもご参考になれば幸いです。
『今後の技術開発予測に考える、人文科学・社会科学の重要性』
【今日のまとめ】
最後までお読み頂き、有難うございます(*^^*)!
コメント、ご質問お待ちしております(^o^)!
#AI #ノーベル賞 #説明可能AI #人文知の重要性 #AIの安全性
見出し画像:Gerd AltmannによるPixabayからの画像