2024年の人工知能学会:期待する進展と議論
2024年の人工知能学会では、AIが社会に実装された際に起こり得る社会・人間への影響や倫理的・法的・社会的課題(ELSI)についての議論が活発に行われました。AI技術は、人間の知的作業を代行する可能性を広げ、社会における人間の役割を変え、働き方やモチベーションに影響を及ぼすとともに、社会の仕組み・在り方も変貌させる可能性を持っています。
AIによる効率化・最適化や人間の負荷軽減は大きなベネフィットですが、反面、AIによるタスク代替は人間の役割や心理に急激な変化をもたらし、ネガティブインパクトも生む可能性があります。これがAIのELSIとして論じられています。その代表的なものとして、以下のような問題が挙げられます。
安全性・信頼性の懸念:AIシステムの動作保証や精度保証が難しいこと、結果についての理由説明がされないこと(ブラックボックス問題)、偏見・差別を含んだ学習をしてしまうこと(バイアス問題)、AI特有の脆弱性が存在すること(脆弱性問題)など。
人間の置き換え:AIによって自動化されることで人間の失業が増えるという懸念、大量に生まれ得るAIによる生成物に関わる著作権の問題、AIによって故人(のある一面)を複製する行為の倫理問題、擬人化されたAIエージェントに心理的に依存するケースなどの懸念。
プライバシーの懸念:行動履歴データを解析することで、個人行動が追跡されやすい状況であることや、映像解析やバイオメトリクス解析によって個人の感情・心理状態などが読み取れるようになりつつあることなど、AI技術の発展に伴うプライバシー侵害の懸念。
新たな犯罪や悪用:AI技術を用いることで、本物と区別困難なフェイク画像・音声・映像が簡単に生成できるようになり、まるで人間が書いたかのような自然な文章生成や対話応答が可能になったことで、なりすましや偽装への悪用や、詐欺のような犯罪行為の巧妙化を招いている。
思考誘導:AIによるリコメンデーションへの依存が高まると意思決定の主体性が低下していく懸念、情報のパーソナライズやソーシャルネットワークにおけるフィルターバブルやエコーチェンバー現象、フェイクニュースを用いた政治操作・プロパガンダなど、人々の思考が誘導されやすいというリスク。
これらの問題を議論し、あるべき姿や解決策の要件・目標を定める取り組みが国内外で推進されています。AIのELSIについては、継続的に議論を深め、社会全体で対策を考えていく必要があります。
・ホームページ:ai-frontline.com/
・インスタ:instagram.com/a.i.frontline/
・ツイッター:twitter.com/ai_frontlinecom