生きること、学ぶこと
AIの「予測力」の問題について
〜人類のもたらしたAIへは開発・運用の規制だけでいいのか?〜
山本龍彦のAIの「予測力」の視点からの問題提起について考える。
鳥取宣言で「最後は人間が判断する」というメッセージを、日本では初めて提供した。
慶応大学法科大学院の中に、X Dignity センターを作り、AI時代の人間の尊厳について考察する文理融合の研究所も立ち上げた。
「生成AIを含むテクノロジーの加速度的発展によって、人間そのものが「イノベーション」される時代を迎えつつある。このように人間/マシンの境界が融解する状況下では、領域横断的コミュニケーションを通じて、「人間」とは何か、「尊厳」とは何かを徹底的に考え抜くこと、新たな倫理観に基づいた領域横断研究を推進し、社会においてトラストされる技術を広く実装していくことが求められる。
現代社会では、自己と他者、人間と機械、仮想と現実、人間と動物、男性と女性の性差など、これまで自明とされてきた様々な境界の融解と見直しが進んでいる。
とりわけ近年は生成AIの登場を通じて、既存の人間と機械との境界が曖昧化する一方、ソーシャル・メディアの影響により人々の認知が他律的に形成される契機が増大するなかで、これまでの近代的な法や政治を支えてきた、人間の主体性や責任、権利や自由、デモクラシーの理念は、根底からの再検討が迫られている。」(X Dignity センター)
「AIと憲法」は2018年に出版されたものであるが、その中から、AIの「予測力」という視点からの考察は、AIが社会に与える懸念を的確に捉えている。
プロファイリング問題がもたらすものとは。
プロファイリングは、社会的弱者の排除や差別につながる。中国のような独裁国家では、信用情報機関のAIの信用スコアによって、個人の効率的な分類、仕分けをしている。これを有利なものとして活用している富者と格差社会を増長している。
さらには、政治的プロパガンダにも使われている。個人の内面.心理を、予測して、投票行動の操作をすることは、秘密裏に個人を支配していることになり、民主主義の危機である。
AIのアルゴリズムはますます複雑になり、AIが自らの決定根拠について説明できないこと。ブラックボックス化しているのである。
警察がAIを用いて、どんな人間が犯罪しやすいかを予測する。しかしAIはあくまでも確率がベースである。その予測をした理由を確実に説明できない。アルゴリズムが高度化しているため人間にも制御できなくなっている。AI予測の権力的側面を懸念するのである。そもそも、国家は個人の個別情報に関心を寄せてはならない。
ザッカーバーグは、AIが自動的に、フェイクを見つけるシステムを開発すると宣言する。
しかしこのアルゴリズムがブラックボックス化したら、新たな民主主義に対する脅威となる。AIがAIを批判するニュースを排除することも、ブラックボックス化してしまえば何の意味もない。
openAIが、巨額の資金調達をして、当初の企業理念(非営利)を失いつつある。人間は金儲けという欲には勝てないのか。当初の使命は、「経済的な利益に縛られることなく、全人類に利益をもたらす形でAIを発展させること」である。
オープンソース化について:「長期的には、クローズドなエコシステムに囚われないでベストなテクノロジーへのアクセスを提供することで、Llamaは完全なエコシステムを実現し、作業の効率化や他のテクノロジーと融合することなどを可能にさせます。もしメタがLlamaを使う唯一の企業であったとしたら、そうしたエコシステムは実現せず、過去に存在したクローズドな商用Unixと同じ運命を辿ることになるでしょう」(2024年)
AIは、個人の尊重を優先することはできない。
AI「予測」は、職業的適正、能力、信用力、知性などを対象にして、組織のある目的のために活用される。例えば、採用、与信、保険、個別化教育など。
これらの個人の格付けのための利用には問題がある。
① AIの学習データの偏りや少数派への差別がある。
例えば、自然災害スマホデータは、スマホの普及していない集落は見落とされる。バイアスを含んだ過去データの学習、歴史的な差別などの問題がある。
② AIによるスコアリングがセグメント(属性)単位であることである。
共通の属性を持ったものであり、セグメントに入らない人は、排除される。また、AIは過去データに基づく集団特性、属性の特性を予測するのであるから、伝統的な差別の再生産が生じる危険性がある。特にマイノリティの場合は、構造的な差別が隠蔽・正当化される恐れもある。
③ AIの意思決定のブラックボックス化がある。
いずれ、AIに選ばれなかったらものが、社会から排除されていく。排除されたものたちが、バーチャルスラムを形成するかもしれない。
④ インプット情報の人間の性格に関わる例えば遺伝情報の場合、遺伝情報をAIが使うというとは、必ず個人の尊重に関わる問題が生じる。
AIは規制だけで良いのか?
この3年間で、EU、アメリカでPF事業者、ビックテック等へのAI開発•運用の規制が議論されている。広い意味ではGoogleの検索市場の独占に対する企業分割裁判も生成AIに絡んでいる。
例えば、現在一番厳しいと思われている「EU AI規制法」の対象は、EU域内で上市されるAIシステムおよび汎用目的型AIモデルと関連するステークホルダー、つまりはプロバイダー、デプロイヤー、インポーター等です。AI産業そのものに関する規制であって、全て後追いである。こうなることを予見していながら放置していた人間の愚かさがある。
そのことを立証しているのが2024年のノーベル物理賞と化学賞であろう。(生成AIを開発したGoogleの3人が受賞)受賞者の一人のジェフリー・ヒントン自身がそのことを懸念しているのにも関わらず、生成AIの開発が人類史を壊すかもしれないという負の側面を全く考慮していない。意思を持たないものに最終的な決断を任せるわけにはいかない。
AIの全てを問題にしているのではなく、人間が30万年かけて築いてきたことの破壊に至ることへの懸念である。
より多くのことを、より速く、より正確に人間が知ることは、危険をもたらすことを考えなければならない。人間の能を超えるものを初めて手にしつつある私たちは今何を考えなければならないか?