『COMPUTER POWER AND HUMAN REASON』
とうとうシリーズ最終回にたどりつきました。普通なら、ここは「まとめ系」の内容になるんでしょうが…ここまで思いつくママ書いていたので、突散らかし過ぎてどう手をつけたら良いか?で悶絶しています😀
このシリーズでは「AI倫理」の源流のひとつである ジョゼフ・ワイゼンバウム の著書『Computer Power and Human Reason』を軸にその周辺の様々な話題を紹介して来ました。
生成系AI技術の進歩と普及によりAI法規制が論議される今日、立場の異なる方々の様々な発言が飛び交い、さらにAIガイドラインが乱立し、検定試験も出回り始めている現状で、インターネットで出回っている大量の情報をぼんやり眺めていると、微妙にポジション・トークが混じっているように見えたり、なかには政治的なレトリックとして活用している疑義が浮かんだり…そもそも「AI倫理って誰のためのもの?」と素朴な疑問が浮かんで来たことが、このシリーズを執筆する動機でした。
いわゆるガイドラインでは「何が問題なのか?(What)」と「どう対処すれば良いか?(How)」といった「しなければならない」ことや「するべきこと」が簡潔に書かれていることが多いのですが、その根拠や理由の中にポジション・トークやレトリックが混じっていてもほとんどの人は気がつきません。また、多様性が尊重される今日、いずれが「正しい」とか「間違っている」と明言することも難しくなってます。さらに、生成系AI技術の応用範囲が極めて広いこともあって、誰もが自分自身の「何故(Why)」を見つけなければならないように思いました。そこで、誰に対してもフェアなヒントになるであろう「AI倫理」に関する歴史的事実を紹介することを考えました。
それでは…
史上初の「AI倫理」論争を追って(8)
まずは、このシリーズのメインテーマ、書籍『Computer Power and Human Reason』に戻って…もちろん原書を読破するのがお勧めですなんですが、英文で300ページもありますし、ワイゼンバウムの書いた英文は難しい単語が結構な頻度で登場するので入手した後に途方に暮れる可能性も高いです。そんな方や「そこまで時間をかけてられないよぉ」って方にお勧めなのが、第6回で紹介したワイゼンバウムのインタビュー本 "Islands in the Cyberstream: Seeking Havens of Reason in a Programmed Society" です。
既に紹介したように、この本にはパデュー大学歴史学准教授のザカリー・ローブが寄稿したイントロダクションがありますが、その中には『COMPUTER POWER AND HUMAN REASON』の内容を12ページにまとめた要約が含まれています。ワイゼンバウムの難解な英文も除外されているのか、DeepL や ChatGPT の助けを借りれば、比較的にスルッと読めます。ここでは僕が要点と考えるワイゼンバウムがAI倫理に着目する契機となったチャットボット ELIZA に対する人間の過剰な反応とその問題点を指摘した部分のみを引用します。
この「コンピュータと対峙すると過剰に適応してしまう人間の習性」こそがワイゼンバウムの懸念でした。今から50年前、既にコンピュータは社会に蔓延しており、相手が人間であれば異論を返すような話題であっても、相手がコンピュータであれば「コンピュータからの回答だから間違いはなかろう」と受け入れてしまうことを、ワイゼンバウムは「より深い問題の徴候」と捉えました。その後、AI技術が格段に進化した今日では、問題はさらに悪化し次のような痛ましい事件として現出しています。
こういった命に関わるトラブルが頻発すると、法規制の論議になるのはやむ得ない訳ですが、問題の本質的な原因はコンピュータではなく人間の側にあるという指摘を理解しておく必要があります。50年前、既にこのようなトラブルを見通していたワイゼンバウムの慧眼こそが「AI倫理」に関する議論の出発点であったように僕は思います。
もっとも…
1976年の出版当時は第1次AIブームの直後で、ワイゼンバウムの警告が理解されることは少なく、むしろブーム沈静化に苛立つ周囲の敵意を集める結果になりました。その最たるものが、このシリーズでも紹介してきたジョン・マッカーシーの書評です。ワイゼンバウムの孤立化を Wikipedia の『COMPUTER POWER AND HUMAN REASON』のページでは、次のように説明しています。
確かに「人間が過剰適応してしまうから、AIの研究開発はそのことに配慮して進めなければならない」と言われても、前半部分を理解できない、あるいは後半部分に過剰に反応して「AIの研究開発に何故そのような制約を課されなければならないのか?」との反発が出てくるのは想像に難くないですよね?おそらく、現在のAIベンチャーでもこの種の議論は日常的に繰り返されているように僕は想像してますが、いかがでしょうか?これは正しく古くて新しい話です。
では、ワイゼンバウムが「誇りに思うようになった」とはどういうことでしょうか?答えはワイゼンバウムの著作の最終章のタイトル "AGAINST THE IMPERIALISM OF INSTRUMENTAL REASON" にありました。このタイトルは「道具的理性の帝国主義に逆らって」と翻訳するべきようです。Oxford Reference では「道具的理性」を次のように説明しています。
この表現は、実は次の書籍で使われている概念のようです。
Wikipediaの説明を一部を引用すると…
どうやら全く専門外の哲学の領域に突っ込んでしまっているようですが…
ようやく、ワイゼンバウムの著作のさまざまな「何故?」が繋がって来たようです。タイトルの "Human Reason" は「人間的理性」と翻訳すべきで、上記の哲学書に登場する「道具的理性」とは対立する概念と理解した方が良さげです。ここでの「理性」とは、一般的な意味ではなく、哲学上の概念なのかも知れません。著作の第1章にあるように ELIZA ブームの熱狂にワイゼンバウムは非常に驚いたようですが、ブームから連想した「より深い問題の徴候」とは「主観的なものを犠牲にして、客観的なものを優遇する哲学の大きな傾向」、すなわち「ナチスのような新しい野蛮」を意味するのかもしれません。確かに、幼少期にナチスの反ユダヤの現実を実体験しているワイゼンバウムは、ELIZAのために巻き込まれたAIブームの狂騒から、かつての彼にとって忌まわしい何かを感じとっても不思議はない。
もっとも、長くエンジニアリングを生業にしてきた僕には、むしろ前回紹介したマンハッタン・プロジェクトの科学者の事例の方が幾分理解しやすいような気がします。「ナチスドイツよりも先に核兵器を完成させる」ために集められた彼らは、ナチスドイツが消滅してもなお「大戦を終結させる」ために仕事を続けなければなりませんでしたし、最終的にそれがもたらした結果を個人として受け止めなければならない辛さを味わうことになりました。
これも「合理性を盾に、主観的なものを犠牲にして、客観的なものを優遇する」道具的理性のひとつなのでしょうか?僕はもう少し哲学を勉強する必要がありますね。
以上、12回の長きにわたりお付き合いいただきありがとうございました。
ジョゼフ・ワイゼンバウムの『Computer Power and Human Reason』を紹介するために、結果的にかなりの文字数を費やしてしまいましたが、これが「AI倫理」の起源だと僕は理解しています。現在よく語られている「AI法規制」や「AIガイドライン」の話題とは、かなり違った印象を持たれたかと思います。みなさんはどのような感想を持たれましたか?
ブログやSNSが普及した今日、メディアの形がどんどん変わっていく様を日々目撃している実感が僕にはあります。インターネットが媒介する双方向メディアも既に成熟段階に突入していて、既存のマスメディアは置き去りにされている感がありますし、個人の発信力が社会的な注目を集めている。そういった背景もあって、今、AIに限らず倫理の問題が取り沙汰されるのでしょう。約60年前、ELIZAを公開した時にワイゼンバウムが感じた社会の熱狂に対する困惑は、現在の人気 YouTuber たちが感じるそれと同じなのかも知れない…と僕は想像しています。世に出回る上から目線のガイドラインはあまり役に立ちそうにも無いしね😛でも、ワイゼンバウムの言葉は、今、発信しているクリエーターの皆さんには届くかも知れないし、ひょっとしたら役に立つかも知れないです。それが出版されて50年経たジョゼフ・ワイゼンバウムの『Computer Power and Human Reason』の今日的な意義なんじゃないかと僕は考えています。(終わり)
#10月これやる宣言
#ジョゼフ・ワイゼンバウム
#AI倫理
#AI法規制
#AIガイドライン
#G検定
#生成系AI
#人工知能
#ホルクハイマー
#アドルノ
#啓蒙の弁証法
#道具的理性
#人間的理性