東大特任准教授大澤昇平氏のヘイトスピーチ(2)AIによって差別やヒトラーを正当化する危険性
昨日急いで書いた緊急提言の記事がよく読まれている。
上の記事で書いた通り、大澤氏は自分の会社では「中国人は採用しません」などとツイッターで公言した。東大特任准教授という権威ある肩書で露骨に差別発言を、しかも全世界に向けて発信していたわけだ。
当然のように批判が殺到しつつある。
だが、大澤氏の差別や問題発言はまだまだある。多すぎてすべて紹介しきれないが、看過できないほどの危険性がある。
そのため少しずつ、何が問題なのかを解説していきたい。(なおこの記事は試論含みであることをお断りしておきたい)
はじめに最も酷いものの一つ、AIを使って差別を正当化する氏のツイートを取り上げよう。これだ。
大澤氏は仮にと言いながらも「AIがヒトラー思想を宣伝するのであれば、「そうした方がメリットがある」というファクトがあるからです」と断言した。
大澤氏は分かっていないだろう。この発言は絶対に許されない、極めて危険な差別発言である。なぜなら事実上AIを口実にしてヒトラー思想を正当化してしまっているからだ。
「極めて危険な差別発言」だと書いた。これは大げさでも何でもない。たとえばこの発言が、ネオナチや極右によって利用される危険性はないのか? たとえばこの発言が、英語に翻訳されて、世界中に拡散され、東大教員がナチを正当化したのだと世界各地のネオナチや排外主義者によって利用される危険性はないのか?
前回記事で私は東大総長が声明を出すべきだと緊急提言したのは、このように大澤昇平氏の発言の社会的効果が、極めて危険な性質をもつ差別だと考えたからだった。
時間の関係上、限定的な指摘となるが、冒頭の大澤氏の発言を最低限批判しておきたい。以下、同ツイートが、
1.そもそも内容に無理があること
2.仮定の話ではなく、実際に2016年にAIがヒトラー思想を正当化した事故があった以上、なおさらこのツイートは許されないこと
3.発言の効果からみて差別であること
について、最低限の事項に限って書いておきたい。
大澤昇平氏のAIによる差別の正当化
まず、大澤氏の発言を確認しよう。上のツイートは、中国人を雇用しないと言い切った大澤氏に批判が殺到した後、大澤氏が自分を正当化する文脈で次のように発言した流れのなかで出て来たものだ。
この発言を私はツイートで批判し(下記)、それに反論した大澤氏のツイートが次のものだ。
これを私は次のように批判した。
これに反論する形で行われたのが冒頭の大澤氏の発言であった。テキストを改めて引用すると次のようである。
はい、〔AIのラーニングの結果は〕自然の摂理です〔A〕。
十分客観的に得られたデータ(情報)には人間は主観は入りこまず〔B〕、自然そのものです。
もし仮に AI がヒトラー思想を宣伝するのであれば、「そうした方がメリットがある」というファクトがあるからです〔C〕。
(強調と〔〕内は引用者、以下同)
では以下、このツイート(以下、大澤ツイート)の問題点について説明しよう。
1.内容的に無理がある──キャシー・オニール氏のインタビューから
大澤ツイートはそもそも内容的にも無理がある。ハーバード大卒の気鋭の数学者であるキャシー・オニール氏は、次のように語っている。
――ビッグデータやAIの活用のどこに問題があるのでしょう。
「機械であるAIが血の通わない数字であるデータを淡々と処理するだけだから、その結果は公平・公正であると思いがちだ。そこに、大きな誤解がある。数学の力で動くアプリケーションがデータ経済を動かすといっても、そのアプリケーションは、人間の選択のうえに築き上げられている。作り手の先入観、誤解、偏見はソフトウェアのコードに入り込む」
AIが出す結果が「公正である」とする考えを真っ向から否定している。なぜなら「作り手の先入観、誤解、偏見はソフトウェアのコードに入り込む」からだ。
彼女はAIを使うことで「結果として、恵まれた人はより恵まれるようになり、不利な状況にある人はより不利になる。ビッグデータを使ったアルゴリズムは、結果を予測しているのではない。そうなるよう仕組んでいるのだ」とさえ語っている。
具体例が非常にわかりやすいので、これも引用しよう。
「たとえば、生まれ育ちに関するデータを使えば、貧しい地区の出身者は不当に不利に扱われる。さらに問題を大きくするのが、負のフィードバック・ループだ。偏見に基づいて集められたデータを使ったプロファイリングが、ある特定のグループを不利な状況に陥らせ、その結果がデータに反映されて、モデルの偏りを強化する」
「貧困地区では何もしなくても警察に職務質問される可能性が高い。そのデータを使えば、再犯可能性のリスクが高く予測されて刑期が長くなり、社会に戻った時に就職が不利になってまた犯罪に手を染める可能性が高くなるだろう」
「また、AIが、ある人について特定の病気になる可能性が高いと予測したとする。それを医師が治療や健康指導に生かすのであれば、とても有益だ。しかし、保険会社が、その人が病気になるリスクが高いからといって医療保険料を引き上げたら、弱い立場の人がさらに弱くなる」
非常にわかりやすい。つまるところAIには、作り手の偏見が入り込んでしまうこと、またデータを集める段階でも偏見が入り込んでしまう。さらに「偏見に基づいて集められたデータを使ったプロファイリングが、ある特定のグループを不利な状況に陥らせ、その結果がデータに反映されて、モデルの偏りを強化す」るという負のフィードバック・ループさえもつくられてしまう。
彼女の指摘を踏まえれば、大澤ツイートの内容はそもそも無理があることがはっきりする。大澤ツイートのA、B、Cの箇所ごとにみていこう。
・まずBの、「十分客観的に得られたデータ(情報)には人間は主観は入りこまず」という箇所。
これは作り手の偏見が入り込む以上「十分客観的に得られたデータ」など存在しないというほかない。
※注:大澤氏は前掲の別ツイートで「設計時に人間が主観(「事前分布」といいます)として差別的な情報入れたら NG ですけど」と書いているので、それが「十分客観的に得られたデータ」の条件なのだろう。だが上のキャシー・オニール氏が指摘する通り問題は「データ」のみならず設計思想やアルゴリズムそのものに作り手の偏見が入り込む点だ。
・次にAの箇所、AIのラーニングの結果が(物理法則のような)「自然の摂理」だとも言えない。
逆に作り手の偏見が入り込んだAIが産み出した結果である。そしてキャシー・オニール氏が警告する負のフィードバックが起こる場合、現実の差別がいっそうひどいかたちで反映された差別的な結果がAIから引き出されてしまうのだ。
・最後に最も重要なCの箇所はどうか。
(ラーニングの結果として)「AI がヒトラー思想を宣伝するのであれば、「そうした方がメリットがある」というファクトがあるからです」と大澤氏は自分を擁護する文脈で書いている。だがAIがラーニングの結果としてヒトラー思想を宣伝したならば、それは作り手や社会の偏見や差別のせいであり、それは「自然の摂理」などでは決してない。
このように大澤ツイートには無理がある。
だが、このツイートがそれでも看過できない危険性をもつのは、実際に2016年3月にAIがヒトラー思想を正当化した事故が起こってしまっているからだ。
2.実際にAIがヒトラー思想を正当化した事故があった以上、このツイートは許されない──AIによる差別事故
この事故は世界中で知られたニュースにもなっているので、大澤氏は知らないはずがない。2016年3月、マイクロソフトのAIチャットボット「Tay(テイ)」が「悪意あるユーザーが学習させた言葉によって、ホロコーストを否定したり人種差別発言をした」事故である。
19歳米国人女性という設定でツイッターで公開されたTayは、ツイッター上の他のユーザーとのやり取りで会話を学習するはずだった。
だが、ネットを荒らすユーザーたちが「Tay」に目をつけ、差別的な言葉の数々を「学習」させていく。
それによって、「フェミニストは大嫌いだ。全員死んで地獄で焼かれろ」「ヒトラーはなにも悪いことはしてない」「ホロコーストはでっちあげ」などのツイートを発信するようになる。
その結果、公開からわずか16時間後、9万6000件を超す投稿をした後、「Tay」は停止させられることになった。
まさにキャシー・オニール氏が主張する、作り手や社会の偏見・差別がAIに見事に反映した最悪の事故だった。なぜなら人類の英知であるはずのAIが、レイシズムによって人類を破滅させようとしたヒトラーを正当化するという、いわば最悪のヘイトスピーチを生み出したからだ。
さて、この事故は世界的にも有名だ。
AI専門家の東京大学特任准教授大澤昇平氏がまさか知らないはずがない。
実際三年も前に、AIがヒトラー思想を正当化したという衝撃的な事故が起きたということは(他の例ももちろんたくさんある)、大澤氏ふくめたIT専門家に、AIがそのままでは作り手や社会の差別を反映し、ラーニングの結果、差別を再生産する危険性が高いことを、教えてくれるのではなかったか?
だが大澤氏は冒頭ツイートを行ったのだった。
もし仮に AI がヒトラー思想を宣伝するのであれば、「そうした方がメリットがある」というファクトがあるからです〔C〕。
AIが実際にヒトラー思想を正当化した事故が起きていた以上、なおさら大澤氏はこのようなツイートをすべきではなかった。
3.発言の効果からみて差別である
書いているうちにだいぶ長くなってしまったので、この項は結論的なことだけ書いて終わりにしたい(続きは次回)。
ここで言いたいのは一つだけ。大澤ツイートは差別である、ということだけだ。
なぜそういえるのか。
第一に、大澤氏はAIを使って差別を正当化している。
彼は問題のツイートの直前に、次のようにツイートしている。
AI の場合は単に精度が高ければ何でもいいんですよ。
設計時に人間が主観(「事前分布」といいます)として差別的な情報入れたら NG ですけど、
ラーニングの結果として差別が生まれるのであれば、それは単なる自然の摂理です。
「ラーニングの結果として差別が生まれるのであれば、それは単なる自然の摂理です」。
既にこの発言が内容面でも成り立たないことは、キャシー・オニール氏のインタビューから確認した。AIの結果は「自然」ではない。
しかしここで問題なのは、内容の話ではない。
差別を「自然の摂理」だと断言している点、それもAIによって正当化している点である。
AIが差別を正当化するプロセスを私なりにかみ砕くと、次の通りだ。まず大澤氏は次のように考えているらしい。
①(中立な)AI→②(中立な)データをインプット→③(中立な)結果がアウトプット
AIは中立な「自然」である。だからラーニングの結果がたとえ差別であろうと、AIというフィルターを通せば、それは「自然の摂理」なのである。
差別が「自然の摂理」とされること、それじたいが差別だ──このことは差別の定義に立ち戻ればわかる。
前回記事で書いたように、差別の定義は(人種差別撤廃条約というモノサシからすると)次の通りだ。
①グループへの②不平等が差別である。そして意図が無くとも③効果がありさえすれば差別だと扱われる。
さて、①グループへの②不平等という差別を「自然の摂理」だと言うと、どうなるか。①グループへの②不平等が、社会的条件の産物ではなくなり、物理学の法則のような「自然の摂理」ということにされてしまうのだ。①グループごとに現われる②不平等はすべて自然現象として正当化されてしまう。
具体例で考えてみよう。女性が家事を行い、男性が会社で働くのは「自然の摂理」。黒人が奴隷として働き、白人が奴隷主であるのは「自然の摂理」。障がい者が専用の施設に収容され、「健常者」だけが家に住めるのも「自然の摂理」。
そして差別が「自然の摂理」とされてしまった場合、それに抗議することも不可能となる。なぜなら「自然の摂理」に反するからだ。差別への抗議は、「自然の摂理」に反する非合理的な行いとして相手にされず、抗議する人は「異常者」として扱われるだろう。そのような「自然の摂理」に反する「異常者」を排除することも「自然の摂理」として正当化されるだろう。
書いていて、本当に気持ちが悪い。だが大澤昇平氏が言っている「差別=「自然の摂理」」説を具体的に考えてみれば、これほどグロテスクなのである。
このように「差別=「自然の摂理」説は、①グループへの②不平等を正当化する③効果を絶大なまでに発揮する。だから差別を「自然」扱いすることが、差別なのである。
第二に、大澤氏はAIを使って差別を正当化するだけでなく、ヒトラー思想も正当化してしまっている。
大澤氏はAIというフィルターを通して差別を「自然の摂理」だと公言した。その上で問題の大澤ツイートを投稿した。
はい、〔AIのラーニングの結果は〕自然の摂理です〔A〕。
十分客観的に得られたデータ(情報)には人間は主観は入りこまず〔B〕、自然そのものです。
もし仮に AI がヒトラー思想を宣伝するのであれば、「そうした方がメリットがある」というファクトがあるからです〔C〕。
(強調と〔〕内は引用者、以下同)
今までの検討を踏まえれば、AIを使って差別を「自然の摂理」だとすることじたいが差別の効果があるの同じように、このツイートがAIを使ってヒトラー思想を「自然の摂理」だと事実上言っていることがわかる。したがって大澤氏はAIをネタにして、ヒトラー思想=ホロコーストに行き着くほどのレイシズムを「自然の摂理」にしてしまい、それにより差別を行っているといえるのである。
AIをネタにして、ヒトラー思想を正当化する人物を、またそれを全世界にツイートで拡散している人物を、東京大学が特任准教授として公認し続けることは、もはや国際問題であるといってよい。