見出し画像

AIがもつバイアスについて考える

こんばんは。
今回は、前回の記事で何気なく使ってしまった「バイアス」という言葉について掘り下げようと思います。


1. 色々な文脈での意味

1-1. 日常

「偏り」や「傾向」を示す概念を指します。
前回の記事で私はこのイメージで使いました。

1-2. 機械学習

機械学習では、予測モデルが出す予測値と真の値のズレを指します。「バイアスとバリアンスのトレードオフ」という表現で、バリアンス(分散やばらつき)とセットで扱われることが多いです。

しばらく業務で機械学習に触れていなかったため、改めて以下のWebサイトで復習しました。

⬇️参考サイト

1-3. ニューラルネットワーク

ニューラルネットワークにおいては、入力変数以外の値で、調整のために加えられる値を指します。通常「b」で表現されます。

ニューラルネットワークでも登場していたな…と、こちらも改めて復習しました。

⬇️参考サイト

1-4. 倫理学

ここから本題です😎
私は現在AI倫理を学ぶために『AIの倫理学』という本を読んでいます。その中で「バイアス」に関する興味深い定義が示されていました。

特定の個人やグループに対する差別。ないしは特定の個人やグループを有利にするような差別。倫理学や政治学の文脈では、特定のバイアスが不当ないし不公正であるか否かが問われる。

M. クーケルバーク 2020:5

「偏っている」だけではなく、それにより「差別」という現象が現れているのが「バイアス」ということです。一般的な意味よりも一歩踏み込んでいる印象があります。

2. AIが持つバイアスがもたらすもの

ここから、AIの文脈で語られるバイアスについて考えていきます。
ここでの「バイアス」は、1-4の定義に基づきます。

AIが持つバイアスというのはよく語られますよね。例えば、

  • 犯罪再犯リスク予測AI:特定のグループ(属性)に対して、不当に高いリスクを示す。

  • 採用候補者選定AI:特定のグループ(属性)の人を不当に「不採用」と判断する。

このようなことが起こる理由も一般的によく知られていると思います。
AI開発者の悪意によるものというのではもちろんなく、モデル作成時に使用したデータに問題があるケースがほとんどです。

裁判や採用といった、そのAIが使われるまさにその場面(瞬間)で特定の個人やグループが不利益を被ることは容易に想像できます。
ですが、『AIの倫理学』の著者、M. クーケルバークは、問題はその場面だけに留まらないと述べています。

バイアスや差別といった問題はこれまでもずっと社会に存していたわけであるが、懸念されるのは、AIによって、それらの問題が恒常的なものになったり、問題の影響が大きくなったりするかもしれないということである。

M. クーケルバーク 2020:105

この指摘に私ははっとさせられ、覚えておくべきだと思いました。
例えば、採用AIの場合、不採用になることでスキルや経験を得られず、他の企業でも採用されない。こうして負のループに陥ることで、結果的に「不採用にすべき属性」としてAIの判断が後から不当に強化されてしまう可能性がある…ということだと理解しています。

3. 開発者はどうやってAIがもつバイアスに気づくのか?

さて、「AIはバイアスを持っている可能性が高いから、それに気をつけてAIを社会に実装していきましょう」という意見には頷けます。
ただ、「どうやったら開発段階でそれに気づけるのか?」というのは依然として疑問です。

例えば出身地やルーツに基づくバイアスは、開発者がリスク評価する際に比較的気がつきやすいかもしれません。色々な失敗の前例もあることですし。
ですが、基本的にはバイアスへの気づきは開発者の直感に頼るものが大きいという気がしています。
特に自分が不利益を被るグループでない場合は、バイアスに気がつくのは難しいでしょう。

自分が開発者側に回った今、それが怖くて、AI倫理の勉強を始めました。
と同時に、自分だけがレベルアップするのではなく、皆が一緒にレベルアップできるためにはどうすればいいのかな、というのも模索したいと思います。

4. おまけ

引用した『AIの倫理学』は面白い本なのでおすすめです!
古典的な哲学や倫理から議論が始まっており、やや内容は難しいのですが訳注が親切で、初心者でも読み進めやすいと思います。
とはいえ、さらっと流すと途端に分からなくなるので、私はじっくり読み進める形をとりました。
ご興味ある方はぜひ。

それでは、ここまで読んでくださりありがとうございました👋


いいなと思ったら応援しよう!