見出し画像

AI社会について見えてきたこと

最近ChatGPTが大きな話題を呼んでいる。とうとうAI社会の姿が現実的に見えてきたようで筆者も大変興味深く感じている。ただし実際に見ていると様々な問題があることも分かってくる。

1.平然と誤った回答を与える
2.AIを使った不正は巧妙なものとなる可能性がある
3.AIは中立ではない

これらは解決できない問題として今後も残っていきそうに思われる。「AIによって〇〇の職業が失われる」といった宣伝文句とは別の、AI社会のリアルを見た感じだ。せっかくなので今現在感じていることをメモに残しておこう。多少とも皆様の考察の役に立つ部分があれば幸いである。なお、筆者の関心により、大学教育(特に理数系)についての内容が多めである。

追記:その後の文献で興味を引いたものを紹介しておく。第1節では他のアルゴリズムで補強した場合の問題点について触れた。Davis and Aaronsonではマセマティカなどの外部プラグインと機械学習アルゴリズムとの接続において生じる問題を調べている。 より深い問題として、以前の記事で解説したように、一般にアルゴリズムには原理的な不安定性が存在する。HighamはAIのアルゴリズムにおける不安定性の良いレビューである。意図的に微小な摂動を加えて出力を大きく変化させるなど、まさにカオス系と同様な現象が議論されている。AIを政策決定など深刻な目的で活用するべきだとお考えの方は、ぜひ一度(データ自身ではなく、その上で動く)アルゴリズムそのものの本質的な不安定性についてご検討いただければと思う。

1.平然と誤った回答を与える

多分AIが進歩すると正答率は上がっていくのだろうが、完全なものにはなりえないので、逆に間違いであると見抜くのが困難な誤答が生産されていくことになる。ChatGPTの感じだと、さももっともらしく言ってくるからとてもやりにくい。今後他のアルゴリズムと組み合わせたりするのだろうが、機械学習の宿命としてその部分は途中経過なしに誤答が与えられるから、それを誤答と見抜くのにかなりの能力が必要そうだ。そういう意味で一定数の高い数学力(もちろん目的に応じてその他の〇〇力)を持った人々が社会に存在し続けることが必須となる。ただそういう目的の「数学力」とは何なのだろうか?今までのまま100%同じ、とはいかないような気がする。

2.AIを使った不正は巧妙なものとなる可能性がある

既に米国の大学でAIを使った不正レポート提出という実害が報告されている。速やかに様々な対策がなされるのであろう。しかし対策がいたちごっこになりそうな予感がしてならない。もっと困ってしまうのは、補助的にAIを使用してレポートを作成した場合、一体どこまでを不正と言うのだろうか?道具として使えるものを上手に活用することも大切なことだから、一概に全て否定するのもおかしいと思う。AIを使った不正は巧妙化していきそうで、これから社会全体で高いコストを支払うことになるのではないかと心配でならない。

3.AIは中立ではない

これも困った問題である。世界中の人たちがChatGPTで実験をして、ちょっとうんざりするような結果を色々と見つけている。MITのスローン・スクールまでAIでは公平性は実現できないなどと言っているのだから(Manage AI Bias Instead of Trying to Eliminate It)、もはや諦めるしかなさそうだ。ある専門家が「機械学習はなんちゃって最適化」と言っていたと聞くが、なるほど的確な表現だと思う。

ただ教育を全てAI任せにするのは絶対やめた方がいいと思う。学生が一人で端末に向かっていて、AI先生が(場合によっては学生ごとに違ったやり方で)ひどく偏ったことを教えていた時、周りの人が異常に気付くのは極めて困難なのではないだろうか?教育においてAIはあくまでも補助的に使用するだけにしておいた方が良い。従来の教育方法だとそれなりに監視の目は光っているので(不満の声は多そうですけれど、これでも)多少は制御されていたはずだし、そもそも生身の学生さんたちが沢山前に座っている状況であんまり偏ったことを言うのはかなり勇気がいるのではないかと思う。教育には不快な記憶が沢山残っている方が多いらしく、とかく「教育のやり方を全部取り替えろ!そのためにはAIだ!オンライン教育だ!」みたいな極論に走る人が続出する傾向にあるが、そこはぐっとこらえて、将来を担う若者のために冷静なご議論をお願いしたい。

AI社会が現実的に見えてきた結果、これまでのようにAIに性善説を仮定する時代は終わったと思う。もっと現実的にAIにも性悪説を仮定して、世の中に完全なものなどありえないということを今一度肝に銘じるのが良いと思う。いつもネット上の大バッシング事件などを見ていて思うのは、何かについて性善説が成立すると仮定している人たちは崇高な理念に基づいているという感覚があるためか、どうにも暴力的・全体主義的な結論になりやすいように感じている。つまりAIに性善説を仮定するとかなりひどいことになりそうな気がしている。どうか「AIが言っているから正しい」などという人が現れないようにと願っている。適切にリスクを管理しながら上手く活用していく方法を考えていく時代になったと思う。

本稿の内容について有益なご意見を下さった専門家の方に感謝いたします。


いいなと思ったら応援しよう!