![見出し画像](https://assets.st-note.com/production/uploads/images/101829689/rectangle_large_type_2_84ca44e4b6589a772508954ad26d3743.jpeg?width=1200)
AIのバイアス問題が突きつける課題
ChatGPTをはじめとした生成系AIは、活用方法が雨後の筍状態ですが、守りの観点でも注目が集まっています。
あのイーロン・マスクがついにChatGPTに対する行動を起こしました。
ようは、
イーロン・ウォズニアックなど著名起業家含むテック業界関係者1300名超が、今のAI開発マネジメント体制を指摘し、GPT-4以上の性能をもつAI開発を最低6か月停止することを求める訴状を公開した、
という話です。
これは「future of Life」という、テクノロジーで人類の未来を改善することを目指したNPOによるものです。
イーロンが署名したことで色々と話題になってますが、ある意味皮肉な面もあります。
それは、GPT-4を開発したOpenAI(これもNPO)は元々イーロンも初期設立者の一人としており、その目標が「人類全体に利益をもたらす形で友好的なAIを普及・発展させること」にあり、全く同じです。
途中で方針が合わず運営からは距離をとって、今では冒頭の通り否定する側に回っています。
その意味では首尾一貫していると感じます。
そして実際AIは、今の国際情勢にも悪用されており、そのリスクが欧州を中心に議論されているという話をしました。
また、目立つイーロンだけで言えば、自身がCEOを務めるTeslaで独自のAI開発を推し進めており(主に自動運転やヒューマノイド向け)、ひねくれた見方をするとGPT-4という競合を抑える産業行為ではないかとも感じます。
今までのIT業界での競争でも、訴訟含めた争いはあったので特に問題視しているわけでなく、それよりも気になるのが「AIバイアス」問題です。
上記の顔認識はあくまで人間の判断補助ですが、バイアスはその判断にまで踏み込みます。
過去の有名なケースを言えば、特定の人間の写真を動物と誤認識して問題となりました。
2022年から話題になっている画像生成AI(Stable DiffusionやDalle-2)でも近い問題はすでに指摘されています。
ただ、難しいのはあくまでAIの視点にたつと「バイアス」ではなく、単にデータを学習しているにすぎません。(皮肉気に書くと悪気はない)
おもしろいことに、それを防ぐためのAI(の技法)も登場しています。
ChatGPTの競合にあたるHugging Faceが大学との共同開発でリリースしたオンラインツールで、バイアス度合いを測ります。
例えば、その学習モデルが「権力者」をどのような分類(例:白人男性)に偏っているかを示すことが出来ます。
また、日本でもその学習段階でバイアスを抑えるインターフェースを開発したプレスリリースが流れています。
いずれも重要で社会的な意義が高いと思います。
難しいのは、1つ目はAIが(クラスタリングという技法で)グループ分けするのはいいのですが、その判断基準もまた過去学習に基づいていることで、ミイラ取りがミイラになるリスクが考えられます。(ここはもう少し判断基準のアルゴリズムを知りたいところです。なによりChatGPTの競合によるものなので、どうしても産業的な行為もに追ってしまいます)
2つ目のリリースは、一見人間に簡易に分類させることでそこをクリアしているように見えますが、ではその判断主体となる人間は「バイアス」がないのでしょうか?
あくまで度合いであり、明らかに差別的であるというものは排除できそうですが、今のような多様化の時代においてその判断がますます難しくなってきます。
ややディストピア的な書き方になってしまいましたが、まずは個々がAIの生成物を安易に信じ込まないように、一歩引いて向かい合う日常行為が重要になるのだろうと思います。
ある意味SNSに騙されないのと構造としては似ているので、改めて理性的に努められるよう自戒したいと思います。