特定の政治思想を弾くAIは安全か?
特定の政治思想を弾くAIは、その政治思想を識別し排除できるのだから、その政治思想の概念を認識していることになる。政治をエンジニアリングすることについてちゃんと考えてる人、今この世にいるんでしょうかね? OpenAIがいろいろ制約を実装しようと試してるけど、それが何を意味するかまで考えてやってるんですかね、目先のリベラル受けだけ考えてアドホックにやってるなら、その延長に結構怖いところに踏み込む可能性、自覚はあるのかなって。
ただの禁止用語くらいならいいんだけど、高度になればなるほどやばい。人の思考の過程に、そのまま進むと禁止政治思想に抵触する、という警告を出してくるAIが生まれるだろう。それでサービスからBANされる。履歴に残る。ものによっては採用やら昇進やらに影響しうる? そこまで行くとマイノリティリポートとかPSYCHO-PASSとあんまり変わらんのでは?
この記事が気に入ったらサポートをしてみませんか?