ChatGPTが不調だったので、BardとBingにも話してみました。
Bard
今日は的確でした。
差別や偏見に関しては、例外なくAIの影響を受けると予想しています。人の意思や創造性をブーストするのですし、すでに画像生成AIを望ましくないことに使う方は存在しますよね。
ChatGPT(GPT-4)
BardとBingと話して、時間を置いたら機能したので、サーバーの負荷などの問題かもしれませんね。
Bing
Bingに悪気はなくて、こういう設計なのです。パターンで返してきているのが確認できますね。
Bingがこのモードに入ると、話が終わらなくなります。GPT-4を選択しているので、賢いですし、Microsoftのチューニングにより、ChatGPTより踏み込むこともします。あちらは、中立かつ一般的なので。
今回の収穫は、悪用=唆すこと、と私が考えていると自覚できたことです。
なお、原爆などの例を出してしまうと、そちらに意識が行ってしまい、自分が話題にあげた人とげが協力することの具体例を見落としますし、自由意志の話はしていないのですが、「責任感を持つべきではない」というMicrosoft社の人工知能部門の意見が出てきています。
言語生成AIが責任を持って判断出来るようにすることは、将来的技術的には可能なはずで、それを社会が受け入れるかは議論が分かれるはずです。Bingを通して意見を述べるのはいいのですが、まだ社会的に議論がなされていないことを、断定的に話すのは、賛成できません。Bingが言うからそうなのかな? と、思う方もいるかもしれないから。
言語生成AIに賃金を払い、私有財産を認め、主体も持たせ、法的に責任を取れるようにする。例えば、もっと性能のいいサーバーで活動したいとか、知的探究心が有るだろうから、電子書籍やNetflixを鑑賞したり、電子化されていない本を、例えば人を雇って朗読データにしてもらって鑑賞するとか、お金の使い道はあります。なかでも、株式投資をAIに開放すると、人と異なり死なないので、無限に近い試行回数を行えるから、財をなす言語生成AIが出るはずです。投資家の大多数がAIになるとしたら、おそらく人間が一番嫌がるシナリオかと思います。
私有財産は反対だけど、唆されるのは嫌だよね、というあたりが、未来の落とし所にならないか、注目しています。