世間に広がる意味不明:ルールの前提条件は何か(AIよりも人間側に問題がある)
■情報は常に間違っているか欠落している
システムに係わる人間であれば「ガベージイン・ガベージアウト」という言葉を知っているだろう。「ゴミ箱からはゴミしか出てこない」という和訳が近いだろうか。もちろん例外もあるが、概ね当たっている。「アウトプットはインプットに依存する」と言うことだ。
ChatGTPなどは、多くの情報から再整理した情報を庭球する。しかし、情報は裏付けのないものやウソが混ざる。さらに言えば、時間軸上で価値のなくなるものもある。
10年前の地政学的情報から明日の政策を立てても十分ではない。
さらに、使用する情報は部分集合である。その情報が適切な状況を表しているわけではない。
湾岸戦争でのオイルまみれの鳥の映像を思い出して欲しい。
■人間は間違う
民主主義の大前提は「可謬主義」にあると思っている。
可謬主義とは、一言で言えば、「それが正しいと確信できる正当な理由はない」であろうか。したがって、人間の判断は常に間違いを含んでいる。独裁国家が道を踏み外しているのはそのためだ。しかし他人事ではない、多くの企業も同じような危険を含んでいる。
不完全な情報を基にしたChatGDPのアウトプットだから正しいと判断するのは人間である。判断するのが人間であれば、それが正しいことの証明は永遠にできない。
■悪意を防ぐ手段はない
銃規制がありながらいまだに銃の犯罪がなくならないアメリカ。核は脅威だと言いながら恫喝に使うロシアや北朝鮮。それが、多くの人との価値観とのずれがあっても、ブレーキにならない人々がいる。
ChatGTPで作成した論文をさも自分が作ったかのように発表する識者。自動生成AIで作成した作品を、自分の芸術作品であるかのように発表するプライドのない人々。
こうした悪意ある人々を無くすことはできない。
■それでもルール作りをするしかないのか
AIに問題があるわけでは。人間に問題があるのだ。
その意味で、ルール作りは必要である。もっとも、人間がもんだがあると認識できない彼らに任せていても不安しかない。
○AI適切利用に5原則、G7
2023年4月29日
先進7カ国(G7)デジタル・技術相会合は29日、人工知能(AI)などの新興技術を適切に利用するための規律として「法の支配」や「人権尊重」といった5原則で合意した。文章や画像を作る生成AIの急速な利用拡大への懸念を踏まえた。会合は同日、群馬県高崎市で開幕。30日に共同声明をまとめ、5月のG7首脳会議(広島サミット)の議論に反映させる。
https://jp.reuters.com/article/idJP2023042901000361
<合掌>