社会考察: AIの知識の信頼性は人間の知識の信頼性に依存している
誰が言っているのかが大事
誰もがあらゆる分野の専門知識にさらに効率よくアクセスし、生産的なことができるので、これまで以上にそれっぽい虚偽情報が溢れる可能性があります。
(もうすでにchatGPTはかなり虚偽や誤った情報を生成してきています。これはAIの性能とは別の問題ですね。元の学習データの誤りですから。)
したがって、特に目の前で確かめようのないことに関して、これまで以上に慎重な情報の判断が求められますね。
例を挙げたらキリがないほどありそうですが、例えば
この薬が有効とかあったとして、そのデータを自らが実験してみた人以外はそれを確かめようがありません。
悪意ある人が嘘のデータを作ったとして、それをAIによって生成した論文の体裁でまとめられて、このデータが投稿されることになります。
このような論文や本、メディアがたくさん出てきてしまった時に私たちは何が真実なのか、これまで以上にエビデンス、根拠を掴むのが難しくなりそうです。
“特に誰が言っているのかがなおさら大事になりそう。過去の実績や学歴、分野での信頼、そう言ったものがさらにダイレクトに信用に関わる。医者や研究者では特に。”
それが医療系や政治判断などの決定につながれば、なおさら人命に直接影響がでたりなど危険が及びそうです。
個人でも情報を利用できてしまうので騙されて誤った行動に出てしまう可能性もありますね。
出てきた知識は、それを利用するとき、
大事な場面ほど、よくチェックしてから利用するのが大事になってきますね。
AIについて現時点の弱点
かなり間違う。
そのまま出てきた情報に関しては、間違った情報も多いので、ちゃんと本とかで事実確認しながら進める。
価値観などについては、大衆思想に引きずられていること。
未来の予測できないこと
(特に未来予測できないので、これから必要になる人材は?とか、需要は?と言った質問で出てくる回答は余計にあてにならない。大衆思想に引き摺られている)
全く自分が知らない考え方や、分野、思想へのアクセスは難しいこと。
(逆にメリットかもしれないが)
技術面においては致命的なので、やはり全体がよくまとまった紙の本は大事
多角的な視点で同時的に見れないので、やはり時間をかけていろんな視点を探る必要がある
(そういう意味で専門家はすごい、でも、みんなこれまでよりも少ない時間で専門家的なところに行けるかも?)
(専門家がたくさんいるのはある種その分野のchatGPTのような人がたくさんいるということなので、余計にその凄さを実感するのかも?発言してくれればなのだが…)
やりたいことがない人たちがでてきて、その人たちは恋愛とかしか興味ないとか言い出すかも?
あとは、生きていければいいやでつまらなくても、仕事するという人がもっと増えるかも?
これをうまく使いこなせない人は必ずいること。
置いてけぼりがどの時代もいる。
特に高齢者はもちろん、若い人もついていけない人たくさんいること。
インターネットGoogleが出た時もそうであったように。