信頼性の担保はまだ、AIよりも人間の方がありそう
ここ最近はIT関連ニュースがほとんどChatGPTばかりですが、それくらい確かにインパクトがあって、専門家でなくても「すごい!」と思える技術・サービスであることは間違いありません。Googleや中国企業も慌てて似たサービスをリリースし始めていますが、ChatGPTがどれくらい先行者利益を確保し続けるかは興味深いところです。
さて、このChatGPTにしろなんにしろ、AIによって知的産業における仕事が奪われるということはしばらく前からよく言われています。AIが大学入試や国家試験で合格点を出したというニュースは断続的に報道されています。
これからも技術は進歩していきますから、いずれはあらゆる試験で満点を取るようになるでしょう。知的アウトプットはコンピューターが独占すると思われても仕方ありません。
ただ、試験は満点である必要はないのですよね。どんな試験でも満点じゃないと合格にならない入試・国家資格などはありません。じゃあ実務において、医者にしろ弁護士にしろ間違って良いのか、ということにはなりませんが、時間を書けたり事前に調べたり複数人で当たったりすることで、実務においてはフェイルセーフが働きます。
しかしAIによる出力結果は間違っていてもAIには訂正出来ません。複数のAI同士でのチェックさせることは出来るかも知れませんが、同じミスを犯す可能性もあるでしょう。
出力結果が本当に正しいものかどうかを見極める手段が、受け取る側(自分)の知識しかありません。
嘘や間違いが書かれた出力結果の間違いに気付くにはこちらが相応の知識を持っていないと不可能です。
言い換えると、出力結果の信頼性を担保するものが現時点では存在しません。
医者の診断、弁護士の弁護はどちらもその資格に基づき、その個人が責任を負って行うものです。もし失敗や間違いをしてしまったら、その人が責任を負うことが、そのアウトプットの信頼性の担保になっています。
しかし、現状ではAIの出力結果が間違っていても誰も責任を負いません。あえて言うなら、その出力結果を利用した人間が全ての責任を負うことになります。
当面は、もし万が一間違っていても大きな問題がない(すぐに修正出来る)ような質問・回答のために使用したり、それなりに知識のある人が手っ取り早く要約や確認の為に使用するという使い方が良いのでしょうね。
つまり、知識のある人がその知識を生かして行うアウトプットを助けてもらえるツールとしては有用です。そして、知識のない人は微妙に、もしくは豪快に間違った知識を得てしまうツールにもなりかねません。
知識の有無、それも正確かつ広汎な知識を持つ人と持たない人の、知識格差・情報格差をより一層広げてしまう危険性もあるのではないかと思っています。
この記事が気に入ったらサポートをしてみませんか?