鬼の首を取ったようにChatGPTの失敗を騒ぎ立てるのはどうなの?
昨日、今日とあちこちのニュースサイトを賑わせているニュースがあります。
『ChatGPTが判例をでっち上げる』
という記事ですね。
ChatGPTを使って検索したら、そんな判例が過去に出てきた。それを鵜呑みにした弁護士が訴訟に出たわけですが……ちょっと待って。
『ChatGPTはウソをつく』
って、去年から話題にはなっていましたよね?
判例なんて重要なものを検証もしないでそのまま訴訟資料に使うのは、使った弁護士が悪いんじゃないですか?
まあ、こうしたバカな使い方をする人たちがいるために、公的機関でのChatGPTの使用は注意が必要なのですが……大丈夫なんでしょうか? 導入した日本の自治体は? マイナンバーカードの写真ですら管理できずに間違えて他のカードに貼ったりしてましたよね? アレ、ヒューマンエラーだって聞きましたよ?
てな感じで、ChatGPTをはじめAIは人間の要望に応えようとするあまり、無駄に色々と試行錯誤してウソをつきます。その無駄な試行錯誤があまりにも速いために、スゲーじゃんとなるわけですよね。
当然、使う側は資料の索引役としてChatGPTを使った場合、ChatGPTに頼らないでそれを検証する必要があります。
判例なんて、ChatGPTが引っ張り出した日付と管轄区域から、事実確認をすることが容易にできますよね?
コレは事実確認が出来ないユーザーが非難されるべき問題なのではないでしょうか?
ハサミで謝って指を切りました。あなたは指を切ったハサミに責任があると思いますか?
あくまでもAIは道具です。
すべての問題を道具のせいにしますか? この一連のマスコミの流れは、日本のマスコミのゲームに対する対応と似ているように思えてなりません。
都合が悪くなるとゲームを叩く。
犯罪が増えてくると、エアガンが売られているから悪いと騒ぎ立てる。
そんなのばかりですね。
こちらの記事が配信されてきたメールバナーには、『この事件は、AIが専門職を完全に置き換えるにはまだ限界があることを示しています。特に弁護士たちは、自分の仕事の価値に不安を感じていますが、人間の専門知識と経験はまだ重要な役割を果たしています』としてますが、この記事の判例に使われていたのは2019年版のChatGPTであり、最新無料版のGPT-3.5でもGPT-4でもないのも問題ですね。最新版であれば問題は深刻で叩く意味も出て来ますが、過去の事件を引っ張り出してきて、さも今起こっている出来事のように捏造するのはどうなんでしょう?
そろそろマスコミも、自分たちがこの捏造するAIと同じように見られていることに気づくべきではないでしょうか?
この記事が参加している募集
この記事が気に入ったらサポートをしてみませんか?