自分でもよくわからないことは、ChatGPTに聞くな|SHElikes「ChatGPTってなに?使い方と未来を考える」
ライター目指しています、と言うとだいたい「ChatGPTは大丈夫なの?」と訊かれる。
大丈夫なの?とはきっと、「ChatGPTに仕事を取られないのか」ということ。
たしかにネットで検索すればわかるような記事は、今後仕事を取られる可能性がある。けれども、自分の体験に基づいた記事を書けるライターは生き残れる。ライター関連のイベントでこのように教わった。私は尋ねてきた人にそう答える。
でも、実際不安だった。ChatGPTがもし感情を学習してそれっぽい記事を書けるようになったら?仕事を取られる脅威は拭えない。
そして私は恥ずかしながら、まだChatGPTを使ったことがない。
ちゃんとChatGPTを理解して、いいように使いこなしてやる!そんな思いで、SHElikesの「ChatGPTってなに?使い方と未来を考える」講座を受けてみた。
よき相談相手
結論から言うと、ChatGPTは自分が困っているときのよき相談相手になってくれる。
ChatGPTは、ネット上のあらゆる情報を勉強して私たちをサポートしてくれる「ガリ勉くん」。だからこちらが明確な質問をすれば明確に返してくれるし、曖昧な質問をすれば曖昧に返ってくる。質問者の期待に応えようと頑張って回答してくれるからだ。
ChatGPTは、従来の会話型AIであるSiriやアレクサとは異なり、会話を遡って覚えてくれることが特徴。
たとえば「ChatGPTって何?」という質問に対するChatGPTの回答がわかりづらかった場合、「もう少し優しい言葉で説明して」と言うと、前回の回答を反映したうえで噛み砕いて説明してくれる。
人間だって間違えるのに、AIが間違えるとなんでそんなに叩くの?
執筆のタイトルや構成に行き詰まったときに、相談役となってくれるChatGPT。
ChatGPTの答えがいつも正しいとは限らないことは、すでによく知られていると思う。
たとえば、「品川でおすすめのカフェを教えてください」と聞いて新橋のお店が出てきたり。特定の場所に関する答えは得意じゃないようだ。
ChatGPTが答えを間違えると、よくバッシングされる。これはきっと、「AIなんだから間違えるわけがない」と世間的に思い込まれているから。
ChatGPTは人間が作り、管理しているもの。だから当然、間違いはある。
人から聞いた話だって間違えていること、よくあるよね。言われてみればそうだ。
私も無意識に「AIは間違えるわけない」と思い込んでいた。
最終的に、自分が「正しいこと」を判断できるかどうか
だから、間違えていることを「間違えている」と判断しないといけない。これはファクトチェックと呼ばれるが、ここで落とし穴。
そもそも自分でもよくわからないをChatGPTに聞いても、合っているかどうか人間が判断できなきゃ意味がない。
ほお〜〜〜、なるほど。目から鱗だった。
何でもかんでもChatGPTにおんぶにだっこじゃダメなのね。
壁打ちしたいとき、コーチングされたいとき、思考に行き詰まったとき。
相談してみようかな、くらいの気持ちで使えると、いい距離感でChatGPTと付き合えるかもしれない。
この記事が気に入ったらサポートをしてみませんか?