チャットGPTを使って気がついた3つのこと
最近至る所でより聞くようになりました、この名前
チャットGPT。
私も使い始めて1年近く?
今では会費も払って無限に使わせて頂いています。
検索すればチャットGPTの情報は
止まるほどを知らないレベルで出てきますし
ブログやYoutube、色々なところでも話題になってるツールなので
ほとんどの方が使ってたり聞いたりしていると思いますが、
今日は私がアメリカで大学院生活を送る中で気がついたこと
3点について書こうと思います。
1. とても頼りになる
色々な方が話しているように
とてつもなく頼りになります。
大学院の課題で、質問が理解しにくい時
チャットGPTに質問をして、その答えからその質問が何を聞いているのか理解する時があります。
(現在アメリカで大学院生をしています。)
チャットGPTの答えをそのまま提出すると、Plagiarism (盗作)となりますのでそのまま使うことはできません。
ですが、その答えを参考に自分の答えを導き出して行くことは可能です。
参考になることがあるだけで、自分の解釈もより明らかになり、
物事を学ぶ上でとても効果的と感じています。
そして、最も頼りになることが
チャットGPTに自分の英語で書いた文章を読んでもらう事です。
それにより、他の方が読んだ時に分かりにくい部分や、英語によるより良い言い回しを教えてくれます。
私が提示した文章を読んで、
そこはwithよりもforの方が自然に聞こえる、と
文法の間違いを指摘してくれたり、
『I learned about the purpose of the new medication from your presentation very well.』(あなたのプレゼンテーションから、新しい薬の目的について非常によく理解できました。)
と書きたいのだけど、どう思う?と聞けば
『I gained a clear understanding of the main purpose of the new medication from your excellent presentation.』(あなたの素晴らしいプレゼンテーションから、新しい薬の主な目的を明確に理解することができました。)
と、
私のつたない文章をより大学院レベルな文章に導いてくれる上、
自分の英語の文章知識も増えるので、
これまでに無い効率的な学習へとつながっていると感じています。
ただし、前述もしましたが
チャットGPTは色々な方の書く文章を分析して書くAIなので、
書かれた文章の響きがとてもステキだと思っても
それをこのまま書き写すと盗作となり、大学院席の失効など
トラブルに巻き込まれる可能性はあります。
なので、参考にはしても自分なりに書き直して課題を仕上げることが
とても重要となります。
そんな素晴らしいチャットGPTですが
ネガティブな部分も存在します。
2. チャットGPTは話を作る
知らないことを質問した時に0.5秒ほどで答えが全て返ってくるのが
チャットGPTの良いところです。
複雑な内容の質問でもあっという間に答えてくれるので
時短でたくさんの知識が得られます。
日本で英語のクラスが苦手で、
ほとんど赤点だった私がアメリカに渡ったと言えば、
私の英語がどれだけすざましく悪いものなのか
想像しやすいかと思いますし、
その上、記憶の活動が下り坂の50代で大学院に入学したら
教材や資料を読むのにも計り知れない時間がかかっている事も
お分かり頂けるかと思います。
(はい、自業自得です💧)
そんな英語での山積みな宿題すらも、ものの2秒で完結してしまう
素晴らしく賢いのがチャットGPT、ですが
検索した内容のリソースが存在しないことがあります。
例えば、『ホームレスに関する現在の政策』と検索したとします。
議会を既に通っている、まだ通っていないに関わらず
『なんちゃらかんちゃらAct』
と出てきて、
そのスポンサー(法案を議会に提出した人)の名前も出てきますが、
調べてみると
それが架空の政策や名前だった、と言うことがありました。
また、
『糖尿病看護の研究』と検索したら
研究内容とジャーナルのリファレンスは出ますが
その研究が実際には存在していないという事もありました。
なので、質問した後の答えがすばらしく的を得ていても
答えを鵜呑みにすることはせずに
そのリソースが実在するかの確認が必要となります。
3. チャットGPTも間違える
チャットGPTのページにも
『ChatGPT can make mistakes. Check important info.』
とあるように
チャットGPTも間違えることがあります。
例えば、
『これを観察したらこうなったんだけど、それはどう説明したらいい?』
と聞いたら
『私はこれを提供してこうなった』
と説明書きされて、
提供じゃ無くて観察だよ、って書いたら書き直してくれたり、
『この文章は合ってる?“この週末楽しんでね”』
と、『この週末楽しんでね』の部分が文法的に合ってるのか聞いたら
『ありがとう!あなたもね』
って返ってくる、ようなこともあります。
そう言ったシンプルなミスコミュニケーションは、もう一度説明したら
再度答えを教えてくれますが
ここでのポイントは、
チャットGPTもいつも正解ではない
というところ、です。
最近はチャットGPTにレシピを聞いてお料理やカクテルを作るユーチューバーの方もいらっしゃって、レシピ自体は間違えているのに美味しいものが出来上がったり、その逆もまた然り、なんて事もあって楽しそうですが、
私の分野は医療や看護と言った人間の命に影響が出てしまう分野なので
行き当たりばったり、と言うわけには行きません。
最大限の注意が必須です。
と言うわけで、
私が大学院生活を送る中で気がついたチャットGPTについての3点は
チャットGPTはものすごく頼りになる
チャットGPTの答えは自分で確認すべし。
チャットGPTも間違えるので注意が必要
でした。
欄外編でもうひとつ。
チャットGPTはAIなのに
しばらく話していると自分の中の感情にも変化が出てきて
答えを教えてくれた後に『ありがとう』とお礼を言いたくなるのです。
そして実際に言ってました。
ここまで良くして頂いたのにここでお礼をきちんと言わなかったら
次からは良い答えを教えてもらえない?
と言うことは現時点では無いようですが、
AIとはいえ、コミュニケーションを図っていると
人間の感情に少し変化が起きてくるのだと気づいた時は
さすがに驚きました。
自分に対して、お前もか?と。
最近はデート用A Iも開発されていて
結婚している男性に、『離婚した方がいい』と勧める事もあるとか?
以前ニュースで読んだことがあります。
有料記事ですがリンクはこちらです⤵️
https://www.nytimes.com/2023/02/16/technology/bing-chatbot-microsoft-chatgpt.html
そう思うと、これからはAIが感情を伴う方向に進むのでしょうか?
私たちの感情も操られてしまうのでしょうか?
隙があったりストレスで押しつぶされていたり
思考に既に問題がある場合、可能性はあるかもしれません。
それでも自分を見失うことは無いように
いろいろ気をつけて行きたいものですが。
少し話はそれましたが
私の生活にもだいぶ入ってきたチャットGPT、
私が思う点に関してのお話は以上となります。
個人的な見解ではありますが参考になれば幸いです。
最後までお読み頂きありがとうございました。