ChatGPTとこれからの医療
シリコンバレーでエンジニアをしている旦那さんが「ChatGPTがすごい!」と言い出した数日後
日本語のニュースやSNSでも「すごい!すごい!」と言われ始め、瞬く間に話題に。
私も専門とする分野で、何個か質問を投げかけてみると
正確さに欠けるところもあるが
Google検索をするよりもはるかにまとまった回答が返ってくる。
そういう印象を受けた。
それからしばらく時間が経ったが
この記事では、ChatGPTが出した二つの結果とともに、これからの医療への関わりについて考えてみる。
1. ChatGPTは日本医師国家試験にも合格
2023年3月24日に下記ニュースを読んだ。
この段階では正解率が55%と、惜しくも合格には至らなかったが
次に発表されたGPT-4では、無事合格、しかも5年分も合格したようだ。
医学部の教育というものは
学年が上がるにつれ、暗記する量が膨大になってくる。
もはや考えるよりも、覚えなければいけない。
覚えるためには理解しないといけない、という説もあるが
いくら理解していても、覚えていないと試験にパスできないのだ。
期末試験は、科ごとに覚えていればいいが
卒試や国試は全ての範囲から、まんべんなく出る。
まんべんなく、全て覚えないといけない。
そうでないと、医師になれないのだ。
でも「本当に全部覚えないといけないのか?」と疑問を抱くようになったのは
研修医になってから。
だって病院の至るところに本が転がっていて
さっと調べることができれば、何の問題もないからだ。
そして今ではスマホでちゃちゃっと調べられる。
本当に全て覚える必要があるのか?
その当時覚えたとしても、数年経つと専門とする科以外のことは
どんどん忘れていく。
しかし一方、奴ら(AI)は忘れないのだ。
記憶という点では、AIに勝てない。
ではもっと他のところに頭を使うべきではないのか?
2. 医師はもはや共感という点でも、ChatGPTに負けた
4月末にJAMAから出た、今話題の論文
なんとなくそんな気もしていたが、なんとなく虚しい結果。。。
医師って、人によって説明にばらつきがあるし
特にアメリカのかかりつけ医は知識にも差がある、と言わざるを得ない。
更に寝不足だったり、疲れてたりしたら
診断能力も鈍るし、説明はしょりそうだし
共感とか、傾聴とか、寄り添いとか
少なくなってしまう。
(そもそも共感力、寄り添い力ない説あり)
でもChatGPTにたとえば「それは辛かったですね。」と言われたときに
人はどう感じるのであろうか?
友人のこの記事を読むと
コーチングにおいて、共感的な反応というのは
・現時点で人間のほうが上手にできること
・人間が行ったほうが効果が出ること
に分類されているが
それはあくまでも
・人工知能には感情がないはずである
・この共感的な反応は、本当の共感によるものではない
と考えている上で起こること、と書かれている。
では、人間が答えているか、AIが答えているかが
全くわからない、テキストベースだとどうなるのだ?
やっぱりもう負けちゃうのかな?
一問一答なら、負けちゃうってことなんでしょうね。
3. AIとこれからの医療
私は放射線科医で、自身もAIプロジェクトに携わっている。
「なんで将来自分の仕事がなくなるようなことやっているの?」と
旦那さんにからかわれたこともあるが
マンモグラフィーのフィールドでは、AIはまだまだである。
でも日々AIに今後頑張って欲しい、と思っている。
なぜなら、画像診断の仕事が多すぎて大変だから。
読んでも読んでも追いつかない。
「自分の仕事が将来なくなるかも」と本当に恐れている医師はいないと私は予想する。
そもそも、このJAMAの研究も背景に
医療従事者の仕事量が多くて、燃え尽き症候群(バーンアウト)が増えていることがあり
これを減らすために、AIが活用できないか?
というところがスタート。
AIアシスタントを上手く活用して、医師のバーンアウトが減り
しかも患者さんも共感してもらえた、と思えるのなら
win-winである。
特にアメリカは、医師、患者間のメールのやりとりも頻繁なので
メールはもう人間なのか、AIなのかわからない感じでやってしまえば
いいのだろうけれど
対面の診察で、相手の表情をくみ取ったり
寄り添う表情を出せるのは、人間だからこそできること。
膨大な医学情報のアシスト
テキストベースの質問や、やり取り
はAIに手伝ってもらいながら
人間の能力とAIの能力とを上手く組み合わせていけたらいいなぁ
っていう大してまとまっていない記事だったけど
終わり!!!
▶︎質問、お問い合わせはこちらから