ChatGPTの画像診断能力
📖 文献情報 と 抄録和訳
放射線科医の筋骨格系放射線診断の診断能力と比較した、テキスト情報と視覚情報に基づくChatGPTの診断能力
[背景・目的] 骨軟部放射線領域の画像診断症例106例を対象とし、①GPT-4-based ChatGPT、②GPT-4V-based ChatGPT、放射線科医(③放射線科専攻医、④放射線診断専門医)の診断精度を比較すること。
[方法] 2014年1月から2023年9月までの間、骨格放射線医学の「Test Yourself」症例106例を対象とした。 病歴および画像所見をGPT-4ベースのChatGPTに入力し、病歴および画像をGPT-4VベースのChatGPTに入力し、それぞれの症例について両者が診断を生成した。2人の放射線科医(放射線科レジデントと認定放射線科医)が、すべての症例について独立して診断を行った。診断精度率は、公表されている基準値に基づいて決定した。カイ二乗検定を行い、GPT-4ベースのChatGPT、GPT-4VベースのChatGPT、放射線科医の診断精度を比較した。
[結果] GPT-4ベースのChatGPTは、GPT-4VベースのChatGPTを大幅に上回り(p < 0.001)、それぞれ43%(46/106)と8%(9/106)の精度率を示した。放射線科専攻医と放射線科専門医の診断精度はそれぞれ41%(43/106)と53%(56/106)であった。GPT-4ベースのChatGPTの診断精度は放射線科レジデントの精度とほぼ同等であったが、認定放射線科医の精度には及ばなかった。ただし、その差は有意なものではなかった(それぞれp=0.78および0.22)。GPT-4VベースのChatGPTの診断精度は、両方の放射線科医の診断精度よりも有意に低かった(それぞれp < 0.001および < 0.001)。
[結論] GPT-4ベースのChatGPTは、GPT-4VベースのChatGPTよりも有意に高い診断精度を示した。GPT-4ベースのChatGPTの診断性能は放射線科レジデントと同等であったが、整形外科放射線学における専門医のレベルには達していなかった。放射線科医は、ChatGPTの現在の性能を理解した上で、最適な利用を検討する必要がある。
🌱 So What?:何が面白いと感じたか?
多くの医療者、リハビリテーション職は、ChatGPTをはじめとする人工知能に対して、上のような感覚を持っているのではないだろうか。
なぜ、このような状況になってしまうか。
その一因は、ChatGPTに何ができて、何ができないか(難しいか)、という部分が明確になっていないからだ。
そもそも、自分の仕事にどのような領域があって、どの領域にはChatGPTが使えそうで、どの領域には使えなさそうなのか、その部分を知る必要性もある。
要は、ChatGPTと自分自身の仕事の親和性を明らかにすることである。
今回の抄読研究は、その仕分けにおいて役立つ研究だった。
現時点では、ChatGPTは画像読影、画像診断自体は得意ではなく、むしろテキストベースの読影結果から診断を推測していくことが得意であることが明らかとなった。
リハビリテーションの臨床業務の1つに画像読影から症状や予後を予測したり、治療上注意が必要な部分を推測したりすることがある。
その部分に対して、ChatGPTの役割としては、以下のようなことが現時点では望ましいのかもしれない。
ただし、これも現時点でのことだ。
本来、画像読影やパターン解析は深層学習の最も得意とする領域の1つであるはずだ。
すぐに、ChatGPTによって精度の高い画像読影、画像診断が可能となる日が来るだろうと思う。
暴れ馬の尻尾を掴んでいるような心境である・・・、振り落とされないようにしたい。
⬇︎ 関連 note & 𝕏での投稿✨
⬇︎ ChatGPTに関する著書紹介✨
⬇︎ 自身初のYouTube出演予定✨
「セラピストのためのChatGPT活用ガイド」の見どころを『12月19日』に解説します。
・chatGPTって何?
・セラピストとの親和性はあるの?
・実際に使ってみて効率はどう変化したの?
をテーマに紹介する予定です。
○●━━━━━━━━━━━・・・‥ ‥ ‥ ‥
良質なリハ医学関連・英論文抄読『アリ:ARI』
こちらから♪
↓↓↓
‥ ‥ ‥ ‥・・・━━━━━━━━━━━●
#️⃣ #理学療法 #臨床研究 #研究 #リハビリテーション #英論文 #文献抄読 #英文抄読 #エビデンス #サイエンス #毎日更新 #最近の学び
#️⃣ #人工知能 #ChatGPT #リハビリテーション #リハビリ #理学療法 #作業療法 #言語聴覚療法 #PT #OT #ST