医療用AIが生み出す余計な問題
僕が医者の仕事で主にやっていることは、レントゲンなどを見て病気を当てる診断の仕事です。
CNNが出た時これをAIで行うモデルを、みんなが作ろうとしていました。
もう5、6年経って音沙汰なくなっていますが、最近(と言っても半年ほど前)の事情と、みんながやりたいことと、その結果生み出される余計な問題について解説します。
この5、6年で見えてきた限界
レントゲンの診断のAIはもうエルピクセルという会社などで実用化しています。
で、次はCT,MRIなどの断層写真です。
これらは、体を輪切りにして、多数のスライスにするものです。
3次元の情報を二次元にして異常を発見したり、その異常が何かを判定します。
CNN(畳み込みニューラルネットワーク)で、画像認識が格段に進歩してから、
断層写真をAIで判定させるモデルができれば、医者いらずという話が出てきたのが、
6年ほど前です。
その頃、NVIDIAの営業担当者に聞いたところでは(日本支社に乗り込んだ時がありました)、
マサチューセッツ総合病院(だったと記憶しています)が、全領域の利用画像の教師ありデータを収集している、ということでした。
それから、レントゲン以外での診断AIは、一向に聞いたことがありません。
厳密にいうと、肺のできものを診断するAIはありますが、
全範囲を診断する人間の代わりとなるようなAIモデルは聞いていません。(あったら、教えてください)
学会の話を見ていても、おそらく無理じゃないかとわかったんだと思います(後述するFujiFilmの営業担当者も、明言はしなかったですが、明らかに。)
経緯:FujiFilmの医療用AIプラットフォームについて問い合わせ
僕がFujiFilmの医療用AIプラットフォームに興味があったのでサービスローンチ前に直接聞きました。
https://synapse-creative-space-jp.fujifilm.com/
なぜ興味があったかというと、
性能が良ければ、自分で作ったAIモデルの買取をするというビジネスモデルと伺ったからです。
業界のAIモデルの買収
なぜAIモデルの買取をしているかというと、
汎用のAI(全範囲を診断できるAI)ではなくて(多分無理なのでしょう)、部分的に診断できるAIモデルの開発に注力しているからとのことで、
エルピクセル、オリンパスをはじめとして、医療機器メーカーが、各社AIモデルの取得と、その商品化を進めていてしのぎを削っているとのことです。
部分的に診断できるとは、例えば「盲腸」で知られる虫垂炎を診断できるAIとかですね。
想像ですが、CTのモニター上で、虫垂のあたりにAIのウィンドウを持っていき、そこでポチッとスイッチを押すと、虫垂炎の確率が出る、みたいなものでしょうか?
あるいは、虫垂が腫れているところを四角で囲んでくれる異常検知タイプのモデルや、それらの組み合わせでしょうかね。
つまり、診断のアシストで使われるというのです。
AIモデルがサービスになるまで
では、気になるその買取お値段はというと、「わからない」とのことでした。
当時聞いた話で、プラットフォームの使用量が月々10万円くらいで、
論文化して、PMDAを通して(数年)、ローンチして、性能評価して(数年)、でやっとサービスがちゃんと動くレベルになるらしいです。
医療用AIの商品化ってこんなに時間がかかるんですね、当たり前ですが。
おまけ1:FujiFilmの医療用AIプラットフォームについて
ここからおまけですが、
このプラットフォーム、モデルの取り出しはできないんですよね(え?!)
どちらかというと、アノーテーションツール(ここに病気があると指定することで、教師データになる)みたいなものです。(矩形や領域指定などができました)
モデルの作成は、半自動で行われ、ハイパーパラメータなどは調整できないとのこと。
では、インフラは何を用いているかというと、Azureだとのとこです。
おまけで、僕の感想ですが、
そもそも、モデルを作ろうと思っている人間は、ある程度コードを書けるし、作れる人間ですよね。
Google Colabや他のサービスを使えば、これより安くできるのは絶対に気付きます。絶対に。
月10万円のサブスク取っておいて、モデルは取り出せないわ、細かいパラメータ、ニューラルネットワークのカスタマイズはできないわで、何の意味がかるのかなって思っていました。
コードも書いたことないけど、とりあえず論文や学会発表のためにAIモデル作りたい!という無成長おっさんのためであれば、、、カスタマイズの余地がないので、性能が良くならず、データが無駄になる(ついでにGPUの電力も)可能性があると思います
担当者にもその雰囲気が伝わってしまい、ちょっと重い空気になりました。
「研究機関を想定しています」なるほど、ガチでAIモデルを作りにいく人には、確かに高いし、使いづらいですね。そっちのビジネスモデルなんでしょう。
おまけ2:現場の意見と僕の意見
さらにおまけですが、
虫垂炎のAIを作ったとして、使えるのか問題があります。
そもそも、虫垂炎なんて3次救急でも毎日くるような病気じゃありません。
そんなに頻度がないんですよ。
虫垂炎、肺の結節(できもの、腫瘍)のAIをまとめたプラットフォームを作り、それを病院に契約してもらうと言っていましたが、
人雇った方が安いですし、ポンコツの医者でなければ幅広い疾患に対応できます(多分モデルの作成の手間を考えると、ネットフリックスみたいな値段にはなりません)
あと、数年前の国立がんセンターでの肺の結節のAIの使用経験について、学会発表がありましたが、記憶が正しければ、1件あたりAIに仕事させると、20分かかるとのことでした。想像ですが、これ、いつやるんでしょうか、夜でしょうか。人間+AIのチェックで余計に時間がかかっていると思うんですが。(使っている本人は自覚ないかも)
誰でも思いつきますが、虫垂炎の確率90%と表示されたら、人間はどうやって判断に利用すればいいんでしょうか?残りの10%は難治性の虫垂粘液腫(良性だけど悪性っぽい腫瘍)、異常なしということかもしれません。「虫垂炎です」と言って違ったら、「AIがそう言ってたんで!」と外科医に言い訳すればいいですか?(会社はそこ、ちゃっかり免責事項に書いてあるはずですよ)
※あと、「病気が虫垂にあるかもしれない」と予想していないと、そもそも使うことすら思いつきません。
また別の機会に詳しく解説しますが、確率の数字を1通りの意思決定に落とし込むのは、いろんな論理的な飛躍をスキップしていると思います。
確率で表記しておけば、人間の意思決定のアシストができると安易に思ってしまうと、現実世界の問題解決に役立たないどころか余計な問題が発生してしまうかもしれません。
多分、技術の応用の方向がまちがえていると思います。