生成AI侮るべからず:佐賀の織田病院の事例
「サルも木から落ちる」ということわざがある。どうも佐賀の織田病院の事例が軽く見られているようだ。
今回は「餅は餅屋」というか、実は佐賀の織田病院の生成AI事例は業界人から見ると大したことなので、関係者ではないけれども紹介させて頂くことにしたい。
間違いではない(正解でもない)
今回の発端は、このX(Twitter)ツイートだ。これを見て、「病院は個人情報を保護することを最優先にするのか…」と思った人は、商売には向いているとは言えないかもしれない。
日経xtech誌はおろか、日本経済新聞も記事化している。よく読むと個人情報の保護を最優先とは書いていない。
それにA2000とは、NVIDIA RTX A2000である。
GPUメモリ(VRAM)は6GB… 最大でも12GBに過ぎないかもしれないけれども、GPU不足の昨今ということもあって、企業などがビジネス用に使うことも多いモデルである。A100と同じAmpereアーキテクチャだから、性能も悪くない。何より消費電力や冷却方式の点で、A100のように悩まなくても良い。見れば分かるように、一般的なGPUに必要となるPCIe電源供給が必要ない。つまり既存のデスクトップPCに空きスロットが2つ分あれば、GPUカード装着するだけで済むのだ。
それに冒頭画像のノートパソコンの一台はIntel Arc A730MというVRAMを12GB搭載したモデルだけれども、かなり幅広い用途に利用できる。104B版のCommand R Plusを使って、3万文字の小説原稿を批評することだって可能だ。最近は7B版でも侮れないので、4bit量子化版であれば、6GBのVRAMでも動かせる。
それにローエンドとはいえ、商用モデルだ。一般消費者向けのGeForceとは異なり、大抵はビジネス向けのサーバに搭載される。ちなみにA2000は商用だけあって、GeForceと異なりECCメモリを使うことが出来る。至極正当な選択肢であるのだ。
そう考えると、単純に「個人情報の保護だけ?」と不思議感が出て来る。もしかしたら関係者だからそう考えてしまうのかもしれない。なぜ関係者が気にするかというと、次のような事情があるからだ。
IT業界では知られた存在
今回は少し卑怯かもしれない。なぜなら佐賀の織田病院は、IT業界に棲息していると、「ああ、あそこか」と思う人も多い。
https://i.dell.com/sites/csdocuments/CorpComm_Docs/ja/jp/odahp_JP_2020-01-20_hi.pdf
いやね、実はVMwareとDellハードウェアの組み合わせで、事例紹介パンフレットまで存在しているのである。
そして今回は看護師の業務効率を向上させるため、引継ぎ用のデータを要約させる生成AIの実証試験に取り組むとのことだ。生成AIは100%確実な仕事を期待できないので、「アシスタント」という位置付けで利用するのは悪くないことだ。そのセオリーを着実に守っている。
ちなみに看護師が実証試験で利用するのだから、当然ながら技術者が事前に検証テストを済ませていることだろう。VRAMが6GBまたは12GBならば、検証環境も用意しやすい。特定用途向けの数B版LLM、けっこう侮ることが出来ないのである。
それに… 実は日経関連が記事化したのは5月だけれども、実は話は3月終わりから始まっていた。自分が定期購読しているクラウドWatch誌でも、4/1に記事化されている。
白状するとこの記事は忘れていたけど、A2000は業界人ならば誰でも知っている。だからこそ、逆に日経が改めて記事化したことが気になって来る。
黒幕の存在?
実は先ほどのクラウドWatch誌にあるように、OpTiMが今回のシステムに関係している。東証プライムにも上場している、従業員数400名を超える立派な存在である。
つまり個人情報を保護するためにChatGPTを使わないのかもしれないけれども、やりたいことを病院内でちゃんと出来るようなシステムや体制が組まれている。たしかに小規模かもしれないけれども、事例にしても悪くないだろう。
しかし業界人としては、今度は「生成AI(LLM)には何を利用しているの?」という点が気になって来る。そう思ったあなたは、会社概要を確認してみてほしい。主要株主に、「東日本電信電話株式会社」という名前が挙がっている。
NTT… もう分かる人には、分かって来ただろう。
NTTは日本ユーザ向けに、独自に事前学習させたtsuzumiという生成AI(LLM)を開発した。なんでも2024年3月からサービス提供を開始したとのことである。そして3月末に実証試験が発表された。もしかしたらさっそくtsuzumiが実案件に向けて提供された可能性があると考えるのは、深読みのし過ぎというものだろうか?
しめくくり
自分が三文ミステリー作家も兼業しているせいかもしれないけれども、それを抜きにしても、最近の7B版パラメータのLLMは格段に性能向上している。別に病院で要約業務に利用されても、全く不思議は無い。
それにChatGPTは4,000文字しか受け取れないけれども、今回のシステムは10万文字以上を受け取れる可能性がある。MetaのLlama 3だと8B版で1024Kトークン… つまり10万文字以上を要約対象のデータを取り込むことが可能になっている。我が小説原稿の批評にしても、Llama.cppと4bit量子化版Command R Plusの組み合わせで7万文字超を評論対象として取り込むことが可能だ。
と、言う訳で、実証試験の結果が大いに気なる次第だ。米国DellやHPEの決算報告説明会でも、数Bパラメータの特定用途向けが案件の引き合いが多いというコメントも聞いている。関係者ではない… というか競合相手かもしれないけれども、ぜひここは正式導入ということになって、さらに詳細な情報が展開されるのを期待する次第である。
さて自分も仕事して、頑張って日本の生成AI普及&活性化に貢献したいものである。
それでは今回は、この辺で。ではまた。
------
記事作成:小野谷静(オノセー)