ローカルLLMの本番システムへの採用 (祝!)
暇がないので、今回はとりあえず見聞したことだけを報告。しばらく前に紹介した織田病院、商用システムとして本番稼働を開始したとのこと。
念のために申し訳あげておくと、私は本案件の関係者でも関係企業でもない。しかしネットの海を彷徨っていても、なかなかGPT-4やCoplilotといったクラウド経由のサービスではないローカルLLMで商用システムに採用されている公開事例にお目にかかることがない… 皆無に近い。
そういう意味で、無事に実証試験を経て本番稼働に至った本案件に関しては、関係者の皆さまに盛大な拍手を送らせて頂く次第である。
(私も収納場所に困っているとはいえ、20年前のVAIO廃棄処分などやっている場合ではない)
ところでローカルLLM事例を探していて、事前学習(フルスクラッチ)開発していると記憶しているKARAKURIさんの方はどうかと確認してみたら、小田CEO自ら佐賀県の織田病院の事例を紹介していた。
みんな注目しているということですかな。そもそもGPUがNVIDIAのRTX 2000とかいうVRAM/12GBで実現しているということもあるし。
さて2024年も2か月を切り、いよいよ忙しさもラストスパートになりつつある。皆さま、お体に気をつけて。ご健勝であることをお祈りする次第です。
では。
----------
記事作成:小野谷静