製薬会社の社員がRecSys2024に参加してきた


0. 想定読者

  • RecSysに興味がある方

  • 製薬会社でデータサイエンス業務に取り組まれている方

  • 推薦システム×ライフサイエンスに興味がある方

1. はじめに

初めまして。某製薬会社でデータサイエンティストをしているparfait(パルフェ)と申します。この記事をご覧いただきありがとうございます。
Xアカウント

最近物覚えが悪くなってきたので、自分の日記としてnoteを始めることにしました!最近サボり気味ですが技術記事は別途Zennに投稿しておりますので、noteには主に参加したイベントの感想を中心にまとめていく予定です。
Zennアカウント

2. RecSysって何?

推薦システムのトップカンファレンス。学会(カンファレンス)と聞くとアカデミアが中心のイベントに思われる方が(特に製薬会社勤務の方に)多いかもしれませんが、むしろ約6割が企業からの参加者である点が特徴の一つとなっています。今回私が会場でお会いした日本人の方の多くも社会人(メルカリ、サイバーエージェント、その他たくさん)でした。また、企業所属のデータサイエンティストや機械学習エンジニアの発表も多く、データサイエンスの発表だけでなく、データ基盤周りの話もあり、データエンジニアや機械学習エンジニアにとってもとても興味深いセッションが多いです。

3. なんでRecSys?

KDDやAAAI、ACL、NeurIPSのような機械学習や自然言語のトップカンファレンスでなく、なぜRecSysに参加したのか?

製薬×推薦システムが生み出す価値を議論したかったから

現在の所属企業で私が経験した推薦システムのアルゴリズムを使用した分析・プロダクト開発はたった1件です。テーブルデータの回帰や分類、自然言語や画像を使ったユースケースが圧倒的に多いです。そもそも推薦システムと製薬会社(※医療用医薬品の製造販売業者を指すこととする)は、相性があまり良くないと感じています。もちろん、患者さんがアクセスする自社医薬品の情報や各種資材を推薦するユースケースや、医師や薬剤師の属性情報と各種イベントへの参加履歴などを使った自社イベントの推薦(あるいは資材の推薦)などは十分可能だと思います。ただ、自社医薬品を患者に推薦することにおいては以下の理由で非常に難しいと言わざるをえません。

  1. 製薬会社の売り物である医療用医薬品は、その広告行為が薬機法で厳しく規制されているため。

  2. 製薬会社は自社の医薬品を直接患者本人に販売しません。多くのケースは、病院に自社医薬品を採用してもらって、医師が患者に処方して初めて患者のもとに医薬品が届くのです。つまりB to B to Cの業態と考えることができ、B to Cと比べて推薦そのものの価値や推薦の効果検証可否・難易度が大きく異なります。

  3. きわめてクリティカルなのが「治療方針や治療内容を推薦で決めてよいのか?(決めれるのか?)」という問題です。治療は原則各疾患ガイドラインに準拠しており、推薦できる許容範囲がかなり限定的で、推薦システムの出番は非常に少ないように思われます(海外の論文で、医師の判断のほうがAIより正確、というものを複数見た記憶もあるし、治療行為の推薦に補助システムとしてAIを使う必要性がかなり限定的だと考えています)。

以上を理由に、私個人としては製薬会社と推薦システムの相性は微妙だと感じています。

一方で、先行研究で以下の論文を見つけました。

「やはり現実で医療分野における推薦システムの事例は限られている」「精度の問題が大きそう」「対象疾患は果たしてAIを使わなければ治療選択が難しい領域なのだろうか?」といった疑問は残りましたが、この分野における研究が現在も行われている事実に自分の見識の狭さを感じました。そして製薬×推薦システムの議論をしてみたいと思うようになり、医療全体に関わるユースケースで「こういったケースで推薦システムってどうなの?」と議論できる相手や事例を探すために、世界中のトップサイエンティストが集まるRecSysに参加したわけです。

4. で、RecSysどうだった?

先に結論を言っておくと面白かったですが、それは個人的な感想であり、製薬企業の一員としてはRecSysに継続的に参加する強いMotivationは湧かなかったです。多くの先進的な研究に触れ、多くの研究者たちと議論することで製薬×推薦システムに未来を感じたかと言われると、むしろ可能性は低いなと感じました。おそらく推薦システムの技術で取り組める問題もあるとは思いますが、決して推薦システムの技術がベストであるケースは稀だと思いました。結局、医療用医薬品を取り扱うビジネス形態であったり、医療という倫理的にも規制的にも厳しい世界が推薦システムと相性が悪いと私の中で結論付けました。

加えて、やはり推薦システムはECサイトで圧倒的に発達しており、製薬×推薦システムを真剣に研究するトップサイエンティストが少ないことも、製薬×推薦システムがなかなか発達しない原因だと感じました。事実として、製薬企業の参加者は少なくとも私は一人も見つけられず、またRecSys最終日のWorkshopである「The 6th Workshop on Health Recommender」も会場はガラガラで、ごく少ない参加者も食事×推薦システムに興味がある研究者が大半でした。

一方で、サプリメントや一般用医薬品、健康食品、食事内容の推薦では推薦システムが活躍するシーンは大いにあると思うので、そういった観点で面白そうなことができないかは引き続き個人のライフワークとして考えていきたいなと思っています。

5. 特に興味深かった演題

1. Effective Off-Policy Evaluation and Learning in Contextual Combinatorial Bandits

要旨:
We explore off-policy evaluation and learning (OPE/L) in contextual combinatorial bandits (CCB), where a policy selects a subset in the action space. For example, it might choose a set of furniture pieces (a bed and a drawer) from available items (bed, drawer, chair, etc.) for interior design sales. This setting is widespread in fields such as recommender systems and healthcare, yet OPE/L of CCB remains unexplored in the relevant literature. Typical OPE/L methods such as regression and importance sampling can be applied to the CCB problem, however, they face significant challenges due to high bias or variance, exacerbated by the exponential growth in the number of available subsets. To address these challenges, we introduce a concept of factored action space, which allows us to decompose each subset into binary indicators. This formulation allows us to distinguish between the “main effect” derived from the main actions, and the “residual effect”, originating from the supplemental actions, facilitating more effective OPE. Specifically, our estimator, called OPCB, leverages an importance sampling-based approach to unbiasedly estimate the main effect, while employing regression-based approach to deal with the residual effect with low variance. OPCB achieves substantial variance reduction compared to conventional importance sampling methods and bias reduction relative to regression methods under certain conditions, as illustrated in our theoretical analysis. Experiments demonstrate OPCB’s superior performance over typical methods in both OPE and OPL.
興味を持った理由:
患者に対する複数の治療法の組み合わせの選択時の評価に役立つのでは?と考えたから。Off-policy evaluation(OPE)ならコスト・倫理面でも受け入れられるし。
感想:
IPTWの話も登場し少し親近感が湧きました。ただし、医療分野でOPEが使えるのかがまだ個人的に想像できず、勉強しなけばと思いました。例えば、医療分野では最近リアルワールドデータ(RWD)を用いたバーチャル治験の検討や、観察研究が盛んに行われていますが、医療分野で新しい治療方針や意思決定を行うためにはまだまだRCTがゴールドスタンダードであり、この点をクリアできない以上OPEの価値は低いと言わざるをえません。またそもそも(基本的にガイドラインに従った治療が大半を占めているという前提を踏まえると)手元に存在するデータの中から新しいPolicyを見出せるか、という問題もある気がしています(※この考えは自信なし。OPEを勉強してから考えを改めるかもしれません)。でも聞いていて楽しかったから満足(*'ω'*)

2. Calibrating the Predictions for Top-N Recommendations

要旨:
Well-calibrated predictions of user preferences are essential for many applications. Since recommender systems typically select the top-N items for users, calibration for those top-N items, rather than for all items, is important. We show that previous calibration methods result in miscalibrated predictions for the top-N items, despite their excellent calibration performance when evaluated on all items. In this work, we address the miscalibration in the top-N recommended items. We first define evaluation metrics for this objective and then propose a generic method to optimize calibration models focusing on the top-N items. It groups the top-N items by their ranks and optimizes distinct calibration models for each group with rank-dependent training weights. We verify the effectiveness of the proposed method for both explicit and implicit feedback datasets, using diverse classes of recommender models.
興味を持った理由:
1の研究に興味を持った理由と同じで、医療の個別最適化の問題を解くときにこの知識が役に立つと思ったから。ある患者に最適なトップNの治療法や介入を提案する場面の予測精度の向上に貢献できる可能性を感じたから。
感想:
ポスターで拝見しました。確かに従来の手法だと全てのItemでCalibrationしているので、それよりは実際に推薦されやすいItemのみでCalibrationしたほうが筋が良いのでは?という考えは腑に落ちました。

3. Learning Personalized Health Recommendations via Offline Reinforcement Learning

要旨:
The healthcare industry is strained and would benefit from personalized treatment plans for treating various health conditions (e.g., HIV and diabetes). Reinforcement Learning is a promising approach to learning such sequential recommendation systems. However, applying reinforcement learning in the medical domain is challenging due to the lack of adequate evaluation metrics, partial observability, and the inability to explore due to safety concerns. In this line of work, we identify three research directions to improve the applicability of treatment plans learned using offline reinforcement learning.
興味を持った理由:
初日に別のセッションに出ていて聞けなかったDoctoral Symposiumの演題。私と似た課題感を一部持っていそうで、興味が湧いた。
感想:
OPEの誤差の問題は、もしかしたら1で紹介した論文や、RecSysでOPEの誤差の問題に言及していた別の発表があったので、そういう研究の蓄積である程度は解消できるかもしれないなと感じた。この発表のReferenceに私が課題に思っている点が凝縮されている気がしているので、ディスカッション相手としてReferenceの論文執筆者の方々が適任?兎にも角にもこのセッションに参加できなかったことが悔やまれる。

6.最後に

こんな感じで備忘録代わりに今後も学会やイベントへの参加記録を残していきます。誰かに読ませたいわけではなく、あくまで筆者のメモ代わりなので読みにくさはご容赦ください。

最後に、学会と開催地Bariの写真で締めくくろうと思います。

TutorialとWorkshopは地元の大学で、メインセッションはPetruzzelli Theaterで行われました。
Petruzzelli Theaterの入口。学会会場間違えたかと思った。
Petruzzelli Theaterのセッション会場。バルコニー席まであって、凄かった。。。
社会人が多いのがRecSysの特徴。
こちらはポスター会場。
寂しかったHealth RecommenderのWorkshop会場。
きれいな街並みでした。
特に路地の風情があって良かったです。
フォカッチャに生ハム挟んだやつ。旅行中で1番美味しかった。
ペロッ


いいなと思ったら応援しよう!

この記事が参加している募集