見出し画像

Large Language Models and Control Mechanisms Improve Text Readability of Biomedical Abstracts

本研究の学術的背景は、生物医学文献が複雑な言語と専門的な用語を使用し、一般の読者にとってアクセスが難しいことです。研究課題の核心をなす学術的「問い」は、「大規模言語モデル(LLMs)を用いて、生物医学の抄録を簡略化し、一般の読者にとって理解しやすい形にすることは可能なのか?」ということです。

本研究の目的は、最先端のLLMsの生物医学抄録の簡略化タスクに対する能力を調査することです。その学術的独自性と創造性は、公開されている生物医学抄録の平易な言葉への適応データセット(PLABA)を使用し、エンコーダ・デコーダモデル、GPTモデル、BARTベースのモデルに対する制御トークンメカニズムなど、さまざまな手法を適用して調査を行った点にあります。

本研究の着想は、生物医学文献が一般の読者にとって理解しにくいという問題から得られました。この問題は、公衆の健康リテラシーを向上させるためには、生物医学文献を簡略化することが重要であるという認識に基づいています。本研究は、この課題に対する新たな解決策を提供します。

本研究では、最先端のLLMsの生物医学抄録の簡略化タスクに対する能力を調査しました。具体的には、エンコーダ・デコーダモデル、GPTモデル、BARTベースのモデルに対する制御トークンメカニズムなど、さまざまな手法を適用して調査を行いました。自動評価指標と人間による評価を用いて、各モデルの性能を評価しました。

本研究の有効性は、自動評価指標と人間による評価を用いて検証しました。具体的には、BART-Large with Control Token(BARTL-w-CT)メカニズムが最高のSARIスコアを、T5-baseが最高のBERTscoreを報告しました。また、人間による評価では、BARTL-w-CTがT5-Baseよりも良い簡易性スコアを、T5-BaseがBARTL-w-CTよりも良い意味保存スコアを達成しました。

いいなと思ったら応援しよう!