Exploring Large Language Models for Ontology Alignment
本研究の学術的背景,研究課題の核心をなす学術的「問い」は?
ウェブ上ではさまざまなデータが「オントロジー」(概念体系)という形で整理・表現されています。しかし、膨大な情報が分散しているため、異なるオントロジー間の概念の対応関係を見つけることが難しいという問題があります。この問題を解決するためには、「オントロジーのマッチング(OM)」が必要となります。この研究の核心的な問いは「最新の大規模言語モデル(LLMs)を活用して、オントロジーのマッチングをはかることは可能なのか?」ということです。
本研究の目的及び学術的独自性と創造性は?
本研究の目的は、比較的新しい大規模言語モデル(LLMs)がオントロジーのマッチングに有効活用できるかを調査することです。また、具体的にはGPTやFlan-T5といったLLMsを利用し、「ゼロショット学習」(学習データなしで一から問題を解く手法)を用いてオントロジーのマッチングを試みています。これまでにもBERTやT5のような言語モデルを用いた研究はありますが、より大規模で高性能なLLMsの可能性を探ることが本研究の独自性と創造性です。
本研究の着想に至った経緯や,関連する国内外の研究動向と本研究の位置づけは?
オントロジーのマッチングという課題は、知識表現や知識工学、セマンティックウェブなどの研究分野で重要なテーマとなっています。また、過去にはBERTやT5といったプリトレーニング済みの言語モデルを使った研究が行われてきました。しかし最近では、より大規模な言語モデル(LLMs)が登場し、それらを活用したオントロジーのマッチングについて調査するほうが有益であるという認識から、本研究の着想を得ました。本研究は、新たな大規模言語モデルを用いたオントロジーのマッチングの可能性を探り、その性能を評価する点で、最新の研究動向を反映しています。
本研究で何をどのように,どこまで明らかにした?
大規模言語モデル(LLMs)の一つであるFlan-T5-XXLとGPT-3.5-turboを用いて、二つの異なるオントロジー間の概念の対応関係の照合を試みました。その結果、これらのモデルが既存のオントロジーのマッチングシステムであるBERTMapを上回る性能を示す可能性があることが示されました。ただし、それにはフレームワークや問題提示設計の工夫が必要であることがわかりました。
本研究の有効性はどのように検証した?
本研究では、NCIT-DOIDとSNOMED-FMAという二つのオントロジー対を含むBio-MLというデータセットを使用して実験を行いました。また、性能の比較対象(ベースライン)として、既存のオントロジーマッチングシステムであるBERTMapとその軽量版のBERTMapLtを使用しました。Flan-T5-XXLの他にもGPT-3.5-turboで初期のテストも行い、その初期の結果も報告しました。
この記事が気に入ったらサポートをしてみませんか?