A Framework for Interpretability in Machine Learning for Medical Imaging
1 本研究の学術的背景は、医療画像における機械学習モデル(MLMI)の解釈可能性についての研究です。しかし、解釈可能性が何を意味するのかについては一般的に不明確な感覚があります。本研究の核心となる学術的「問い」は、なぜMLMIの解釈可能性が必要なのか、そして解釈可能性が必要とされるときに何を達成しようとしているのか、ということです。
2 本研究の目的は、MLMIの解釈可能性の目標と要素を形式化することです。学術的な独自性と創造性は、医療画像解析とその機械学習との交差点における現実のタスクと目標について推論し、解釈可能性の四つの核心要素(局所性、視覚的認識性、物理的帰属、透明性)を特定することにあります。
3 本研究の着想は、医療画像分野で解釈可能性、説明可能性、透明性といった概念がどのように使用されるべきかについての一般的な不明確さから来ています。多くの研究が特定のアプローチを「解釈不能」であり、したがって劣っていると主張し、他の研究が解釈可能性を増加させると主張していますが、共通に合意できる形式化がありません。本研究は、この問題を解決するために、MLMIの解釈可能性について考え、動機づけ、研究、検証、議論するための形式的なフレームワークを導入することを目指しています。
4 本研究では、医療画像解析とその機械学習との交差点における現実のタスクと目標について推論し、解釈可能性の四つの核心要素(局所性、視覚的認識性、物理的帰属、透明性)を特定しました。これらの要素を既存の文献に結びつけ、既存の方法を再構築することで、解釈可能性の全体的な制限と可能な未来の探求方向について議論しました。
5 本研究の有効性は、提案した解釈可能性の要素が現実のタスクと目標から派生していること、そしてこれらの要素が既存の文献と結びついていることを示すことで検証しました。