読影レポートから自動抽出しアノテーションとして活用、AI開発効率化の可能性示す 阪大研究グループ

 医用画像を解析するAI(人工知能)アルゴリズム開発には、対象とする画像の特徴についてAIに意味付けを教える「アノテーション」作業が必須だが、この作業負担を軽減する手法が開発された。初期的な検証だが、判別精度が向上できる可能性も示唆されている。

J-MIDに登録された読影レポートから自動抽出

図1: 腹部CT画像から臓器ごとに異常検出をおこなう診断支援システム

 今回の成果を発表したのは、大阪大学大学院医学系研究科の佐藤淳哉氏(大学院生/人工知能画像診断学)、堀雅敏 特任教授(人工知能画像診断学)、武田理宏 教授(医療情報学)、木戸尚治 招へい教授(人工知能画像診断学)、富山憲幸 教授(放射線医学)らの研究グループ。

 医用画像を解析するAIの開発には、専門医がその医用画像の特徴を示す領域などについてコメントを付与する「アノテーション」作業が必須とされている。この作業には多大な時間が必要なため、多くの領域で読影医や専門医の不足が常態化するなかでも、AI開発のスピードが高まらない一因となっている。そこで研究グループは、日本医学放射線学会が医用画像を全国規模で収集した日本医用画像データベース(Japan Medical Image Database:J-MID)に着目した。J-MIDにはCT画像および放射線科医によって診療時に作成された読影所見文がセットになって大量に集められており、この読影所見文をアノテーションの代替として活用できる可能性を検証した。

図2: 読影所見文から自然言語処理により疾患情報を抽出

 まず、読影所見文から固有表現抽出や関係抽出といった自然言語処理技術を用い、特定の臓器における疾患の有無を高い精度で自動抽出した(図2)。また、CT画像からは独自のデータセットで学習させた多臓器セグメンテーション※1モデルを活用し各臓器の領域を抽出。文章から抽出した疾患情報とCT画像から抽出した臓器領域の情報を活用し、画像診断支援AIシステムを開発した。

図3: 読影所見文から抽出した大量のデータで学習することで異常検出性能が向上

 このシステムが出力した結果を、受信者動作特性曲線下面積(ROC-AUC) ※2などの指標を用いて放射線科医の診断と比較したところ、臓器ごとの異常所見の有無を予測し、5臓器平均で高い異常検出精度(ROC-AUC=0.886)を示すことが確認できた。また、現在の主流の開発手法である放射線科医によるアノテーションデータで学習した従来システムと性能を比較した場合には、学習データ300例では本研究で構築したシステムの性能が劣るものの、学習データ数を増やすことで精度の向上がみられた。最終的には、いずれの臓器においても、本研究で構築したシステムが、従来システムを有意に上回る性能を示した (図3)。

 研究グループではこの手法により、放射線科医による手動のアノテーションが不要となって効率的な学習プロセスを実現できるとしており、また腹部以外の臓器やCT以外の画像検査にも適用可能だとしている。

※1 セグメンテーション
画像に含まれる情報を認識し、ピクセル単位で複数の領域に分割する技術。本研究では臓器がCT画像のどの部分に存在するかを認識する。

※2 受信者動作特性曲線下面積(ROC-AUC)
分類モデルの性能評価に用いられる指標。横軸に偽陽性率、縦軸に真陽性率をプロットした際に得られる曲線の下の面積が1に近いほど、モデルの予測力が優れていることを示す。

論文リンク:Annotation-free multi-organ anomaly detection in abdominal CT using free-text radiology reports: A multi-centre retrospective study(eBioMedicine)