要約
研究チームがLLMを用いたスキーマ適応型表形式学習手法を発表し、認知症診断で最高性能を達成。 異なるデータセット間で構造が異なる表形式データを自然言語変換しセマンティック埋め込みに変換する技術。 NACC・ADNIの複数データセットをまたいだ汎化性能を実現し、医療AIの実臨床応用を前進させる。
公式ソースだけを集めたAI最前線(日本語要約)
Schema-Adaptive Tabular Representation Learning with LLMs for Generalizable Multimodal Clinical Reasoning
研究チームがLLMを用いたスキーマ適応型表形式学習手法を発表し、認知症診断で最高性能を達成。 異なるデータセット間で構造が異なる表形式データを自然言語変換しセマンティック埋め込みに変換する技術。 NACC・ADNIの複数データセットをまたいだ汎化性能を実現し、医療AIの実臨床応用を前進させる。
本論文はEHRスキーマの多様性という課題に対し、Schema-Adaptive Tabular Representation Learning(SATRL)を提案する。従来の機械学習では表形式データのスキーマが異なると再学習や手動特徴エンジニアリングが必要だったが、本手法では構造化変数を「患者の年齢は75歳である」のような自然言語文に変換し、事前学習済みLLMでエンコードすることで転移可能な埋め込みを生成する。この仕組みにより、未知のスキーマへのゼロショット転移が可能となる。さらにMRIデータと組み合わせたマルチモーダルフレームワークを構築し、認知症診断タスクに適用した。NACCとADNIという代表的な2大データセットでSOTAを達成し、片方で学習したモデルが他方へゼロショット転移できることを実証した。GPT-4oやClaude等の汎用LLMとの直接比較は示されていないが、既存の表形式学習手法を上回る性能を報告している。異なるEHRシステム間で再学習なしに適用できる点は、実臨床への展開において大きな実用的意義を持つ。