知識競合
要約済み 1
-
arxiv-cs-ai 5時間前 3RAGでLLMの脆弱性分析精度を向上、幻覚も抑制Tug-of-War within A Decade: Conflict Resolution in Vulnerability Analysis via Teacher-Guided Retrieval-Augmented Generations
LLMによる脆弱性(CVE)分析の知識競合・陳腐化を解決するRAGフレームワーク「CRVA-TGRAG」が発表された。 教師モデル誘導型の2段階アーキテクチャにより、CVE検出精度の向上と誤情報生成の抑制を同時に実現。 セキュリティ分野でのLLM実用化における信頼性課題に対し、具体的な解決策を提示する研究として注目される。
解説 本論文は、LLMがサイバーセキュリティ分野で抱える「知識競合」問題を解決するフレームワークCRVA-TGRAGを提案する。過去10年間で20万件超の脆弱性が発見され、うち3万件以上が更新・変更されているため、LLMの学習データと最新情報の間に乖離が生じやすい。この乖離により、LLMは古い知識に基づいた誤情報や幻覚(もっともらしいが不正確な出力)を生成してしまう。提案手法は2段階構成で、第1段階では文書検索精度を向上させ、第2段階では「教師モデル」が生成プロセスを誘導することで知識競合を解消する。教師モデルは最新のCVE情報を参照しながら生成モデルを補正する役割を担う。実験では、GPT-4oやClaude、Geminiといった主要LLMと比較し、CVE分類・解析タスクにおいて精度・一貫性の両面で優位性を示したとされる。実用上の意義は大きく、頻繁な再学習なしに最新脆弱性情報へ追従できる点がセキュリティ運用の効率化に貢献する。