要約
音声英語学習者向けの教育フィードバック生成データセット「SPFG」が新たに構築・公開された SFT・DPO・KTOの3手法でLLMを比較評価した結果、SFTが最も安定した性能向上を示した 文法訂正と学習者適応フィードバックの同時生成を実現し、語学教育AIの実用化に道を開く
公式ソースだけを集めたAI最前線(日本語要約)
Listen, Correct, and Feed Back: Spoken Pedagogical Feedback Generation
音声英語学習者向けの教育フィードバック生成データセット「SPFG」が新たに構築・公開された SFT・DPO・KTOの3手法でLLMを比較評価した結果、SFTが最も安定した性能向上を示した 文法訂正と学習者適応フィードバックの同時生成を実現し、語学教育AIの実用化に道を開く
本論文はSpeak & Improve Challenge 2025コーパスを基に、音声英語学習者向けの教育的フィードバック生成データセット「SPFG」を構築した研究である。流暢性重視の転写テキスト・文法訂正ターゲット・人間が検証した教師スタイルのフィードバックをペアリングし、選好/棄却フィードバックペアも含む選好学習対応の構成となっている。SGEC(音声文法誤り訂正)タスクにてQwen2.5・Llama-3.1・GLM-4の3モデルを評価し、SFT(教師あり微調整)とDPO・KTO(選好ベースアライメント)を比較した。実験結果ではSFTが最も安定した改善をもたらし、DPO/KTOは改善が不安定であることが判明。GPT-4oなどの大規模モデルとも比較し、専用ファインチューニングの優位性を検証している。実用面では、学習者がすぐ行動に移せる・習熟度に適した・励ましを含むフィードバックを自動生成できるようになり、大規模語学教育支援のスケールアップに貢献する。