コーディングエージェント
要約済み 2
-
hf-blog 1日前 3ターミナル特化コーディングAI「LiteCoder」公開、ベースラインを大幅超えReleasing LiteCoder-Terminal-SFT
ターミナル操作に特化したコーディングエージェント「LiteCoder-Terminal-SFT」が30B・4Bの2モデルでオープンソース公開。 11,255軌跡のデータセットと602環境を同梱、Terminal Bench Proで30BモデルがPass@1 31.5%を達成し既存ベースラインを大幅上回る。 エージェント開発者や研究者にとって実用的なターミナルAIの構築・評価基盤となる注目のリリース。
解説 LiteCoder-Terminal-SFTは、ターミナル環境でのコーディングタスクに特化した小中規模エージェントモデルのリリース。30B(MoE構成)と4Bの2サイズを公開し、訓練データ・実行環境もオープンソース化した点が特徴。 【手法】Claude Agent SDKを活用した5段階の環境合成パイプラインにより、テキスト記述からHarform形式の実行可能な環境を自動生成。Dockerfile・参照解答・テストスイートを含む11,255軌跡(平均27.4ターン)を構築。Terminus-2(86.6%)、OpenHands(7.1%)、Claude Code(6.3%)の3種エージェントフレームワークから軌跡を収集する「マルチスキャフォールド学習」を採用。 【結果】Terminal Bench Proにて30BモデルがPass@1 31.5%(旧preview比+9.5pt)、4BモデルはQwen3-4B-Instructの3.5%に対し15.5%と大幅改善。Terminal Bench 1.0でも30BモデルがPass@1 24.38%でQwen3ベースラインの18.44%を上回る。 【意義】GPT-4oやClaudeといった大規模クローズドモデルに依存せず、4B〜30B規模のオープンモデルでターミナルエージェントの実用性を高めた実践的な貢献。RL訓練コスト削減を目指す「ワールドモデル」探索も並行して公開されており、今後の強化学習研究への布石となっている。 -
hf-blog 15日前 3Codexでモデル移植が数時間に短縮、開発者が実証How I contributed a new model to the Transformers library using Codex12 days ago•44
Hugging Face開発者がOpenAI Codexを活用し、VidEoMTモデルをTransformersライブラリに数時間で移植することに成功した。 従来は数週間〜数ヶ月を要していた作業をAIエージェントが劇的に短縮し、progress.mdによる記憶管理など実践的ノウハウも公開。 OSS貢献の障壁低下とAIエージェント活用の新たな可能性を示す事例として注目を集めている。
解説 AIコーディングエージェントが実用レベルに達したことを具体的事例で示す重要な記事。Codex(OpenAI)を用いてTransformersへのモデル貢献を自動化し、従来数週間の作業を数時間に短縮した。Claude Code等の競合ツールとの比較にも触れており、2025年12月が信頼性の転換点だったと指摘。開発者にとってはエージェント活用の具体的プロンプト設計やワークフローが参考になる。