要約
研究チームがAIエージェントのスキルをAOT/JITコンパイルで異種LLM・環境に移植可能にする「SkVM」を発表。 8モデル・3ハーネスの評価でタスク完了率+15.3%、トークン消費40%削減、最大50倍の高速化を達成。 マルチエージェント開発のコスト削減と実用化加速に大きく貢献する可能性がある。
公式ソースだけを集めたAI最前線(日本語要約)
SkVM: Compiling Skills for Efficient Execution Everywhere
研究チームがAIエージェントのスキルをAOT/JITコンパイルで異種LLM・環境に移植可能にする「SkVM」を発表。 8モデル・3ハーネスの評価でタスク完了率+15.3%、トークン消費40%削減、最大50倍の高速化を達成。 マルチエージェント開発のコスト削減と実用化加速に大きく貢献する可能性がある。
SkVMは、LLMエージェントの「スキル」(タスク手順を記述した自然言語の知識パック)を「コード」、LLMを「異種プロセッサ」と捉えたコンパイル・ランタイムシステムである。110,000件超のスキルを分析した結果、スキルとモデル・ハーネス・環境の間に3種の不一致(モデル能力差・ハーネス差・環境依存)があることを特定。AOTコンパイルでは、26種の原始能力(Primitive Capability)でモデル能力をプロファイリングし、ギャップに応じて補完または代替実装に変換する「能力適合コンパイル」、依存パッケージを事前セットアップする「環境バインディング」、ワークフローのDAGから並列機会を抽出する「並列化抽出」を実施。JIT最適化では、繰り返しパターンのコードをLLM推論を経由せず直接実行する「コード固化」(19〜50倍高速化)と、失敗ログを基に自動再コンパイルする「適応再コンパイル」を組み合わせる。Claude Opus 4.6・DeepSeek-v3.2・Geminiなど8モデルで評価し、タスク完了率を平均15.3%向上、トークン消費を最大40%削減。小規模モデルほど恩恵が大きく、既存のSkill-Creatorより最大25%改善。