AIフロントライン

公式ソースだけを集めたAI最前線(日本語要約)

arxiv-cs-ai 2026-04-17 04:00 ★3

SAGEA、逆推論搭載の多言語LLM「Celer 2.6」を公開

SAGE Celer 2.6 Technical Card

LLM 多言語モデル マルチモーダル 推論強化 南アジア言語

要約

SAGEAが5B/10B/27Bの3サイズ展開する汎用LLM「Celer 2.6」を公開した。 逆推論(IR)パイプラインによる自己検証機構で幻覚や連鎖誤差を低減する設計が特徴。 ヒンディー語・ネパール語向け独自トークナイザを搭載し、南アジア市場への展開を狙う。

解説・分析

SAGE Celer 2.6はSAGEAが開発した汎用LLMシリーズの最新版で、5B・10B・27Bの3サイズを提供する。最大の特徴は「逆推論(Inverse Reasoning: IR)パイプライン」で、モデルが自身の推論経路を事後検証することで連鎖的な誤りやハルシネーションを抑制する仕組みを採る。これはChain-of-Thought系の外部検証と異なり、学習段階からネイティブに組み込まれる点が新しい。マルチモーダル機能についても、アダプタ経由で視覚情報を接続する一般的な手法(LLaVA型等)を避け、エンドツーエンドの視覚エンコーダを統合することでモダリティ間の情報損失を抑える設計を採用している。ベンチマーク(ACUMEN)では数学・コーディング・汎用知識で競争力を示す。GPT-4oやGeminiとの比較データは抜粋には含まれていないが、特筆すべきは南アジア言語への注力で、デーヴァナーガリー文字向けカスタムトークナイザにより英語性能を犠牲にせずヒンディー語・ネパール語を強化した点は、既存主要モデルが手薄な領域への実用的貢献として評価できる。

関連する読者

開発者 研究者 ビジネス