SAGEA、逆推論搭載の多言語LLM「Celer 2.6」を公開
SAGE Celer 2.6 Technical Card
LLM
多言語モデル
マルチモーダル
推論強化
南アジア言語
要約
SAGEAが5B/10B/27Bの3サイズ展開する汎用LLM「Celer 2.6」を公開した。
逆推論(IR)パイプラインによる自己検証機構で幻覚や連鎖誤差を低減する設計が特徴。
ヒンディー語・ネパール語向け独自トークナイザを搭載し、南アジア市場への展開を狙う。
無料登録でニュースレターを受け取る
毎週AIニュースのTop5をお届けします(無料)
無料登録 →
Proプランで深掘り分析・全アーカイブを読む
月額300円 / 年額2,400円 / Founding Member 5,000円(買い切り)
Proプランを見る →
原文を読む →
https://arxiv.org/abs/2604.14168
SAGE Celer 2.6はSAGEAが開発した汎用LLMシリーズの最新版で、5B・10B・27Bの3サイズを提供する。最大の特徴は「逆推論(Inverse Reasoning: IR)パイプライン」で、モデルが自身の推論経路を事後検証することで連鎖的な誤りやハルシネーションを抑制する仕組みを採る。これはChain-of-Thought系の外部検証と異なり、学習段階からネイティブに組み込まれる点が新しい。マルチモーダル機能についても、アダプタ経由で視覚情報を接続する一般的な手法(LLaVA型等)を避け、エンドツーエンドの視覚エンコーダを統合することでモダリティ間の情報損失を抑える設計を採用している。ベンチマーク(ACUMEN)では数学・コーディング・汎用知識で競争力を示す。GPT-4oやGeminiとの比較データは抜粋には含まれていないが、特筆すべきは南アジア言語への注力で、デーヴァナーガリー文字向けカスタムトークナイザにより英語性能を犠牲にせずヒンディー語・ネパール語を強化した点は、既存主要モデルが手薄な領域への実用的貢献として評価できる。