ファインチューニング
要約済み 3
-
hf-papers 1日前 3製造業向けMLLMベンチマークFORGEが公開、知識不足が性能の壁と判明FORGE:Fine-grained Multimodal Evaluation for Manufacturing Scenarios
製造業シナリオ向けの高品質マルチモーダルベンチマーク「FORGE」が公開、約1.2万サンプルを収録。 18種のMLLMを評価した結果、視覚認識より製造ドメイン知識の不足が性能のボトルネックと判明。 3Bモデルのファインチューニングで最大90.8%の精度向上を達成し、産業AIの開発指針を提示。
解説 FORGEは製造業向けMLLM(マルチモーダル大規模言語モデル)評価のための新ベンチマークデータセット。2D画像と3D点群(レンダリング済み)のデュアルモダリティで構成され、14カテゴリ・90モデル番号の工作物を対象に、(1)工作物の照合・検証、(2)表面構造の外観検査、(3)組み立て正否の確認という3タスクを設定している。 18種類のSOTA MLLMを評価した結果、視覚的な物体認識(マクロ知覚)はほぼ解決済みである一方、製造仕様・公差・ルールに基づく細粒度な意味推論(マイクロ推論)が主要なボトルネックであることが明らかになった。GPT-4oやClaude、Geminiなどの汎用モデルは製造要件との間に大きなパフォーマンスギャップを示した。3D点群を直接テキストとして入力する手法は特に精度が低く、参照条件付きプロンプトも3D設定では効果が限定的だった。 一方、FORGEデータで3Bパラメータの小型モデルをSFT(教師ありファインチューニング)すると最大90.8%の相対的精度向上を達成し、ドメイン特化型ファインチューニングの有効性を実証した。製造AIの実用化に向けた明確な研究方向性を示す点で産業界・研究者双方に有意義な成果。 -
hf-blog 1年前 3LLM安全機構を無効化する新手法「アブリテレーション」公開Uncensor any LLM with abliterationJun 13, 2024•838
LLMの拒否行動を制御する残差ストリーム上の「拒否方向」を特定・除去する手法が公開された。 再学習不要で重み直交化により安全フィルタを恒久的に無効化し、DPOファインチューニングで性能低下を回復する。 AI安全機構の構造的脆弱性を示す研究として、LLM開発者・セキュリティ研究者コミュニティに広く影響を与える。
解説 Arditi et al.の研究に基づき、LLMの拒否行動が残差ストリーム上の単一方向で制御されていることを実証した実践的ブログ記事。再学習なしで安全機構を除去できる点は、Claude・GPT-4o等の商用モデルのアライメント手法の脆弱性を浮き彫りにする。開発者にとってはTransformerLensを用いた活性化介入の実装例として有用だが、同時にセーフティ研究者にとっては現行のRLHFベース安全訓練の限界を示す重要な警鐘である。 -
gh-mistral 1年前 2Mistral、推論ライブラリでLoRA正式サポートmistralai/mistral-inference v1.1.0 Add LoRA
Mistralの公式推論ライブラリmistral-inferenceがv1.1.0でLoRAアダプタの読み込み・実行に対応した。 mistral-finetuneで学習したLoRAモデルを数行のコードで推論に利用でき、7Bモデル向けサンプルも公開。 独自ファインチューニングモデルの本番活用が大幅に簡易化され、開発者の実用ハードルが下がる。