LoRA
要約済み 6
-
arxiv-cs-ai 7時間前 3SFT層別分析でLoRAを超える新手法、中間層のみで精度10%向上A Layer-wise Analysis of Supervised Fine-Tuning
研究チームがSFTの各層への影響を情報理論・幾何学・最適化の3指標で体系的に分析した成果を発表。 中間層(全体の20〜80%)は学習が安定し、最終層は高感度という層依存パターンを発見。中間層のみを更新するMid-Block手法を提案。 LoRAと比べ最大10.2%の精度向上を達成し、効率的なファインチューニング戦略として注目される。
解説 本論文は、LLMのアライメントに不可欠なSFT(教師ありファインチューニング)において、各層が果たす役割を情報理論的指標(エントロピーなど)・幾何学的指標(表現空間の形状)・最適化指標(勾配の大きさなど)の3種類で包括的に分析した研究である。1Bから32Bまで複数のモデルスケールで実験し、層の深さに応じた明確なパターンを発見した。具体的には、全層の20〜80%に相当する中間層はSFT前後で安定しており、一方で最終層(後半20%付近)が特に高感度で、指示追従能力の形成に重要な役割を担うことが明らかになった。この知見を活用して提案された「Mid-Block Efficient Tuning」は、感度の高い中間層のみをターゲットとして選択的に更新するアプローチである。従来のLoRAが全体または均等な範囲にパラメータ更新を適用するのに対し、本手法はアーキテクチャ上の局所性を利用することで更新パラメータ数を削減しながらも精度を向上させる。OLMo2-7Bを用いた数学推論ベンチマークGSM8Kでは標準LoRAを最大10.2%上回った。アライメント能力が全層に分散して獲得されるのではなく特定の層に局在するという本知見は、今後の効率的なファインチューニング設計に重要な指針を与える。 -
hf-papers 1日前 4研究者ら、LLM強化学習を37%高速化する新手法を発表Low-rank Optimization Trajectories Modeling for LLM RLVR Acceleration
RLVR訓練中のLLMパラメータ更新がrank-1部分空間で支配されるという新知見を基に、軌跡外挿手法「NEx」を提案。 LoRAで学習した中間チェックポイントからMLPが非線形外挿を行い、250ステップで400ステップ相当の性能を実現。 計算コスト37.5%削減により、強化学習ベースのLLM訓練の実用化・大規模化を加速する可能性がある。
解説 本論文は、LLMの強化学習(RLVR: Reinforcement Learning with Verifiable Rewards)訓練を効率化する手法「NExt(Nonlinear Extrapolation of low-rank Trajectories)」を提案する。DeepSeek-R1やo1のような推論モデルの訓練基盤となるRLVRは膨大な計算コストが課題だった。 著者らはまず、RLVR訓練中のパラメータ更新行列をSVD(特異値分解)で解析し、2つの重要な知見を得た。①LoRAファインチューニングでは全パラメータ訓練より「rank-1部分空間」(最大特異値に対応する方向)の支配度が高まる。②rank-1部分空間の進化は線形ではなく、50%以上のパラメータで線形予測のR²がゼロ以下になる。 これを受け、NExt はLoRAベースRLVR訓練の中間チェックポイントからグローバル差分・ローカル差分を計算し、それをSVDでrank-1表現に圧縮。MLP型エンコーダ・デコーダで「どの方向にパラメータが動くか」を非線形に予測し、係数αで外挿する。 実験では Qwen2.5(1.5B〜14B)を用い、AIME・AMC・Minerva等の数学タスクで AlphaRL・RL-Extra(線形外挿手法)を全指標で上回り、GRPO 400ステップ相当の性能をわずか250ステップで達成。学習時間も18.7時間→11.7時間(3Bモデル)と37.5%削減した。GRPO・RLOO・REINFORCE++と互換性があり、汎用性も高い。 -
hf-papers 1日前 4局所領域特化の画像精細化、GPT-4oを全指標で凌駕RefineAnything: Multimodal Region-Specific Refinement for Perfect Local Details
研究チームがユーザー指定領域のみを高精細化し背景を完全保持する新手法「RefineAnything」を発表。 クロップ&リサイズで解像度を対象領域に集中させる「Focus-and-Refine」戦略を採用し、背景変化をほぼゼロに抑制。 GPT-4o・Gemini・Kontextなど主要SOTAを全指標で上回り、画像編集・生成AIの実用精度向上に貢献。
解説 RefineAnythingは「領域特化画像精細化」という新しい問題設定を定義した論文。テキスト・ロゴ・細線など微細構造が生成AIで崩れる「ローカル詳細崩壊」を解決することを目的とする。 【提案手法の仕組み】ベースモデルにQwen-Image-Edit(Qwen2.5-VL+MMDiT)を採用し、スクリブルマスクまたはバウンディングボックスで指定した領域のみを精細化する。核心技術はFocus-and-Refine:対象領域をクロップして元解像度にリサイズすることで、VAE(変分オートエンコーダ)の固定解像度予算を対象領域に集中させる。クロップ後の精細化結果はブレンドマスクで元画像に合成(ペーストバック)され、背景は構造的に保証される。さらに境界領域の損失を強調するBoundary Consistency Lossで継ぎ目アーティファクトを低減する。 【データセット・ベンチマーク】Gemini3+SAM3で構築した3万件のRefine-30K(参照画像あり2万件・なし1万件)と、67ケース・402入力からなるRefineEvalを新規構築。 【実験結果・比較】参照ベース精細化でMSEが最良オープンソース手法Kontextの0.040→0.020(50%削減)、LPIPSは0.264→0.155(41%削減)、背景MSEはほぼ0(Kontext: 0.011、GPT-4o: 0.815と比べ圧倒的)。参照なし設定でもVQや詳細忠実度など全5指標でQwen-Editを0.4〜0.8ポイント上回る。 【実用的意義】ECサイト商品画像・広告・UIデザインなど「一文字でも崩れたら価値がなくなる」用途への直接応用が可能で、既存の汎用編集モデルが苦手とする精密局所修復を実現した実用性の高い手法。 -
hf-blog 1年前 2エッジAI時代の本命SLM、主要モデルを徹底解剖Small Language Models (SLM): A Comprehensive OverviewFeb 22, 2025•147
1M〜10Bパラメータの小規模言語モデル(SLM)を網羅的に解説した技術記事が公開された。 Llama3.2・Phi-3.5・Gemma3など主要SLMを比較し、蒸留・量子化等の圧縮技術を体系整理。 エッジ・モバイル展開を目指す開発者にとって実践的な参照資料となる内容。
解説 SLMはGPT-4oやClaude等の大規模モデルを補完する位置づけで、エッジデバイスやプライバシー重視の用途で需要が拡大している。本記事は包括的なサーベイとして有用だが、新手法の提案ではなく既存知見の整理である。開発者にとってはLoRAやOllamaを用いた実装例が実践的で、SLM導入の入門資料として価値がある。研究者には参照論文リストが出発点となる。 -
hf-blog 1年前 1消費者向けGPUでLLMを効率ファインチューニング、LoRA+量子化で50MBに圧縮Fine-Tuning Your First Large Language Model (LLM) with PyTorch and Hugging FaceFeb 11, 2025•115
PyTorchとHugging Faceを使い、Phi-3 MiniをLoRAと4bit量子化で効率的にファインチューニングする手法が公開された。 学習パラメータをわずか0.33%に絞り、6GB GPUで約35分・アダプタサイズ50MBを実現。 高価なGPUなしでLLMカスタマイズが可能になり、個人開発者や研究者の参入障壁を大幅に下げる。
解説 LLMファインチューニングの入門チュートリアル記事。量子化+LoRA+SFTTrainerという現在の標準的な手法を一通り網羅しており、初学者が手を動かして学ぶのに適している。GPT-4oやClaude等の大規模APIモデルに頼らず、Phi-3 Miniのような小型モデルを自前で特化させたい開発者にとって実用的。新規手法の提案ではなく既存技術の解説であるため、研究的な新規性は低いが、エコシステムの普及に貢献する良質な教育コンテンツ。 -
gh-mistral 1年前 2Mistral、推論ライブラリでLoRA正式サポートmistralai/mistral-inference v1.1.0 Add LoRA
Mistralの公式推論ライブラリmistral-inferenceがv1.1.0でLoRAアダプタの読み込み・実行に対応した。 mistral-finetuneで学習したLoRAモデルを数行のコードで推論に利用でき、7Bモデル向けサンプルも公開。 独自ファインチューニングモデルの本番活用が大幅に簡易化され、開発者の実用ハードルが下がる。