PyTorch
要約済み 2
-
hf-blog 3日前 3SafetensorsがPyTorch Foundation傘下に、標準化加速へSafetensors is Joining the PyTorch Foundation
Hugging Face発のモデル重み保存形式SafetensorsがPyTorch Foundationへ移管された。 Pickleと異なり任意コード実行不可・ゼロコピー読込対応で、安全性と速度を両立する形式。 ベンダー中立のガバナンス下でPyTorchコア統合やFP8量子化対応が計画され、業界標準化が進む。
解説 SafetensorsはPickleベースの危険な重み形式を置き換える目的で普及し、Hugging Face Hub上の数万モデルで標準採用されている。今回のPyTorch Foundation移管により、単一企業プロジェクトからベンダー中立のエコシステム基盤へ昇格した。PyTorchコアのシリアライゼーション標準化、CUDA/ROCm直接ロード、テンソル並列対応が予定されており、vLLMやDeepSpeedなど推論・学習基盤との統合が加速する。開発者にとってはモデル配布・ロードの安全性と速度が業界標準として保証される意義がある。 -
hf-blog 1年前 1消費者向けGPUでLLMを効率ファインチューニング、LoRA+量子化で50MBに圧縮Fine-Tuning Your First Large Language Model (LLM) with PyTorch and Hugging FaceFeb 11, 2025•115
PyTorchとHugging Faceを使い、Phi-3 MiniをLoRAと4bit量子化で効率的にファインチューニングする手法が公開された。 学習パラメータをわずか0.33%に絞り、6GB GPUで約35分・アダプタサイズ50MBを実現。 高価なGPUなしでLLMカスタマイズが可能になり、個人開発者や研究者の参入障壁を大幅に下げる。
解説 LLMファインチューニングの入門チュートリアル記事。量子化+LoRA+SFTTrainerという現在の標準的な手法を一通り網羅しており、初学者が手を動かして学ぶのに適している。GPT-4oやClaude等の大規模APIモデルに頼らず、Phi-3 Miniのような小型モデルを自前で特化させたい開発者にとって実用的。新規手法の提案ではなく既存技術の解説であるため、研究的な新規性は低いが、エコシステムの普及に貢献する良質な教育コンテンツ。