Hugging Face
要約済み 3
-
hf-blog 3日前 3Gradio、バックエンド単独利用を可能にする新機能を公開Any Custom Frontend with Gradio's Backend
HuggingFaceがGradioのバックエンドを任意のフロントエンドと組み合わせられる「Gradio Server」機能を公開。 キュー管理・ZeroGPU対応・gradio_client互換を維持しつつ、約50行のPythonでMLバックエンドを構築可能。 UIの自由度が大幅に向上し、本番環境向けAIアプリ開発のハードルが下がる。
解説 従来Gradioは手軽なML デモUIとして広く使われていたが、デザインの自由度が低いという課題があった。Gradio ServerはFastAPIベースのバックエンドとして機能し、React・Svelte等の任意のフロントエンドと組み合わせ可能にする。ZeroGPUやキュー管理などHugging Face Spacesのインフラをそのまま活用でき、開発者はUI制約なくMLアプリを構築できる。Claude APIやGPT-4o等を組み込んだカスタムAIアプリのプロトタイピングにも有用。 -
hf-blog 7日前 3Codexが3万論文OCRを自律設計、コスト半減How we OCR'ed 30,000 papers using Codex, open OCR models and Jobs4 days ago•39
arXiv上のHTML未対応論文3万件をMarkdownへ変換するOCRパイプラインをOpenAI Codexが自律的に構築。 オープンOCRモデルとHugging Face Jobsを組み合わせ、処理コストを約850ドルに抑えAPI比最大68%削減。 LLMによるインフラ設計・実行の自動化が示され、研究データ整備の新たな手法として注目される。
解説 Chandra-OCR 2(5Bパラメータ)とHugging Face Jobsの組み合わせで、3万件の論文PDFを約24時間・850ドルでMarkdown化した実践事例。AIコーディングエージェント(Codex)がパイプライン設計からGPU選定、並列ジョブ監視まで自律実行した点が注目される。GPT-4oやClaude等のプロプライエタリAPIに頼らず、オープンモデルで大規模OCRが実用水準に達したことを示しており、研究基盤の民主化に貢献する。 -
hf-blog 1年前 1消費者向けGPUでLLMを効率ファインチューニング、LoRA+量子化で50MBに圧縮Fine-Tuning Your First Large Language Model (LLM) with PyTorch and Hugging FaceFeb 11, 2025•115
PyTorchとHugging Faceを使い、Phi-3 MiniをLoRAと4bit量子化で効率的にファインチューニングする手法が公開された。 学習パラメータをわずか0.33%に絞り、6GB GPUで約35分・アダプタサイズ50MBを実現。 高価なGPUなしでLLMカスタマイズが可能になり、個人開発者や研究者の参入障壁を大幅に下げる。
解説 LLMファインチューニングの入門チュートリアル記事。量子化+LoRA+SFTTrainerという現在の標準的な手法を一通り網羅しており、初学者が手を動かして学ぶのに適している。GPT-4oやClaude等の大規模APIモデルに頼らず、Phi-3 Miniのような小型モデルを自前で特化させたい開発者にとって実用的。新規手法の提案ではなく既存技術の解説であるため、研究的な新規性は低いが、エコシステムの普及に貢献する良質な教育コンテンツ。