NVIDIA
要約済み 4
-
hf-blog 28日前 3NVIDIAが4B小型ハイブリッドモデルを公開、エッジAIに最適化Nemotron 3 Nano 4B: A Compact Hybrid Model for Efficient Local AI25 days ago•62
NVIDIAがMamba+Transformerのハイブリッド構造を採用した4BパラメータモデルNemotron 3 Nano 4Bを公開。 9Bモデルからの蒸留により4Bクラス最高水準の指示追従・エージェント性能を実現、FP8で1.8倍高速化。 Jetson/RTXなどエッジデバイスでのローカルAI活用を大幅に拡大する可能性がある。
解説 NVIDIAがMamba-Transformerハイブリッド構造の4Bモデルを公開。9Bモデルからの構造化プルーニング+2段階蒸留+多段階RLという体系的な圧縮パイプラインが特徴的。Jetson Orin Nanoで18tok/sを実現し、ロボティクスやゲームAIなどエッジ推論の実用域に到達。GPT-4o miniやGemma等のクラウド前提モデルとは異なり、ローカル完結型AIの選択肢を広げる。開発者にとってはGGUF対応でllama.cppから即利用可能な点が実用的。 -
anthropic-news 4ヶ月前 5Anthropic、MicrosoftとNVIDIAから計350億ドルの巨額出資を獲得Microsoft, NVIDIA, and Anthropic announce strategic partnerships
AnthropicがMicrosoft・NVIDIAと戦略提携、総額350億ドル規模の出資・契約を締結。 ClaudeがAzure・Microsoft Foundry・Copilotファミリーに統合、大規模コンピュート基盤を確保。 商用展開とインフラ整備が同時に加速し、OpenAIへの対抗軸として業界の勢力図に影響。
-
stability-blog 10ヶ月前 4SD 3.5、TensorRT最適化で推論速度2倍・VRAM40%減を達成Stable Diffusion 3.5 Models Optimized with TensorRT Deliver 2X Faster Performance and 40% Less Memory on NVIDIA RTX GPUs
Stability AIがStable Diffusion 3.5のNVIDIA TensorRT向け最適化版を公開した。 RTX GPU上で推論速度2倍、VRAMを40%削減する大幅な効率化を実現。 ローカル環境での高品質画像生成の敷居が下がり、個人開発者への恩恵が大きい。
解説 Stability AIはNVIDIAと連携し、画像生成モデル「Stable Diffusion 3.5」をTensorRT(NVIDIAの推論高速化SDK)向けに最適化したバージョンを公開した。TensorRTはニューラルネットワークをGPU向けにコンパイル・最適化することで、FP16やINT8などの低精度演算や演算カーネルの融合(Kernel Fusion)を活用し、推論速度を大幅に向上させる技術。今回の最適化により、NVIDIA RTX GPUを搭載した一般消費者向けPCでも2倍の生成速度と40%のVRAM削減が実現されており、これまでは高スペックGPUが必要だったSD 3.5のローカル運用の敷居が大きく下がった。開発者にとっては、クラウドAPIへの依存を減らしてオフライン・プライベートな環境での画像生成パイプライン構築が現実的になる点が重要。業界全体としても、高性能モデルをエッジデバイスで動かす「エッジAI推論」の潮流を加速させるニュースであり、コンテンツ制作・ゲーム開発・デザインツール分野への普及促進が期待される。 -
gh-mistral 1年前 3MistralとNVIDIA、12Bモデル「Nemo」を共同リリースmistralai/mistral-inference v1.3.0 Mistral-Nemo
MistralとNVIDIAが共同開発した12Bパラメータの大規模言語モデル「Mistral Nemo」を正式公開。 mistral-inference v1.3.0で利用可能で、CLIとPython APIの両方に対応し即時利用が可能。 中規模モデルとして実用性と性能を両立、オープンなエコシステムへの貢献が期待される。