
Nvidiaは、2025年までに60万〜80万個の低電力SOCAMMメモリモジュールをAI製品に導入する計画で、新世代のメモリ市場が本格的に開拓されることになる。この技術は「第2世代HBM」と呼ばれ、AIサーバーやPCのパフォーマンスを最適化するように設計されています。メモリおよびPCB産業チェーンの成長を大幅に促進すると期待されています。事情に詳しい関係者によると、NVIDIA は具体的な導入量をパートナー企業と共有しており、メモリおよび PCB 業界は需要に応えるために在庫を増やしているという。
同時に、SOCAMM の技術的優位性が中核的なハイライトとなっています。 LPDDR5Xメモリを使用し、サイズはわずか14×90 mmです。消費電力は従来のサーバーモジュールに比べて 3 分の 2 低く、帯域幅は 2.5 倍に増加します。また、128GBの大容量をサポートし、AIのトレーニングや推論のための高速データアクセスを提供します。既存のノートパソコンモジュールと比較して、I/O 速度が速く、構造がコンパクトで、修理や拡張が容易なため、エネルギー効率が大幅に向上します。注目すべきは、NVIDIAがこのモジュールをまず今年5月にリリースしたGB300 BlackwellプラットフォームとDGX SparkパーソナルAIスーパーコンピューターに採用し、その後AI PCワークステーション分野にも展開していく予定だ。
ただし、現在の導入規模は依然として慎重なままです。 80万個という目標は、初期のテスト段階をはるかに超えていますが、メモリ パートナーによる HBM の年間出荷数約 900 万個にはまだまだ遠く及びません。 MicronはNvidiaの最初の認定サプライヤーとして量産を達成し、初期供給をリードしている一方、SamsungとSK Hynixは生産陣に加わるために積極的に連絡を取り合っている。今後、来年のSOCAMM 2バージョンの発売により、生産能力が急速に拡大し、世界のAIハードウェアエコシステムに継続的な勢いが注入されると予想されます。