AMDとQualcomm、製品ラインにSOCAMMメモリを導入する準備中

kyojuro 2026年1月29日木曜日

スマートボディAIアプリケーションが実行状態やコンテキスト、また中間結果をメモリに長期間保持するようになるにつれ、システムのボトルネックは計算能力および帯域幅から、容量およびスケーラビリティへと移行しています。この文脈において、AMDとクアルコムは、NVIDIAが当初から支配していたメモリフォームファクタであるSOCAMMをAI製品ラインに導入することを検討しています。SOCAMMは他のベンダーからも注目を集めています。

SOCAMM Memory Modules
SOCAMMは、新しいタイプのDRAMを表すものではなく、パッケージングと展開の適応です。LPDDR DRAMに基づいており、マザーボードにはんだ付けされた固定のフォームファクタとは異なり、モジュラーでプラグイン可能かつ交換可能なフォームファクタとして存在しています。この特徴的な位置づけにより、コストとスケーラビリティが犠牲になりやすい中、高帯域幅とコンピューティングユニットへの接近を優先するHBMとは対照的に、SOCAMMは大規模なアクティブデータをホストするのに適した大容量で、比較的低消費電力のメモリに焦点を当てています。

NVIDIAは最初にSOCAMMを宣伝し、HBMの容量とコストのプレッシャーを緩和する目的で設計しました。韓国メディアの報道によると、NVIDIA、AMD、クアルコムは次世代AIシャーシソリューションにSOCAMMモジュールを組み込むことを模索しており、このメモリフォームファクタがカスタマイズされたソリューションから一般的なシステムコンポーネントへと進化していることを示しています。

AMDとクアルコムは、NVIDIAの実装をそのまま模倣するのではなく、2列のDRAMとPMICを直接モジュールに統合する正方形のモジュールレイアウトを実験しています。マザーボードからメモリモジュールへと供給される電力の調節が移行することで、電圧制御が精緻化され、高周波動作の安定性が向上し、電源回路の削減によりマザーボード設計の複雑さが低減されます。

この設計の移行は、SOCAMMがシステム内で進化する役割を強調しています。ただのHBMの「容量補足」というだけでなく、独立したスケジュール可能なメモリ層として浮上しています。大量のコンテキスト、状態、短期データの維持が必要な高度なAIシナリオでは、HBMだけに頼るのは実用的ではありません。SOCAMMが提供するテラバイト級の容量により、各CPUまたはアクセラレータはローカルメモリ内の何百万ものトークンを管理できるため、外部ストレージやリモートノードへの頻繁なアクセスの必要性が低減されます。

パフォーマンスに関して、SOCAMMのスループットはHBMには及ばないものの、エネルギー消費の削減や優れたスケーラビリティの利点があります。LPDDRの低消費電力特性は、特にラックレベルのシステムにおいて重要なSOCAMMのエネルギー管理を促進します。SOCAMMのモジュラー性により、データセンター環境での将来の拡張やメンテナンスが容易に行える点は、はんだ付けされたメモリにはない利点です。

製品計画においても、NVIDIAはVera Rubin AIクラスターへSOCAMM 2を導入し、大規模展開する予定です。AMDとクアルコムが同様のオプションを検討する中、SOCAMMは次世代AIラックの標準構成として定着し、単一のベンダーによる独自実装を超える可能性があります。この転換は、AIハードウェアエコシステム全体において、メモリ層が再定義され、その重要性がコンピューティング自体と並ぶことを意味しています。

関連ニュース

© 2026 - TopCPU.net