デルとNVIDIAが築く、AIデータセンターの未来

2024.10.18

WorkWonders

デル・テクノロジーズは、NVIDIAと手を組んで、新たなPowerEdge XE9712を市場に投入しました。これはNVIDIAのGB200 NVL72 AIサーバーを搭載し、H100 AI GPUに比べて30倍速いリアルタイムの大規模言語モデル(LLM)性能を実現しています。AIファクトリーの構築に力を入れるデルは、冷却システムの効率化や迅速な展開、豪華な顧客体験にも注目しています。

このサーバーは、LLMのトレーニングや大規模AIのリアルタイム推論用に特化して設計されており、36のNVIDIA Grace CPUと72のNVIDIA Blackwell GPUを組み合わせ、冷却システムも優れた効率性を誇っています。デルは、これらの進化したデータセンターがAIのニーズに応え、競争力を高めるためには高密度計算と液冷イノベーションが必要であると指摘しています。

さらに、この新システムは既存のXE9680の成功を受け継ぎつつ、72のGPUを用いてリアルタイムでより速いLLM性能を提供します。これらは規模を問わず、ネットワーク完備の超大規模ポッドとして導入され、デルの万全なサポート体制のもとに展開される予定です。

出典 : Dell PowerEdge XE9712: NVIDIA GB200 NVL72-based AI GPU cluster for LLM training, inference https://www.tweaktown.com/news/101177/dell-poweredge-xe9712-nvidia-gb200-nvl72-based-ai-gpu-cluster-for-llm-training-inference/index.html

【このニュース記事は生成AIを利用し、世界のAI関連ニュースをキュレーションしています】

ワークワンダースからのお知らせ

生成AIの最新動向をメルマガ【AI Insights】から配信しております。ぜひご登録ください