2024年10月には、AIが中心となる業界の発表が数多くあり、データセンターの将来に大きな影響を与えました。
インフラからストレージ設計に至るまで、AIへの焦点が向けられ、これらのサービスがどのように顧客に提供されるかが共通の話題です。
AIのための基盤構築は、最新かつ最高のリリースにおいて既定事項となり、このAI拡張の支援は予見可能な将来にわたってデータセンター産業に影響を与えるでしょう。
クラウドベンダーやデータインフラの提供者は、AIトレーニングのワークロードや発展するAIデリバリーの需要に応えるために、能力の向上に力を入れています。
標準化されたAIインフラに対する需要に応えるため、オープンコンピュートプロジェクト(OCP)は「Open Systems for AI」というイニシアチブを立ち上げました。
これは標準化されたAIデータセンターインフラを開発するための多企業間の協力体制を築きます。
さらに、オラクルとNvidiaがタッグを組んだZettascale Superclusterのローンチは、パフォーマンスと規模の面で画期的な進歩です。
OCI Zettascale Clusterは、ピーク時に2.4ゼタFLOPSを達成する131,072個のBlackwell GPUsにまで拡張することができます。
また、DigitalOceanはHugging Faceと連携して、複雑なAI/MLモデルのクラウドセットアップを簡単にする「1-Click Models」という新機能を紹介しました。
これにより、開発者は最小限の設定で迅速に推論エンドポイントをデプロイできるようになります。
出典 : How Data Centers Are Harnessing AI Workloads for Enhanced Cloud, LLM, and Inference Capabilities https://www.datacenterfrontier.com/machine-learning/article/55240006/how-data-centers-are-harnessing-ai-workloads-for-enhanced-cloud-llm-and-inference-capabilities