Kubernetes向け次世代AIインフラ、F5とNVIDIAの画期的連携

2025.06.18

WorkWonders

F5社が、Kubernetes対応のBIG-IP NextをNVIDIAの最新技術で強化し、新たな機能を発表しました。欧州の先端インフラ企業であるSesterce社が、高性能なAIアプリケーションのためのトラフィック管理とセキュリティを提供するこのソリューションを評価し、AIの加速計算と人工知能のニーズに合った設計が特徴です。

F5のBIG-IP NextとNVIDIAのBlueField-3 DPUsを用いたソリューションは、AIインフラの大規模なトラフィック管理とセキュリティ向上に貢献し、以前に公開された汎用的な性能向上に続き、Sesterce社は複数の主要な機能において検証を成功させました。

今年に入り、大規模分散環境でのAIと推論モデルをデプロイするための補足フレームワークとしてNVIDIA Dynamoが登場。これにより、F5とNVIDIAの組み合わせがCPUからDPUsへ特定のオペレーションをオフロードすることで、AIユースケースを高速化します。

さらに、Anthropicが開発したオープンプロトコルであるModel Context Protocol(MCP)サーバにおいても、F5とNVIDIAのソリューションを活用することでセキュリティが強化され、LLMsのサポートが向上します。このF5 BIG-IP Next for Kubernetesは、NVIDIAのBlueField-3 DPUsで実装可能であり、現在入手可能です。

詳細はF5のウェブサイトまたはNVIDIA GTC Parisで紹介されており、F5のブログにも情報が掲載されています。

出典 : F5, NVIDIA Expand AI Infrastructure with Enhanced LLM Routing and Security https://www.thefastmode.com/technology-solutions/42602-f5-nvidia-expand-ai-infrastructure-with-enhanced-llm-routing-and-security

【このニュース記事は生成AIを利用し、世界のAI関連ニュースをキュレーションしています】

ワークワンダースからのお知らせ

生成AIの最新動向をメルマガ【AI Insights】から配信しております。ぜひご登録ください

↓10秒で登録できます。↓