ASUSがGTC 2024でMGX搭載データセンターソリューションを展示

2024/03/28

ASUS NVIDIA MGX搭載サーバーを展示

AIスーパーコンピューティングを加速させるGPUサーバーイノベーションの頂点の体験

先進の液冷性能

ASUSは業界をリードする冷却ソリューションプロバイダと緊密に協力し、電力使用効率を最大化

揺るぎないAIソフトウェアソリューション

ノーコードのASUS AIプラットフォームと統合されたソフトウェアスタックが、企業のAI開発を加速

ASUSは、世界最高峰のAIカンファレンスNVIDIA GTC 2024に参加し、最新のAIソリューションを展示しました。展示したのは、ASUSのGPUサーバーイノベーションの頂点であるMGX ESC NM1-E1とMGX ESC NM2-E1です。 NVIDIA MGX™モジュール式のリファレンスアーキテクチャを搭載し、AIスーパーコンピューティングを新たな高みへと加速させます。

ASUSは、ますます高まる生成AIの需要に対応するため、B200 Tensor Core GPU、GB200 Grace Blackwell Superchip、H200 NVLなどNVIDIAの最新テクノロジを活用し、最適化されたAIサーバーソリューションを提供することで、幅広い業界でのAI導入を後押しします。

ASUSは、企業が独自の生成AI環境を構築する際によりよいサポートができるよう、エントリーレベルからハイエンドGPUサーバーソリューションまでの幅広いサーバーラインナップに加え、多様なワークロードに対応する包括的な液冷ラックソリューションを提供しています。さらに、ASUSチームはMLPerfの専門知識を活用し、大規模言語モデル(LLM)学習と推論用にハードウェアとソフトウェアを最適化することで卓越性を追求し、AIスーパーコンピューティングの厳しい状況に対応する総合的なAIソリューションをシームレスに統合しています。

全く新しいASUS NVIDIA MGX搭載サーバーによるオーダーメイドのAIソリューション

最新のASUS NVIDIA MGX搭載2UサーバーであるMGX ESC NM1-E1とMGX ESC NM2-E1は、NVIDIA GH200 Grace Hopper Superchipを搭載し、高いパフォーマンスと効率を提供します。NVIDIA Grace CPUには、Scalable Vector Extensions (SVE2)を備えた144個のArm® Neoverse V9 CPUコアが搭載され、 NVIDIA NVLink-C2Cテクノロジが実装されています。NVIDIA BlueField-3 DPUおよびConnectX-7ネットワークアダプタとの統合により、ASUS MGX搭載サーバーは400Gb/秒という驚異的なデータスループットを実現し、エンタープライズAIの開発と展開に理想的です。MGX ESC NM1-E1は、企業向けAIアプリケーションを構築・展開するためのエンドツーエンドのクラウドネイティブなソフトウェアプラットフォームであるNVIDIA AI Enterpriseと組み合わせることで、AI主導のデータセンター、高性能コンピューティング(HPC)、データ分析、NVIDIA Omniverseアプリケーションに比類ない柔軟性とスケーラビリティを提供します。

先進の液冷テクノロジー

AIアプリケーションの急増により、先進的なサーバー冷却技術の需要が高まっています。ASUSのダイレクトチップ(D2C)冷却は、競合他社とは一線を画す、迅速でシンプルなオプションを提供します。D2Cは迅速に導入でき、データセンターの電力使用効率(PUE)比を下げることができます。ASUSのESC N8-E11サーバーと RS720QN-E11-RS24Uサーバーは、マニホールドとコールドプレートをサポートし、多様な冷却ソリューションを可能にします。さらに、ASUSサーバーは標準的なラックサーバー設計に準拠したリアドア熱交換器を搭載しているため、すべてのラックを交換する必要はありません。リアドアのみでラック内の液冷が可能になります。ASUSは、業界をリードする冷却ソリューションプロバイダと密接に協力することで、企業向けの包括的な冷却ソリューションを提供し、データセンターのPUE、二酸化炭素排出量、エネルギー消費量を最小限に抑え、環境に配慮したデータセンターの設計と構築を支援することをお約束します。

揺るぎないAIソフトウェアソリューション

ASUSは、AIスーパーコンピューティングの分野で世界をリードする専門知識を生かし、データ集約型のワークロードに最適化されたサーバー設計とラック統合を提供しています。ASUSはGTCでESC4000A-E12を展示し、統合されたソフトウェアスタックを備えたノーコードAIプラットフォームを実証します。これにより、企業はLLMの事前学習、微調整、推論においてAI開発を加速することができ、ゼロから始めることなくリスクを削減し、市場投入までの時間を短縮することができます。さらにASUSは、カスタマイズされたソフトウェアにより、7B、33B、さらには180Bを超える様々なLLMトークンをサポートする包括的なソリューションを提供し、シームレスなサーバーデータのディスパッチを容易にします。きめ細かな学習のためにGPUリソースの割り当てを最適化することで、ソフトウェアスタックはAIアプリケーションとワークロードがリソースを無駄にすることなく実行できることを保証し、効率と投資収益率(ROI)の最大化を支援します。さらに、ASUSが提供するソフトウェアとハードウェアの相乗効果により、企業はニーズに最適なAI機能を柔軟に選択できるようになり、ROIをさらに高めることができます。

この革新的なソフトウェアアプローチは、AIの学習と推論に専用GPUリソースの割り当てを最適化し、システムパフォーマンスを向上させます。統合されたソフトウェアとハードウェアの相乗効果により、多様なAI学習のニーズに対応し、中小企業を含むあらゆる規模の企業が簡単かつ効率的に高度なAI機能を活用できるようになります。

エンタープライズIoTアプリケーションの進化する要件に対応するため、堅牢なコンピューティング能力で定評のあるASUSは、業界パートナー、ソフトウェア専門家、ドメインに特化したインテグレーターと協力しています。これらのコラボレーションは、最新のデータセンター、AI、高性能コンピューティング(HPC)アプリケーションのフルのインストールとテストを含め、完全なソリューションのためのターンキーサーバーサポートを提供することを目的としています。

製品と価格について

ASUSデータセンターソリューションの詳細については、https://servers.asus.com をご覧いただくか、お近くのASUS代理店までお問い合わせください。