ASUSがNVIDIA A100 PCIe GPUを搭載したESC4000A-E10サーバーを発表

    2U GPUサーバーがAI、データサイエンス、サイエンスコンピューティングアプリケーション向けにGPUとコンピューティングパフォーマンスを高速化



    キーポイント

    ・ASUSは、NVIDIA A100 Tensor Core GPU発表から1ヶ月後にNVIDIA A100搭載サーバーを発表

    ・ASUS ESC4000A-E10は、NVIDIA A100搭載サーバーで、PCIe Gen 4、OCP 3.0、および最大4つのデュアルスロットまたは8つのシングルスロットGPUをサポート

    ・ASUS ESC4000A-E10は、データセンターおよび企業向けのAI、高性能コンピューティング(HPC)、仮想化、仮想デスクトップインフラストラクチャ(VDI)アプリケーションを対象



    サーバーシステム、サーバーマザーボード、ワークステーションの大手IT企業であるASUSは本日、新しいGPUサーバー「ESC4000A-E10」を発表しました。NVIDIA A100PCIe®GPUを搭載し、PCIe 4.0拡張とOCP 3.0ネットワークを備えています。より高速のコンピューティングとGPUパフォーマンスを備えたESC4000A-E10は、データセンターを高速化、最適化して利用性を高め、総所有コストを削減するように設計されています。ASUSは、NVIDIAとの強力なパートナーシップを築き続け、かつてない加速と柔軟性を提供し、AI、データ分析、HPCアプリケーションに対応する世界で最強のパフォーマンスを持つ弾力的なデータセンターを実現します。


    ASUS ESC4000A-E10 GPUサーバー
    ASUS ESC4000A-E10は、AMD EPYC™7002シリーズシングルソケットプロセッサーを搭載した2U GPUサーバーで、従来の7001世代と比較して最大2倍のパフォーマンスと4倍の浮動小数点機能を提供します。ESC4000A-E10は、強力なCPUコア、複数のGPUサポート、高速な伝送速度を必要とするデータセンターや企業環境におけるAI、HPC、VDIアプリケーション向けに設計されています。NVIDIA Ampereアーキテクチャ上に構築された最新のNVIDIA A100 PCIe GPU、Tesla T4、およびQuadro®GPUなど、最大4つの高性能ダブルスロットまたは8つのシングルスロットGPUをサポートするGPU最適化パフォーマンスを提供します。このパフォーマンスは、GPUリソ​​ースを共有プールに統合することで仮想化を支援し、ユーザーがより効率的な方法でリソースを利用できるようにします。

    ASUS ESC4000A-E10は、コンピューティング、グラフィックス、ストレージ、ネットワーク拡張用に最大11個のPCIe 4.0スロットも備えています。PCIe 4.0は、最大16 GT/s(PCIe 3.0の2倍の帯域幅)の転送速度を提供し、電力消費を低減し、レーンの拡張性と旧バージョンとの互換性を向上させます。ネットワークでは、ESC4000A-E10はOCP 3.0ネットワークインターフェイスカードをサポートしており、最大200ギガビットイーサネットをサポートし、高帯域幅アプリケーションの要求に対応します。柔軟なケース設計により、ESC4000A-E10は最大8台のホットスワップ可能な3.5インチまたは2.5インチのハードディスクドライブに対応し、そのうち4台はNVMe SSDとして構成できます。

    NVIDIA A100 PCIe GPU
    NVIDIA A100 TensorコアGPUは、かつてない加速と柔軟性を提供し、AI、データ分析、HPCアプリケーションに対応する世界で最強のパフォーマンスを持つ弾力的なデータセンターを実現します。NVIDIAデータセンタープラットフォームのエンジンとなるA100 GPUは、V100 GPUの最大20倍のパフォーマンスを提供し、数千のGPUまで効率的に拡張したり、新しいマルチインスタンスGPU(MIG)機能で7つの独立したGPUインスタンスに分割したりすることができ、すべてのサイズのワークロードを加速します。

    NVIDIA A100 GPUは、広範な計算精度をサポートする第3世代のTensorコア技術を備えており、データ分析、AIトレーニング、AI推論、およびHPC用の統合ワークロードアクセラレーターを提供します。1つのプラットフォームでスケールアップとスケールアウトの両方のワークロードを加速させることで、変化するアプリケーションワークロードの要求に動的に対応できる弾力的なデータセンターを実現します。これにより、同時に処理能力が向上し、データセンターのコストが削減されます。

    NVIDIAソフトウェアスタックと組み合わせることで、A100 GPUはすべての主要なディープラーニングとデータ分析フレームワーク、さらに700以上のHPCアプリケーションを高速化します。AIやHPC用のGPU最適化ソフトウェアコンテナーのハブであるNVIDIA NGCは、アプリケーションの導入を簡素化し、研究者や開発者がソリューションの構築に集中できるようにします。ASUSはまた、A100搭載のNGC-Readyシステムを提供します。これは、ディープラーニングと機械学習のワークロードを実行するように構築され、AIスタックの機能とパフォーマンスは実証済みです。

    ハードウェアとソフトウェアの統合ソリューションを継続的に強化
    NVIDIAパートナーネットワーク(NPN)の主要なOEMパートナーの1つであるASUSは、NVIDIAと緊密に連携し、お客様がNVIDIA GPUを使ってハードウェアシステムを設計、開発、製造し、システムを最適化できるよう支援します。多くのASUSサーバーは、ベアメタルサーバーと仮想サーバー上のNGCコンテナーのパフォーマンスと機能について検証されたNVIDIA NGC-Readyシステムです。ASUSは、今後もNVIDIAを使用してより多くのソリューションを開発し、ハードウェアとソフトウェアの選択に費やす時間を短縮して、お客様が要件を簡単に満たせるようにします。

    最高のパフォーマンスと電力効率を提供するASUSサーバーは、データセンターソリューションとして最適の選択肢です。ASUS 2Pおよび1Pサーバーは、SPEC.orgのSPEC CPU 2017ベンチマークに基づいて700を超える世界記録を持ち、最高レベルのパフォーマンスを達成し続けています。ASUSは、独自の省電力チューニング技術を生かして設計された電力効率に優れたサーバーも提供しており、WindowsとLinuxの両方でSPEC Powerのベンチマークで第1位にランクされています。