データからトークンへ

ASUS AIファクトリーは
大規模なインテリジェンスを提供します

Isometric illustration of the ASUS AI Infrastructure data center infographic featuring three warter towers, two rows of GPU servers, a central control hub with a large display screen, icons for cloud services and storage devices, and groups of people collaborating and interacting with technology—conveying a high-tech and dynamic environment.
  • ASUS AIファクトリーは、企業が持つ膨大なデータを価値あるインテリジェンスへとに変換し、アイデアを現実世界のAIソリューションへと拡張・加速する次世代のAI基盤です。ASUSは生成AI・LLM時代に求められる包括的なAIソリューションを提供し、絶え間ない技術革新を推進するとともに、業界のフロントランナーとしての地位を確固たるものにしています。AI企業としてASUSはデザイン思考に基づき、AIを企業活動のあらゆるレイヤーに組み込み、インテリジェントな未来の実現を目指しています。ASUSの幅広いプロダクトポートフォリオは、エッジからクラウド、オンプレミスまで AI を“誰もが、どこでも活用できる”環境を提供し、AIがもたらす新たな価値と可能性をすべての人に届けることをミッションとしています。

    どこにでもある「ユビキタスAI」。無限の可能性。

    ASUSは、PCの領域枠を超えて、あらゆるユーザーに新たな価値をもたらす“包括的なAIエコシステム"を発表しました。
    このエコシステムは、クラウドからオンプレミスまでシームレスに拡張可能な強固なAIインフラに支えられ、ハードウェア・ソフトウェア・サービスを統合することで、多様なエンタープライズAIワークロードにおけるAIの開発・実装を力強く支援します。
    ASUSが展開する幅広いポートフォリオは、開発者、AI研究者、データサイエンティスト、バイオテック、ミッションクリティカル領域、製造業、5G/ネットワーキング、クラウドサービスプロバイダーなど――主要な各分野のニーズに最適化されたインテリジェントソリューションを提供します。

  • ASUSはNVIDIAと共同でトークン生成AIファクトリー向けフルスタックソリューションを提供

    ASUS AIファクトリーの包括的なアプローチは、ハードウェア、ソフトウェアプラットフォーム、サービスをシームレスに統合し、お客様のAI導入を成功へと導きます。エッジAIからAIスーパーコンピューティングまで、ASUSのスケーラブルなインフラストラクチャは、多様なワークロードのニーズに対応できるよう設計されています。また、AI導入の加速と総保有コスト(TCO)の最適化を両立できるよう支援します。
    ASUS AI ファクトリー は、ハードウェア、ソフトウェアプラットフォーム、そしてサービスをシームレスに統合し、企業のAI導入を成功へと導く“包括的なAIアプローチ”を提供します。
    エッジAIからAIスーパーコンピューティングまで幅広く対応するスケーラブルなインフラにより、多様なAIワークロードの要求に柔軟に応えることが可能です。
    さらに、AI活用の加速と同時に、TCO(総所有コスト)の最適化を実現し、企業のAI導入をより確実かつ効率的に支援します。

    ASUSは、2200拠点を超えるグローバルサービスセンターネットワークを擁し、設計・製造から運用・サポートまで、製品ライフサイクル全体にわたるサービスレベル契約(SLA)に基づくカスタマイズソリューションを提供しています。さらに、堅牢なAIおよびデータガバナンス体制により、データの品質、規制遵守、そして信頼性を確保し、AIによる成果の完全性と正確性を確保します。
    ASUSは、世界2,200拠点以上のサービスネットワークを活用し、SLA(サービスレベル契約)に基づく高品質なサポートと、設計・製造から導入後の運用支援まで製品ライフサイクル全体をカバーするカスタマイズソリューションを提供しています。
    さらに、ASUSが構築する強固なAIガバナンスおよびデータガバナンスのフレームワークにより、データ品質の維持や法規制への準拠を徹底し、AIが導き出す最終的な判断結果の正確性と一貫性を確実に守ります。

    Diagram of ASUS AI solutions, highlighting consulting, software services, and infrastructure. Features NVIDIA tech, ASUS platforms, and deployment orchestration.
    A digital illustration showing a data scientist analyzing graphs and servers on the left, connected by arrows to a large server stack on the right.

    ASUS AIファクトリーによる業界変革の最前線をご覧ください。

  • すべてのワークロードに対応するインフラストラクチャアーキテクチャ

    All-in-AIサーバー戦略に基づき、戦略的パートナーと緊密に連携し、AIエコシステムの進化を推進しています。産業製造の原理に着想を得たASUS AIファクトリーのアプローチは、AI開発を効率的かつ再現性のあるプロセスとして体系化し、膨大なデータを価値あるAI主導のインサイトやアクションへと効率的に変換します。

    NVIDIA により検証された ASUS AI POD を中核とする ASUS AI ファクトリー は、エージェントAI、フィジカルAI、そして HPC ワークロードを、オンプレミス環境の NVIDIA Blackwell プラットフォーム上で開発・展開・運用するための実践的なガイドラインを提供します。
    エンタープライズIT向けに設計されたこのアーキテクチャは、高性能なアクセラレーテッドコンピューティング、ネットワーキング、ストレージ、ソフトウェアを統合し、企業が AI ファクトリーを迅速に立ち上げ、価値創出までの時間を大幅に短縮するとともに、導入リスクを最小化します。

    以下は、承認されたプラクティスをお客様が活用するためのリファレンスアーキテクチャ設計であり、様々なアプリケーション向けの知識リポジトリおよび標準化されたフレームワークとして機能します。

    大型の大規模コンピューティング

    ASUS AI POD ― 次世代AIインフラを支える超高密度アーキテクチャ
    NVIDIA GB200/GB300 NVL72 による圧倒的な計算性能と効率性
    ASUSの先進的な AI POD は、NVIDIA GB200/GB300 NVL72ラックに最適化され、
    NVIDIA Quantum InfiniBand または NVIDIA Spectrum-X Ethernet ネットワーキングを組み合わせることで、
    次世代AIクラスタ向けの極めて高い拡張性・性能を実現します。
    液冷対応構成では、
    8ラック合計 576 GPU を完全ノンブロッキングで接続する大規模クラスターを構築可能。
    空冷構成では、1ラックあたり 72 GPU をサポートし、導入環境に応じて柔軟に選択できます。


    ■ 特長
    NVL72 ベースの超高密度AIアーキテクチャ
    液冷/空冷の柔軟なサーマルソリューション
    Quantum InfiniBand / Spectrum-X Ethernet による高帯域ネットワーク
    576 GPUクラスタを見据えた大規模AI処理に最適
    推論・学習の両面で圧倒的な効率と性能を実現
    この超高密度・高効率のASUS AI PODは、AI推論・AI開発における計算性能とエネルギー効率を新たなレベルへと引き上げます。

    AIトレーニングと推論のためのハイパースケールGPUコンピューティング

    ASUS最適化 NVIDIA HGX™ リファレンスアーキテクチャ

    AIファインチューニング・LLM推論・学習における最高クラスの効率性とGPU密度を実現
    ASUS が最適化した NVIDIA HGX™ リファレンスアーキテクチャは、AIファインチューニング、LLM推論、モデル学習において、比類ない 効率性・熱設計・GPU密度 を提供します。

    本ソリューションは、
    NVIDIA HGX™ B300 を搭載した ASUS XA NB3I-E12
    NVIDIA HGX™ B200 を搭載した ESC NB8-E11
    をベースとした集中型ラック構成で、液冷・空冷いずれのラックシステムにも対応する 圧倒的な製造キャパシティ を備えています。

    ■ 主な特長
    ●最高効率のHGXリファレンス設計:ASUS独自の最適化により高いGPU密度と均一な熱管理を実現
    ●高性能AIワークロードに最適化:ファインチューニング、LLM推論、大規模モデル学習に最適
    ●液冷/空冷両対応:導入環境や運用要件に合わせて柔軟に選択
    ●大規模製造能力による安定供給:短納期対応・高品質・均一なパフォーマンスを保証
    ●TCO削減:効率的な冷却、標準化された設計により保守・運用コストを大幅に低減

    • NVIDIA HGX™ B300搭載のASUS AI POD

      Reference architecture of ASUS AI POD featuring NVIDIA HGX B300 with liquid cooled solutions
      B300LC Quantum Spectrum
      対応GPU B300 NVL8 B300 NVL8
      フォームファクタ 5RU​ 5RU
      ラック/ノード ラックあたり8xノード /9xラック ラックあたり8xノード /4xラック
      1 SU 9xラック / 72xノード 4xラック / 32xノード
      スイッチ(N/S) 8x SN5610 (リーフ)/4x SN5610 (スパイン) 2x SN5610(リーフ)
      スイッチ (E/W) 8x Q3400-RA(リーフ)/ 4x Q3400-RA(スパイン) 8x SN5610 (リーフ)/4x SN5610 (スパイン)
      サーバー XA NB3I-E12L XA NB3I-E12L
      ストレージ RS501A-E12-RS12U RS501A-E12-RS12U
      MGMT RS700-E12-RS4U RS700-E12-RS4U​
    • ASUS AI POD with NVIDIA HGX™ B300 AC

      Reference architecture of ASUS AI POD featuring NVIDIA HGX B300 with air cooled solutions
      B300AC Quantum Spectrum
      対応GPU B300 NVL8 B300 NVL8
      フォームファクタ 9RU 9RU
      ラック/ノード 4x Node per Rack / 18x rack 4x Node per Rack / 8x rack
      1 SU 18x rack / 72x node 8x rack / 32x Node
      スイッチ (N/S) 8x SN5610 (リーフ)/4x SN5610 (スパイン) 2x SN5610 (Leaf)
      スイッチ (E/W) 8x Q3400-RA (Leaf) / 4x Q3400-RA (Spine) 8x SN5610 (リーフ)/4x SN5610 (スパイン)
      Server XA NB3I-E12 XA NB3I-E12
      Storage RS501A-E12-RS12U RS501A-E12-RS12U
      MGMT RS700-E12-RS4U RS700-E12-RS4U
    • ASUS AI POD with NVIDIA HGX™ B200

      Reference architecture of ASUS AI POD featuring NVIDIA HGX B200 with air cooled solutions
      B200AC Quantum Spectrum
      対応GPU B200 NVL8 B200 NVL8
      フォームファクタ 10RU 10RU
      ラック/ノード 4x Node per Rack / 8x rack 4x Node per Rack / 8x rack
      1 SU 8x rack / 32x node 8x rack / 32x Node
      スイッチ (N/S) 2x SN5610 (Leaf) 2x SN5610 (Leaf)
      スイッチ (E/W) 8x QM9700 (Leaf) / 4x QM9700 (Spine) 4x SN5610 (Leaf) / 2x SN5610 (Spine)
      Server ESC N8B-E11 ESC N8B-E11
      Storage RS501A-E12-RS12U RS501A-E12-RS12U
      MGMT RS700-E12-RS4U RS700-E12-RS4U

    スケーラブルコンピューティングのための汎用性  LLMおよび没入型ワークロード向けのスケーラブルなパワー

    ASUS NVIDIA MGX準拠ラックソリューション

    次世代AIインフラに最適化されたESC8000シリーズ

    ASUS は、NVIDIA MGX仕様に準拠した最新ラックソリューションとして ESC8000 シリーズを展開しています。
    本シリーズは デュアル Intel® Xeon® 6 プロセッサー、RTX PRO™ 6000 Blackwell Server Edition、さらに最大 800Gb/s を実現する NVIDIA ConnectX-8 SuperNIC を採用し、次世代AIワークロードに求められる 高い演算性能と圧倒的な拡張性 を提供します。

    ■ 主な特長
    ●NVIDIA MGX準拠設計:将来のGPU・NICアップグレードにも柔軟に対応
    ●最大800Gb/sの高スループット:NVIDIA ConnectX-8 SuperNIC により高速かつ低遅延のネットワークを実現
    ●スケーラブルGPU構成:RTX PRO™ 6000 Blackwell Server Editionをはじめ、多様なGPU構成をサポート
    ●デュアルXeon 6搭載:最新世代CPUによる高い処理性能とバランスの良いシステム構成

    ■ NVIDIA AI Enterprise との統合
    NVIDIA AI Enterprise ソフトウェアプラットフォームとのシームレスな統合を実現。
    AI開発から推論、大規模分散環境まで、フルスタックでスケーラブルなAIインフラとして導入可能です。

    MGX 4U プラットフォーム搭載のASUS AI POD

    Reference architecture of ASUS AI POD featuring MGX 4U platform
    MGX CX8 Quantum Spectrum
    対応GPU H200 NVL, L40S, RTX Pro 6000 BSE H200 NVL, L40S, RTX Pro 6000 BSE
    フォームファクタ 4RU 4RU
    ラック/ノード ラックあたり8xノード / 合計4xラック、またはラックあたり4xノード / 合計8xラック ラックあたり8xノード / 合計4xラック、またはラックあたり4xノード / 合計8xラック
    1 SU 8xラック / 4xまたは 8xラック / 32xノード 8xラック / 4xまたは 8xラック / 32xノード
    スイッチ (N/S) 2x SN5610(リーフ) 2x SN5610(リーフ)
    スイッチ (E/W) 4x QM9700(リーフ) / 2x QM9700(スパイン) 2x SN5610(リーフ)
    サーバー ESC8000-E12P
    ESC8000A-E13P
    ESC8000-E12P
    ESC8000A-E13P
    ストレージ RS501A-E12-RS12U RS501A-E12-RS12U
    MGMT RS700-E12-RS4U RS700-E12-RS4U
  • AIサービスとプラットフォーム開発

    ASUSは、データセンターを迅速に立ち上げるだけでなく、導入後のスムーズな運用を継続的に支えることを重視しています。
    そのためASUSは、包括的なソフトウェアツールおよびプラットフォーム群を提供しています。
    これらは、ワンクリックでデプロイできる機能を備えており、課金システムを含むビジネス要件に合わせて柔軟にカスタマイズ可能です。
    お客様の運用形態に最適化されたインターフェースやサービスを構築できる点が大きな特徴です。

    • 展開および管理プラットフォーム

      • AIDC

        自動化された大規模な導入とプロビジョニング

        Screenshot shows data center monitoring status and provisioning.
      • ログと監視

        フルスタックの可視性とプロアクティブなアラート

        Screenshot shows data center logs and alerts
      • ACC

        サーバー管理の一元化

        Screenshot shows the centralized control dashboard for data center
      • UFM および NMX

        スマートファブリック監視とネットワーク最適化

        Screenshot shows the fabric and network diagram in the data center
    • サービスプラットフォーム

      • AIプラットフォーム

        スケーラブルなAIトレーニングおよび推論プラットフォーム

        Screenshot shows ai training and inference platform
      • HPCスケジューラ

        効率的なコンピューティングリソースとジョブオーケストレーション

        Screenshot shows the compute resources arrangement.
    ASUS total infrastructure solution from computing implementation to cooling design and professional services
  • ASUS AIファクトリーで業界全体にわたるAIトランスフォーメーションを推進

    その他の成功事例
    • NVIDIAによる精度: ASUSサーバーがAIトランスフォーメーションを推進

      An automated factory scene with 3 robotic arms.
      ASUSは、製造業のお客様と連携し、NVIDIA Omniverse と大規模AIを活用した先進的なコンセプトの実現に取り組んでいます。
      NVIDIA HGX および AGX プラットフォームを搭載した ASUS のAIサーバーによって、インテリジェントエージェントが実環境で稼働し、データ収集やエッジでのインサイト処理を行いながら、Omniverse 上のシミュレーションとリアルタイムに同期します。

      ASUSが構築するデータセンターは中核となるコンピューティング処理を担い、一方でお客様のロボティクスシステムは NVIDIA AGX 上で動作し、センサーデータの取り込み、エッジ推論、クラウドとの協調をシームレスに統合。これにより、高い信頼性を備えたAIパフォーマンスを実現します。
      • ESC8000A-E13P

        ESC8000A-E13P

        • AMD Turin CPU
        • NVIDIA RTX PRO 6000 x 8
        • DIMM 64GB x 8
        • NVIDIA CX7 x 3
        • 1TB OSドライブ x 2
      • VSD320D-RS12

        VS320D-RS12

        • インテルXeon CPU
        • 自動階層化
        • DIMM 32GB x 4
        • NIC 25G イーサネット4
        • SAS HDD 20TB x 12
    • ASUSが国家レベルのバイオメディカルAIスーパーコンピュータを後押し、ライフサイエンスの革新に貢献

      Two researchers are discussing a medical image on a screen.
      ASUSは、堅牢なAIHPCプラットフォームと NVIDIA SDK(Software Development Kit)を基盤に、台湾の国家衛生研究院(National Health Research Institutes, NHRI)と提携し、バイオメディカル分野向けのAIスーパーコンピュータを構築しました。
      この取り組みは、バイオメディカル研究や精密医療における革新的なブレークスルーを生み出し、医療機関が先端AIテクノロジーを活用して生命科学研究を大幅に加速できる環境を実現しています。

      ASUSは、AIモデル開発からインフラストラクチャの運用保守、最適化までを一貫して担い、常にシームレスで高性能なAIコンピューティングを提供しています。
      本AIスーパーコンピュータは劇的な性能向上を達成しており、ゲノムデータ解析では従来のCPU比で87倍、分子動力学シミュレーションでは9倍、さらにAI画像アノテーションや自然言語処理では最大180〜250倍の高速化を実現しています。
      • ESC NB8-E11

        ESC NB8-E11

        • 第4/第5世代インテル® Xeon®スケーラブル・プロセッサーx2
        • NVIDIA Blackwell HGX™ B200 x 8
        • DIMM x 32, DDR5 5600 RDIMM/ 3DS RDIMM
        • NVLink™を介したGPU間のダイレクトインターコネクト
      • VSD320D-RS12

        VS320D-RS12

        • インテルXeon CPU
        • 自動階層化
        • DIMM 32GB x 4
        • NIC 25G イーサネット4
        • SAS HDD 20TB x 12
    • スマートシティAIプラットフォームによる公共安全とガバナンスの変革

      The road detection display shows numerous cars highlighted with yellow boxes.
      ASUSは、台湾初となるスマートシティ向け「ダイナミック画像AIプラットフォーム」を支えるために、基盤となるAIインフラと高いコンピューティング能力を提供しています。
      ASUSの高性能GPU/CPUサーバー、ストレージソリューション、そして統合的なサービス管理を活用することで、自治体向けにデータを一元化し、AIによる高度なインサイトを提供できる環境を実現しています。

      プラットフォームで収集した重要情報は、シームレスなスマートシティダッシュボード上に集約。
      そこでは、交通量解析、ヒートマップ表示、ソーシャルディスタンス管理やマスク着用検出などの情報が一目で把握できます。

      さらに、KVM ベースのサービスプラットフォームと、CNCF認定の Kubernetes を採用することで、AIのトレーニング、推論処理、コンテナサービスを効率的に運用できる体制を整えています。

      この取り組みにより、公共の安全性向上、交通最適化、データドリブンな行政運営の推進、そしてコスト効率の改善とともに、スマートシティにおけるイノベーション創出を後押ししています。
      • ESC8000A-E13P

        ESC8000A-E13P

        • AMD Turin CPU
        • NVIDIA RTX PRO 6000 x 8
        • DIMM 64GB x 8
        • NVIDIA CX7 x 3
        • 1TB OSドライブ x 2
      • VSD320D-RS26

        VSD320D-RS26

        • インテルXeon CPU
        • 自動階層化
        • DIMM 32GB x 4
        • NIC 25G イーサネット4
        • SAS SSD 15.36TB x 26
  • ASUSのメリットとサービス

    信頼できる NVIDIA® Omniverse 統合プロバイダとして、ASUS は戦略コンサルティングから導入サポートまで包括的なソリューションを提供し、産業デジタル化の可能性を最大限に引き出すお手伝いをします。

    統合コンサルティング
    カスタマイズされたデジタルトランスフォーメーションの構想
    技術教育
    専門的なOmniverseのスキルトレーニング
    導入サポート
    シームレスなシステム統合と実装
    カスタムソリューション
    特定のニーズに合わせたアプリケーション開発
    An engineer stands in the data center, holding a handheld computer. and Two engineers stand in the data center's control center, discussing a real-time monitoring display. and Four buttons float on a virtual screen. and Rows of computing clusters in the data center. An engineer stands in the data center, holding a handheld computer. and Two engineers stand in the data center's control center, discussing a real-time monitoring display. and Four buttons float on a virtual screen. and Rows of computing clusters in the data center.
  • よくあるご質問

    • 1. ASUS AIファクトリー とは何ですか? また、組織がAIソリューションを拡張するにはどうすればよいでしょうか?

      ASUS AI ファクトリー は、トークン生成を目的に設計されたエンドツーエンドの包括的AIプラットフォームです。
      生データを価値あるインテリジェンスへと変換し、企業が持つアイデアを“実際に活用できるAIソリューション”へと発展させることを可能にします。

      ASUSは、高度なハードウェア、ソフトウェア、そしてサービスを一体化することで、クラウド環境とオンプレミス環境の双方に対応するハイブリッド型のAIエコシステムを提供しています。
      これにより、多様なエンタープライズAIワークロード—生成AI、推論、HPC など—を強力に支援します。

      詳細はこちら:AI Server and Infrastructure Solutions

    • 2. ASUS は AI ソリューションの信頼性、コンプライアンス、セキュリティをどのように確保していますか?

      ASUSは、強固なAIガバナンスおよびデータガバナンスのフレームワークを導入し、データ品質の確保、法規制への確実な準拠、そして信頼性の高いAI結果の提供を実現しています。

      また、世界2,500以上のサービスセンターと5,500名を超えるエンジニアによるグローバルネットワークを活用し、設計・製造から導入後のサポートまで、製品ライフサイクル全体を一貫して支援します。
      ASUSは、SLA(サービスレベル契約)に基づく高品質なサポートと、ビジネスニーズに合わせた最適化されたソリューションを提供し、AIシステムが継続的に安定した動作を維持できるよう支援しています。

    • 3. ASUS AIファクトリーソリューションはどのような業界やユースケースに最適ですか?

      ASUS AI Factory は、多様な業界と高付加価値のユースケースに対応しています。
      対象領域は、開発者、AI研究者、データサイエンティスト、バイオテック、製造業、ミッションクリティカル領域、金融サービス、5G、ネットワーキング、クラウドサービスプロバイダーなど、多岐にわたります。

      プラットフォームが持つスケーラブルで柔軟なアーキテクチャにより、個別ニーズに応じたパーソナライズされたAI開発が可能になります。
      また、大規模なスーパーコンピューティングインフラの構築・運用にも対応し、ハイパフォーマンスなAI処理を支援します。

      導入事例はこちらからご覧いただけます:https://servers.asus.com/jp/stories

    • 4. ASUSはNVIDIAとどのように連携して、高度なAIインフラストラクチャとソリューションを提供していますか?

      ASUSはNVIDIAと緊密に連携し、検証済みのハードウェアプラットフォーム(NVIDIA Blackwell、HGX、MGXアーキテクチャなど)とエンタープライズグレードのソフトウェア、ネットワーク、ストレージを統合した、トークン生成型のフルスタックAIファクトリーソリューションを提供しています。この連携により、パフォーマンスの最適化、AI導入の加速、総所有コスト(TCO)の削減、そしてエージェント型AIソリューションと物理AIソリューションのシームレスな導入が実現します。詳細はこちら:ASUS NVIDIA認定システムNVIDIA Omniverse Enterprise

    • 5. 企業のAI導入とデジタルトランスフォーメーション(DX)にASUSを選ぶメリットは何ですか?

      ASUSは、統合コンサルティング、デジタルトランスフォーメーションの構想、専門的なOmniverseトレーニング、導入サポートまで、包括的な一連のサービスを提供しています。ASUSのインフラストラクチャはあらゆるワークロードに対応できるよう設計されており、検証済みのリファレンスアーキテクチャ、スケーラブルなコンピューティングパワー、業界をリードする信頼性を備えています。さらに、ASUSとFoxlinkの連携は、物理環境全体にわたるAIエージェントとデジタルツインの導入における実際の成功例を示しており、大規模なAIトランスフォーメーションを推進するASUSの能力を際立たせています。詳細はこちら: ASUSは他社に類を見ない総合的なAIサーバーソリューションを提供 | ASUSサーバー

  • GB200 NVL72 Quantum
    Quantum Quantum Spectrum
    対応GPU GB200 GB300 GB300
    フォームファクタ 48RU 48RU 48RU
    ラック/ノード 18xコンピューティングトレイ/ 9xスイッチトレイ 18xコンピューティングトレイ/ 9xスイッチトレイ 18xコンピューティングトレイ/ 9xスイッチトレイ
    1 SU 16xラック/288xノード 16xラック/288xノード 16xラック/288xノード
    スイッチ (N/S) 8x SN5610(リーフ)/4x SN5610 (スパイン)/4x SN5610 (コア) 8x SN5610 (リーフ)/4x SN5610 (スパイン) 8x SN5610 (リーフ)/4x SN5610 (スパイン)
    スイッチ (E/W) 16x Q9700(リーフ)/18x Q9700(スパイン) 16x Q3400-RA(リーフ)/9x Q3400-RA(スパイン) 16x Q3400-RA(リーフ)/9x Q3400-RA(スパイン)
    サーバー ESC NM2N721-E1 XA GB721-E2 XA GB721-E2
    ストレージ RS501A-E12-RS12U RS501A-E12-RS12U RS501A-E12-RS12U
    MGMT RS700-E12-RS4U RS700-E12-RS4U RS700-E12-RS4U
  • ASUS AI WEKAストレージリファレンス

    Storage server with layers of drives

    管理ノード仕様(WMS)

    • サーバーまたは VM は次の要件を満たしている必要があります。
    • ブートドライバ:同一のブートドライブを2台搭載したシステムでは、OSはミラーリングされたパーティション(LVM)にインストールされ、使用可能容量は最低141GBです。
    • コア数とRAM:最低4コア、最低16GB RAM
    • ネットワークインターフェイス:最低1Gbps
    GBシリーズ Bシリーズ MGX/HGXシリーズ
    サーバーモデル ASUS RS501A-E12-RS12U
    CPUおよびメモリ AMD 64C ( 9005シリーズ ) および 768G RAM
    ネットワーク 400G(200x2) IB NIC x 2
    ストレージ ブートディスク:2 x 960G NVMe M.2
    ストレージディスク : 16 x 30.72 TLC NVMe U.2
    サーバーノード 27 19 8
    使用可能容量 10PB 7PB 2.2PB
    読み取り速度 2284GB 1607GB 676GB
    書き込み速度 691GB 486GB 164GB
    読み取りIOPS 49.5 Million 34.8 Million 14.6 Million
    書き込みIOPS 12.4 Million 8.7 Million 3.6 Million
    ストライプ幅 16+2+1 16+2+1 5+2+1

    WEKAデータプラットフォーム認定

  • ネットワークトポロジー

    NVIDIA GB200 NVL72のパフォーマンスには、効率的で高帯域幅のネットワーク接続が不可欠です。以下は、複数のNVL72システムを接続し、より大規模なネットワークインフラストラクチャに統合するために使用される一般的な外部ネットワークアーキテクチャとテクノロジの概要です。

    Switch for data center

    NVIDIA Quantum-2 QM9700シリーズInfiniBandスイッチ

    ODs 1 1 2 4
    ラック 1 2 4 8 6 32 64
    コンピューティングトレイ 18 36 72 144 288 576 1152
    Blackwell GPU 72 144 288 576 1152 2304 4608
    Bluefield-3 (DPU) 32 72 144 288 576 1152 2304
    スイッチ
    スパインスイッチ数 0 2 4 8 16 32
    リーフスイッチ数 2 4 8 16 32 64
  • 液冷ソリューション

    ASUS AI POD with NVIDIA GB200 NVL72

    ASUSはパートナー企業と連携し、キャビネットレベルの包括的な水冷ソリューションを提供しています。CPU/GPUコールドプレート、冷却分配ユニット、冷却タワーなど、データセンターにおける消費電力を最小限に抑え、電力使用効率(PUE)を最適化するよう設計された包括的なソリューションです。

    空冷ソリューション

    コンパクトな設備を備えた小規模データセンターに最適です。
    既存の空冷式データセンターのニーズを満たし、現在のインフラストラクチャと簡単に統合できるように設計されています。
    すぐに実装および展開したい企業に最適です。

    液冷ソリューション

    大規模で高負荷のインフラストラクチャに最適です。
    長期間にわたってエネルギー効率を維持し、低PUEを実現します。
    TCOを削減し、最大限の価値と費用対効果の高い運用を実現します。

    Asus Air-cooled solution. There are two CDUs next to one rack.
    ASUS liquid-cooled solution featuring two rows of GB200 NVL72 units with two CDUs and an integrated pipeline system beneath.