データからトークンへ
ASUS AIファクトリーは
大規模なインテリジェンスを提供します
データからトークンへ
ASUS AIファクトリーは、企業が持つ膨大なデータを価値あるインテリジェンスへとに変換し、アイデアを現実世界のAIソリューションへと拡張・加速する次世代のAI基盤です。ASUSは生成AI・LLM時代に求められる包括的なAIソリューションを提供し、絶え間ない技術革新を推進するとともに、業界のフロントランナーとしての地位を確固たるものにしています。AI企業としてASUSはデザイン思考に基づき、AIを企業活動のあらゆるレイヤーに組み込み、インテリジェントな未来の実現を目指しています。ASUSの幅広いプロダクトポートフォリオは、エッジからクラウド、オンプレミスまで AI を“誰もが、どこでも活用できる”環境を提供し、AIがもたらす新たな価値と可能性をすべての人に届けることをミッションとしています。
ASUSは、PCの領域枠を超えて、あらゆるユーザーに新たな価値をもたらす“包括的なAIエコシステム"を発表しました。
このエコシステムは、クラウドからオンプレミスまでシームレスに拡張可能な強固なAIインフラに支えられ、ハードウェア・ソフトウェア・サービスを統合することで、多様なエンタープライズAIワークロードにおけるAIの開発・実装を力強く支援します。
ASUSが展開する幅広いポートフォリオは、開発者、AI研究者、データサイエンティスト、バイオテック、ミッションクリティカル領域、製造業、5G/ネットワーキング、クラウドサービスプロバイダーなど――主要な各分野のニーズに最適化されたインテリジェントソリューションを提供します。
ASUS AIファクトリーの包括的なアプローチは、ハードウェア、ソフトウェアプラットフォーム、サービスをシームレスに統合し、お客様のAI導入を成功へと導きます。エッジAIからAIスーパーコンピューティングまで、ASUSのスケーラブルなインフラストラクチャは、多様なワークロードのニーズに対応できるよう設計されています。また、AI導入の加速と総保有コスト(TCO)の最適化を両立できるよう支援します。
ASUS AI ファクトリー は、ハードウェア、ソフトウェアプラットフォーム、そしてサービスをシームレスに統合し、企業のAI導入を成功へと導く“包括的なAIアプローチ”を提供します。
エッジAIからAIスーパーコンピューティングまで幅広く対応するスケーラブルなインフラにより、多様なAIワークロードの要求に柔軟に応えることが可能です。
さらに、AI活用の加速と同時に、TCO(総所有コスト)の最適化を実現し、企業のAI導入をより確実かつ効率的に支援します。
ASUSは、2200拠点を超えるグローバルサービスセンターネットワークを擁し、設計・製造から運用・サポートまで、製品ライフサイクル全体にわたるサービスレベル契約(SLA)に基づくカスタマイズソリューションを提供しています。さらに、堅牢なAIおよびデータガバナンス体制により、データの品質、規制遵守、そして信頼性を確保し、AIによる成果の完全性と正確性を確保します。
ASUSは、世界2,200拠点以上のサービスネットワークを活用し、SLA(サービスレベル契約)に基づく高品質なサポートと、設計・製造から導入後の運用支援まで製品ライフサイクル全体をカバーするカスタマイズソリューションを提供しています。
さらに、ASUSが構築する強固なAIガバナンスおよびデータガバナンスのフレームワークにより、データ品質の維持や法規制への準拠を徹底し、AIが導き出す最終的な判断結果の正確性と一貫性を確実に守ります。
ASUS AIファクトリーによる業界変革の最前線をご覧ください。
All-in-AIサーバー戦略に基づき、戦略的パートナーと緊密に連携し、AIエコシステムの進化を推進しています。産業製造の原理に着想を得たASUS AIファクトリーのアプローチは、AI開発を効率的かつ再現性のあるプロセスとして体系化し、膨大なデータを価値あるAI主導のインサイトやアクションへと効率的に変換します。
NVIDIA により検証された ASUS AI POD を中核とする ASUS AI ファクトリー は、エージェントAI、フィジカルAI、そして HPC ワークロードを、オンプレミス環境の NVIDIA Blackwell プラットフォーム上で開発・展開・運用するための実践的なガイドラインを提供します。
エンタープライズIT向けに設計されたこのアーキテクチャは、高性能なアクセラレーテッドコンピューティング、ネットワーキング、ストレージ、ソフトウェアを統合し、企業が AI ファクトリーを迅速に立ち上げ、価値創出までの時間を大幅に短縮するとともに、導入リスクを最小化します。
以下は、承認されたプラクティスをお客様が活用するためのリファレンスアーキテクチャ設計であり、様々なアプリケーション向けの知識リポジトリおよび標準化されたフレームワークとして機能します。
Grace
Blackwell
HGXプラットフォーム
AIトレーニングと推論のためのハイパースケールGPUコンピューティング 〉MGXプラットフォーム
スケーラブルコンピューティングのための汎用性 〉ASUS AI POD ― 次世代AIインフラを支える超高密度アーキテクチャ
NVIDIA GB200/GB300 NVL72 による圧倒的な計算性能と効率性
ASUSの先進的な AI POD は、NVIDIA GB200/GB300 NVL72ラックに最適化され、
NVIDIA Quantum InfiniBand または NVIDIA Spectrum-X Ethernet ネットワーキングを組み合わせることで、
次世代AIクラスタ向けの極めて高い拡張性・性能を実現します。
液冷対応構成では、
8ラック合計 576 GPU を完全ノンブロッキングで接続する大規模クラスターを構築可能。
空冷構成では、1ラックあたり 72 GPU をサポートし、導入環境に応じて柔軟に選択できます。
■ 特長
NVL72 ベースの超高密度AIアーキテクチャ
液冷/空冷の柔軟なサーマルソリューション
Quantum InfiniBand / Spectrum-X Ethernet による高帯域ネットワーク
576 GPUクラスタを見据えた大規模AI処理に最適
推論・学習の両面で圧倒的な効率と性能を実現
この超高密度・高効率のASUS AI PODは、AI推論・AI開発における計算性能とエネルギー効率を新たなレベルへと引き上げます。
ASUS最適化 NVIDIA HGX™ リファレンスアーキテクチャ
AIファインチューニング・LLM推論・学習における最高クラスの効率性とGPU密度を実現
ASUS が最適化した NVIDIA HGX™ リファレンスアーキテクチャは、AIファインチューニング、LLM推論、モデル学習において、比類ない 効率性・熱設計・GPU密度 を提供します。
本ソリューションは、
NVIDIA HGX™ B300 を搭載した ASUS XA NB3I-E12
NVIDIA HGX™ B200 を搭載した ESC NB8-E11
をベースとした集中型ラック構成で、液冷・空冷いずれのラックシステムにも対応する 圧倒的な製造キャパシティ を備えています。
■ 主な特長
●最高効率のHGXリファレンス設計:ASUS独自の最適化により高いGPU密度と均一な熱管理を実現
●高性能AIワークロードに最適化:ファインチューニング、LLM推論、大規模モデル学習に最適
●液冷/空冷両対応:導入環境や運用要件に合わせて柔軟に選択
●大規模製造能力による安定供給:短納期対応・高品質・均一なパフォーマンスを保証
●TCO削減:効率的な冷却、標準化された設計により保守・運用コストを大幅に低減
| B300LC | Quantum | Spectrum |
|---|---|---|
| 対応GPU | B300 NVL8 | B300 NVL8 |
| フォームファクタ | 5RU | 5RU |
| ラック/ノード | ラックあたり8xノード /9xラック | ラックあたり8xノード /4xラック |
| 1 SU | 9xラック / 72xノード | 4xラック / 32xノード |
| スイッチ(N/S) | 8x SN5610 (リーフ)/4x SN5610 (スパイン) | 2x SN5610(リーフ) |
| スイッチ (E/W) | 8x Q3400-RA(リーフ)/ 4x Q3400-RA(スパイン) | 8x SN5610 (リーフ)/4x SN5610 (スパイン) |
| サーバー | XA NB3I-E12L | XA NB3I-E12L |
| ストレージ | RS501A-E12-RS12U | RS501A-E12-RS12U |
| MGMT | RS700-E12-RS4U | RS700-E12-RS4U |
| B300AC | Quantum | Spectrum |
|---|---|---|
| 対応GPU | B300 NVL8 | B300 NVL8 |
| フォームファクタ | 9RU | 9RU |
| ラック/ノード | 4x Node per Rack / 18x rack | 4x Node per Rack / 8x rack |
| 1 SU | 18x rack / 72x node | 8x rack / 32x Node |
| スイッチ (N/S) | 8x SN5610 (リーフ)/4x SN5610 (スパイン) | 2x SN5610 (Leaf) |
| スイッチ (E/W) | 8x Q3400-RA (Leaf) / 4x Q3400-RA (Spine) | 8x SN5610 (リーフ)/4x SN5610 (スパイン) |
| Server | XA NB3I-E12 | XA NB3I-E12 |
| Storage | RS501A-E12-RS12U | RS501A-E12-RS12U |
| MGMT | RS700-E12-RS4U | RS700-E12-RS4U |
| B200AC | Quantum | Spectrum |
|---|---|---|
| 対応GPU | B200 NVL8 | B200 NVL8 |
| フォームファクタ | 10RU | 10RU |
| ラック/ノード | 4x Node per Rack / 8x rack | 4x Node per Rack / 8x rack |
| 1 SU | 8x rack / 32x node | 8x rack / 32x Node |
| スイッチ (N/S) | 2x SN5610 (Leaf) | 2x SN5610 (Leaf) |
| スイッチ (E/W) | 8x QM9700 (Leaf) / 4x QM9700 (Spine) | 4x SN5610 (Leaf) / 2x SN5610 (Spine) |
| Server | ESC N8B-E11 | ESC N8B-E11 |
| Storage | RS501A-E12-RS12U | RS501A-E12-RS12U |
| MGMT | RS700-E12-RS4U | RS700-E12-RS4U |
ASUS NVIDIA MGX準拠ラックソリューション
次世代AIインフラに最適化されたESC8000シリーズ
ASUS は、NVIDIA MGX仕様に準拠した最新ラックソリューションとして ESC8000 シリーズを展開しています。
本シリーズは デュアル Intel® Xeon® 6 プロセッサー、RTX PRO™ 6000 Blackwell Server Edition、さらに最大 800Gb/s を実現する NVIDIA ConnectX-8 SuperNIC を採用し、次世代AIワークロードに求められる 高い演算性能と圧倒的な拡張性 を提供します。
■ 主な特長
●NVIDIA MGX準拠設計:将来のGPU・NICアップグレードにも柔軟に対応
●最大800Gb/sの高スループット:NVIDIA ConnectX-8 SuperNIC により高速かつ低遅延のネットワークを実現
●スケーラブルGPU構成:RTX PRO™ 6000 Blackwell Server Editionをはじめ、多様なGPU構成をサポート
●デュアルXeon 6搭載:最新世代CPUによる高い処理性能とバランスの良いシステム構成
■ NVIDIA AI Enterprise との統合
NVIDIA AI Enterprise ソフトウェアプラットフォームとのシームレスな統合を実現。
AI開発から推論、大規模分散環境まで、フルスタックでスケーラブルなAIインフラとして導入可能です。
| MGX CX8 | Quantum | Spectrum |
|---|---|---|
| 対応GPU | H200 NVL, L40S, RTX Pro 6000 BSE | H200 NVL, L40S, RTX Pro 6000 BSE |
| フォームファクタ | 4RU | 4RU |
| ラック/ノード | ラックあたり8xノード / 合計4xラック、またはラックあたり4xノード / 合計8xラック | ラックあたり8xノード / 合計4xラック、またはラックあたり4xノード / 合計8xラック |
| 1 SU | 8xラック / 4xまたは 8xラック / 32xノード | 8xラック / 4xまたは 8xラック / 32xノード |
| スイッチ (N/S) | 2x SN5610(リーフ) | 2x SN5610(リーフ) |
| スイッチ (E/W) | 4x QM9700(リーフ) / 2x QM9700(スパイン) | 2x SN5610(リーフ) |
| サーバー | ESC8000-E12P ESC8000A-E13P |
ESC8000-E12P ESC8000A-E13P |
| ストレージ | RS501A-E12-RS12U | RS501A-E12-RS12U |
| MGMT | RS700-E12-RS4U | RS700-E12-RS4U |
ASUSは、データセンターを迅速に立ち上げるだけでなく、導入後のスムーズな運用を継続的に支えることを重視しています。
そのためASUSは、包括的なソフトウェアツールおよびプラットフォーム群を提供しています。
これらは、ワンクリックでデプロイできる機能を備えており、課金システムを含むビジネス要件に合わせて柔軟にカスタマイズ可能です。
お客様の運用形態に最適化されたインターフェースやサービスを構築できる点が大きな特徴です。
自動化された大規模な導入とプロビジョニング
フルスタックの可視性とプロアクティブなアラート
サーバー管理の一元化
スマートファブリック監視とネットワーク最適化
スケーラブルなAIトレーニングおよび推論プラットフォーム
効率的なコンピューティングリソースとジョブオーケストレーション
信頼できる NVIDIA® Omniverse 統合プロバイダとして、ASUS は戦略コンサルティングから導入サポートまで包括的なソリューションを提供し、産業デジタル化の可能性を最大限に引き出すお手伝いをします。
| GB200 NVL72 | Quantum | ||
|---|---|---|---|
| Quantum | Quantum | Spectrum | |
| 対応GPU | GB200 | GB300 | GB300 |
| フォームファクタ | 48RU | 48RU | 48RU |
| ラック/ノード | 18xコンピューティングトレイ/ 9xスイッチトレイ | 18xコンピューティングトレイ/ 9xスイッチトレイ | 18xコンピューティングトレイ/ 9xスイッチトレイ |
| 1 SU | 16xラック/288xノード | 16xラック/288xノード | 16xラック/288xノード |
| スイッチ (N/S) | 8x SN5610(リーフ)/4x SN5610 (スパイン)/4x SN5610 (コア) | 8x SN5610 (リーフ)/4x SN5610 (スパイン) | 8x SN5610 (リーフ)/4x SN5610 (スパイン) |
| スイッチ (E/W) | 16x Q9700(リーフ)/18x Q9700(スパイン) | 16x Q3400-RA(リーフ)/9x Q3400-RA(スパイン) | 16x Q3400-RA(リーフ)/9x Q3400-RA(スパイン) |
| サーバー | ESC NM2N721-E1 | XA GB721-E2 | XA GB721-E2 |
| ストレージ | RS501A-E12-RS12U | RS501A-E12-RS12U | RS501A-E12-RS12U |
| MGMT | RS700-E12-RS4U | RS700-E12-RS4U | RS700-E12-RS4U |
| GBシリーズ | Bシリーズ | MGX/HGXシリーズ | |
|---|---|---|---|
| サーバーモデル | ASUS RS501A-E12-RS12U | ||
| CPUおよびメモリ | AMD 64C ( 9005シリーズ ) および 768G RAM | ||
| ネットワーク | 400G(200x2) IB NIC x 2 | ||
| ストレージ | ブートディスク:2 x 960G NVMe M.2 ストレージディスク : 16 x 30.72 TLC NVMe U.2 |
||
| サーバーノード | 27 | 19 | 8 |
| 使用可能容量 | 10PB | 7PB | 2.2PB |
| 読み取り速度 | 2284GB | 1607GB | 676GB |
| 書き込み速度 | 691GB | 486GB | 164GB |
| 読み取りIOPS | 49.5 Million | 34.8 Million | 14.6 Million |
| 書き込みIOPS | 12.4 Million | 8.7 Million | 3.6 Million |
| ストライプ幅 | 16+2+1 | 16+2+1 | 5+2+1 |
WEKAデータプラットフォーム認定
NVIDIA GB200 NVL72のパフォーマンスには、効率的で高帯域幅のネットワーク接続が不可欠です。以下は、複数のNVL72システムを接続し、より大規模なネットワークインフラストラクチャに統合するために使用される一般的な外部ネットワークアーキテクチャとテクノロジの概要です。
| ODs | 1 | 1 | 2 | 4 | |||
| ラック | 1 | 2 | 4 | 8 | 6 | 32 | 64 |
| コンピューティングトレイ | 18 | 36 | 72 | 144 | 288 | 576 | 1152 |
| Blackwell GPU | 72 | 144 | 288 | 576 | 1152 | 2304 | 4608 |
| Bluefield-3 (DPU) | 32 | 72 | 144 | 288 | 576 | 1152 | 2304 |
| スイッチ | |||||||
| スパインスイッチ数 | 0 | 2 | 4 | 8 | 16 | 32 | |
| リーフスイッチ数 | 2 | 4 | 8 | 16 | 32 | 64 |
ASUSはパートナー企業と連携し、キャビネットレベルの包括的な水冷ソリューションを提供しています。CPU/GPUコールドプレート、冷却分配ユニット、冷却タワーなど、データセンターにおける消費電力を最小限に抑え、電力使用効率(PUE)を最適化するよう設計された包括的なソリューションです。
コンパクトな設備を備えた小規模データセンターに最適です。
既存の空冷式データセンターのニーズを満たし、現在のインフラストラクチャと簡単に統合できるように設計されています。
すぐに実装および展開したい企業に最適です。
大規模で高負荷のインフラストラクチャに最適です。
長期間にわたってエネルギー効率を維持し、低PUEを実現します。
TCOを削減し、最大限の価値と費用対効果の高い運用を実現します。