從資料到 tokens

ASUS AI 工廠實現大規模智慧化

ASUS AI 基礎架構資料中心資訊圖表的等角投影插圖,其中包含三座水冷塔、兩排 GPU 伺服器、一個帶有大型顯示螢幕的中央控制中心、雲端服務和儲存裝置的圖示,以及多組人員協作和與技術互動——傳達出高科技和動態的環境。
  • ASUS AI 工廠將資料轉化為可行的情報,並將創意擴展為真實世界的 AI 解決方案,從而將創新帶入生活。華碩提供全面的 AI 解決方案,推動持續創新並保持領先地位。作為一家 AI 公司,華碩致力於透過設計思維,將 AI 融入我們業務的各個層面,從而建立一個智慧且永續的未來。我們的跨產品組合正在引領潮流,讓 AI 無處不在,人人可用,並確保每個人都能從 AI 保證的可能性中受益。

    無所不在的 AI   ∞   開創無限可能

    華碩展示了一個超越個人電腦的全面 AI 生態系統,為不同領域的使用者賦能。這個生態系統由強大的 AI 基礎架構支援,涵蓋可擴展的雲端和強大的本地解決方案,無縫整合硬體、軟體和服務,支援為各種企業 AI 工作負載開發和部署 AI。我們多樣化的產品組合包括智慧解決方案,策略性地為開發人員、AI 研究人員、資料科學家、生物科技、關鍵任務應用、製造業、5G 與網路以及雲端服務供應商等關鍵領域量身打造。

  • 華碩與 NVIDIA 共同設計,為生成 token 的 AI 工廠提供全方位解決方案

    全面的 ASUS AI 工廠方法無縫整合了硬體、軟體平台和服務,以支援我們的客戶在 AI 部署方面取得成功。從邊緣 AI 到 AI 超級運算,我們可擴展的基礎架構旨在滿足各種工作負載的需求。至關重要的是,我們協助組織加速採用 AI,同時優化總體擁有成本 (TCO)。

    憑藉遍佈全球的 2,200 多個服務中心,華碩提供由服務等級協議 (SLA) 驅動的客製化解決方案,涵蓋整個產品生命週期——從設計、製造到持續支援。我們強大的 AI 和資料治理框架確保資料品質、法規遵循和信任,保障 AI 成果的完整性和準確性。

    ASUS AI 解決方案圖表,突顯諮詢、軟體服務和基礎架構。特色為 NVIDIA 技術、華碩平台和部署協調。
    一張數位插圖,顯示左側一位資料科學家正在分析圖表和伺服器,並透過箭頭連接到右側一個大型伺服器堆疊。

    探索 ASUS AI 工廠如何徹底改變各行各業的應用。

  • 適用於所有工作負載的基礎架構

    在我們的 All-in-AI 伺服器策略的推動下,我們與策略合作夥伴密切合作,以推動 AI 生態系統的發展。受到工業製造原則的啟發,ASUS AI 工廠方法將 AI 開發視為一個簡化、可重複的流程——有效地將資料轉化為有價值的 AI 驅動洞察和行動。

    經 NVIDIA 驗證的 AI 工廠搭配 ASUS AI POD,為在本地 NVIDIA Blackwell 平台上開發、部署和管理代理式 AI、實體 AI 和 HPC 工作負載提供指引。專為企業 IT 設計,它提供加速運算、網路、儲存和軟體,有助於更快實現 AI 工廠部署的價值,同時降低部署風險。

    以下是參考架構設計,可幫助客戶使用經核准的實踐,作為知識庫和適用於各種應用的標準化框架。

    大型和超大規模運算

    先進的 搭配 NVIDIA GB200/GB300 NVL72 的 ASUS AI POD 機櫃,結合了 NVIDIA Quantum InfiniBandNVIDIA Spectrum-X 乙太網路 平台,採用液冷技術,可在八個機櫃中實現無阻塞的 576-GPU 叢集,或採用氣冷解決方案支援一個擁有 72 個 GPU 的機櫃。這種超密集、超高效的架構重新定義了 AI 推理運算效能和效率。

    用於 AI 訓練和推論的超大規模 GPU 運算

    經華碩優化的 NVIDIA HGX™ 參考架構,為加速 AI 微調、大型語言模型 (LLM) 推論和訓練提供無與倫比的效率、散熱管理和 GPU 密度。此集中式機櫃解決方案建立在搭載 NVIDIA HGX™ B300 的華碩 XA NB3I-E12 或內嵌 NVIDIA HGX™ B200 的 ESC NB8-E11 之上,為液冷或氣冷機櫃系統提供無與倫比的製造能力,確保及時交付、降低總體擁有成本 (TCO) 並維持一致的效能。

    • 搭配 NVIDIA HGX™ B300 的 ASUS AI POD

      以 NVIDIA HGX B300 搭配液冷解決方案為特色的 ASUS AI POD 參考架構
      B300LC Quantum Spectrum
      GPU 支援 B300 NVL8 B300 NVL8
      尺寸 5RU​ 5RU
      機櫃/節點 每個機櫃 8 個節點 / 9 個機櫃 每個機櫃 8 個節點 / 4 個機櫃
      1 SU 9 個機櫃 / 72 個節點 4 個機櫃 / 32 個節點
      交換器 (N/S) 8x SN5610 (Leaf) / 4x SN5610 (Spine) 2x SN5610 (Leaf)
      交換器 (E/W) 8x Q3400-RA (Leaf) / 4x Q3400-RA (Spine) 8x SN5610 (Leaf) / 4x SN5610 (Spine)
      伺服器 XA NB3I-E12L XA NB3I-E12L
      儲存裝置 RS501A-E12-RS12U RS501A-E12-RS12U
      管理 RS700-E12-RS4U RS700-E12-RS4U​
    • 搭配 NVIDIA HGX™ B300 AC 的 ASUS AI POD

      以 NVIDIA HGX B300 搭配氣冷解決方案為特色的 ASUS AI POD 參考架構
      B300AC Quantum Spectrum
      GPU 支援 B300 NVL8 B300 NVL8
      尺寸 9RU 9RU
      機櫃/節點 每個機櫃 4 個節點 / 18 個機櫃 每個機櫃 4 個節點 / 8 個機櫃
      1 SU 18 個機櫃 / 72 個節點 8 個機櫃 / 32 個節點
      交換器 (N/S) 8x SN5610 (Leaf) / 4x SN5610 (Spine) 2x SN5610 (Leaf)
      交換器 (E/W) 8x Q3400-RA (Leaf) / 4x Q3400-RA (Spine) 8x SN5610 (Leaf) / 4x SN5610 (Spine)
      伺服器 XA NB3I-E12 XA NB3I-E12
      儲存裝置 RS501A-E12-RS12U RS501A-E12-RS12U
      管理 RS700-E12-RS4U RS700-E12-RS4U
    • 搭配 NVIDIA HGX™ B200 的 ASUS AI POD

      以 NVIDIA HGX B200 搭配氣冷解決方案為特色的 ASUS AI POD 參考架構
      B200AC Quantum Spectrum
      GPU 支援 B200 NVL8 B200 NVL8
      尺寸 10RU 10RU
      機櫃/節點 每個機櫃 4 個節點 / 8 個機櫃 每個機櫃 4 個節點 / 8 個機櫃
      1 SU 8 個機櫃 / 32 個節點 8 個機櫃 / 32 個節點
      交換器 (N/S) 2x SN5610 (Leaf) 2x SN5610 (Leaf)
      交換器 (E/W) 8x QM9700 (Leaf) / 4x QM9700 (Spine) 4x SN5610 (Leaf) / 2x SN5610 (Spine)
      伺服器 ESC N8B-E11 ESC N8B-E11
      儲存裝置 RS501A-E12-RS12U RS501A-E12-RS12U
      管理 RS700-E12-RS4U RS700-E12-RS4U

    用於可擴充運算的一般用途 可擴充的能力 適用於大型語言模型 (LLM) 和沉浸式工作負載

    華碩推出符合 NVIDIA MGX 規範的機櫃設計,採用 ASUS ESC8000 系列,配備雙 Intel® Xeon® 6 處理器和 RTX PRO™ 6000 Blackwell 伺服器版,並搭載最新的 NVIDIA ConnectX-8 SuperNIC——支援高達 800Gb/s 的速度或其他可擴充的配置——為最先進的 AI 工作負載提供卓越的擴充性和效能。與 NVIDIA AI Enterprise 軟體平台整合,提供高度可擴展、全方位的伺服器解決方案,滿足現代運算的嚴苛要求。

    ASUS AI POD,搭載 MGX 4U 平台

    搭載 MGX 4U 平台的 ASUS AI POD 參考架構
    MGX CX8 Quantum Spectrum
    GPU 支援 H200 NVL, L40S, RTX Pro 6000 BSE H200 NVL, L40S, RTX Pro 6000 BSE
    尺寸 4RU 4RU
    機櫃/節點 每個機櫃 8 個節點 / 共 4 個機櫃

    每個機櫃 4 個節點 / 共 8 個機櫃
    每個機櫃 8 個節點 / 共 4 個機櫃

    每個機櫃 4 個節點 / 共 8 個機櫃
    1 SU 8 個機櫃 / 4 個或 8 個機櫃 / 32 個節點 8 個機櫃 / 4 個或 8 個機櫃 / 32 個節點
    交換器 (N/S) 2x SN5610 (Leaf) 2x SN5610 (Leaf)
    交換器 (E/W) 4x QM9700 (Leaf) / 2x QM9700 (Spine) 2x SN5610 (Leaf)
    伺服器 ESC8000-E12P
    ESC8000A-E13P
    ESC8000-E12P
    ESC8000A-E13P
    儲存裝置 RS501A-E12-RS12U RS501A-E12-RS12U
    管理 RS700-E12-RS4U RS700-E12-RS4U
  • AI 服務與平台開發

    華碩不僅致力於讓您的資料中心能夠快速部署,更確保其運作順暢可靠。因此,我們提供一套全面的軟體工具和平台,實現一鍵部署以及可自訂的介面和服務——例如計費——以滿足您特定的業務需求。

    • 部署與管理平台

      • AIDC

        自動化大規模部署與配置

        螢幕截圖顯示資料中心監控狀態和配置。
      • 日誌與監控

        全方位可視性與主動警示

        螢幕截圖顯示資料中心日誌和警示
      • ACC

        集中式伺服器管理

        螢幕截圖顯示資料中心的集中控制儀表板
      • UFM & NMX

        智慧網狀架構監控與網路最佳化

        螢幕截圖顯示資料中心的網狀架構和網路圖
    • 服務平台

      • AI 平台

        可擴充的 AI 訓練與推論平台

        螢幕截圖顯示 AI 訓練和推論平台
      • HPC 排程器

        高效的運算資源與作業協調

        螢幕截圖顯示運算資源的安排。
    華碩整體基礎架構解決方案,從運算實施到散熱設計和專業服務
  • 透過 ASUS AI 工廠推動各產業的 AI 轉型

    更多成功案例
    • NVIDIA 驅動的精準度:ASUS 伺服器推動 AI 轉型

      一個自動化工廠的場景,有 3 支機械手臂。
      華碩與製造業客戶合作,利用 NVIDIA Omniverse 和大規模 AI 實現前瞻性的概念。由 ASUS AI 伺服器在 NVIDIA HGX 和 AGX 平台上驅動,智慧代理在真實世界的環境中運作,收集資料,在邊緣處理洞察,並與 Omniverse 模擬即時同步。華碩建置的資料中心處理核心運算,而客戶的機器人系統則在 NVIDIA AGX 上運行,無縫整合感測器饋送、邊緣推論和雲端協調,以提供可靠的 AI 效能。
      • ESC8000A-E13P

        ESC8000A-E13P

        • AMD Turin CPU
        • NVIDIA RTX PRO 6000 x 8
        • DIMM 64GB x 8
        • NVIDIA CX7 x 3
        • 1TB 作業系統磁碟機 x 2
      • VSD320D-RS12

        VS320D-RS12

        • Intel Xeon CPU
        • 自動分層
        • DIMM 32GB x 4
        • NIC 25G 乙太網路 4
        • SAS HDD 20TB x 12
    • 華碩為國家生醫 AI 超級電腦提供動力,協助革新生命科學

      兩位研究人員正在螢幕上討論一張醫學影像。
      華碩與國家衛生研究院合作,以其強大的 AIHPC 平台和 NVIDIA SDK (軟體開發套件) 為基礎,打造了一台生醫 AI 超級電腦。這項合作推動了生醫研究和精準醫療的突破,使醫療機構能夠以尖端技術推進生命科學研究。華碩負責模型開發、基礎設施維護和優化,以確保無縫的 AI 運算效能。這台超級電腦提供了顯著的速度提升:基因組資料分析速度快 87 倍,分子動力學模擬速度快 9 倍,而 AI 影像標註和自然語言處理的速度與傳統 CPU 相比,更是提升了 180-250 倍。
      • ESC NB8-E11

        ESC NB8-E11

        • 第 4/5 代 Intel® Xeon® 可擴充處理器 x2
        • NVIDIA Blackwell HGX™ B200 x 8
        • DIMM x 32, DDR5 5600 RDIMM/ 3DS RDIMM
        • 透過 NVIDIA NVLink™ 實現直接 GPU 對 GPU 互連
      • VSD320D-RS12

        VS320D-RS12

        • Intel Xeon CPU
        • 自動分層
        • DIMM 32GB x 4
        • NIC 25G 乙太網路 4
        • SAS HDD 20TB x 12
    • 透過智慧城市 AI 平台轉變公共安全與治理

      道路偵測顯示器顯示許多用黃色框標示的汽車。
      華碩提供必要的 AI 基礎架構和運算能力,以協助推動台灣首個智慧城市動態影像 AI 平台。該平台利用先進的 ASUS GPU/CPU 伺服器、儲存解決方案和服務管理,為地方市政府提供統一的資料匯總和 AI 驅動的洞察。所有重要資訊都呈現在無縫的智慧城市儀表板上,包括交通流量分析、熱點圖和社交距離口罩偵測。憑藉基於 KVM 的服務平台和經 CNCF 認證的 Kubernetes,華碩確保了高效的訓練、推論和容器服務。這項合作增強了公共安全,優化了交通,促進了資料驅動的治理,並在提高成本效益的同時促進了創新。
      • ESC8000A-E13P

        ESC8000A-E13P

        • AMD Turin CPU
        • NVIDIA RTX PRO 6000 x 8
        • DIMM 64GB x 8
        • NVIDIA CX7 x 3
        • 1TB 作業系統磁碟機 x 2
      • VSD320D-RS26

        VSD320D-RS26

        • Intel Xeon CPU
        • 自動分層
        • DIMM 32GB x 4
        • NIC 25G 乙太網路 4
        • SAS SSD 15.36TB x 26
  • 華碩的優勢與服務

    作為您值得信賴的 NVIDIA® Omniverse 整合供應商,華碩提供從策略諮詢到部署支援的完整解決方案,協助您釋放工業數位化的全部潛力。

    整合諮詢
    客製化數位轉型藍圖
    技術教育
    專業的 Omniverse 技能訓練
    部署支援
    無縫的系統整合與實施
    客製化解決方案
    針對特定需求的應用程式開發
    一位工程師手持手持電腦站在資料中心。兩位工程師站在資料中心的控制中心,討論即時監控顯示。四個按鈕漂浮在虛擬螢幕上。資料中心內成排的運算叢集。 一位工程師手持手持電腦站在資料中心。兩位工程師站在資料中心的控制中心,討論即時監控顯示。四個按鈕漂浮在虛擬螢幕上。資料中心內成排的運算叢集。
  • 常見問題

  • GB200 NVL72 Quantum
    Quantum Quantum Spectrum
    GPU 支援 GB200 GB300 GB300
    尺寸 48RU 48RU 48RU
    機櫃/節點 18 個運算托盤 / 9 個交換器托盤 18 個運算托盤 / 9 個交換器托盤 18 個運算托盤 / 9 個交換器托盤
    1 SU 16 個機櫃 / 288 個節點 16 個機櫃 / 288 個節點 16 個機櫃 / 288 個節點
    交換器 (N/S) 8x SN5610 (Leaf) / 4x SN5610 (Spine) / 4x SN5610 (Core) 8x SN5610 (Leaf) / 4x SN5610 (Spine) 8x SN5610 (Leaf) / 4x SN5610 (Spine)
    交換器 (E/W) 16x Q9700 (Leaf) / 18x Q9700 (Spine) 16x Q3400-RA (Leaf) / 9x Q3400-RA (Spine) 16x Q3400-RA (Leaf) / 9x Q3400-RA (Spine)
    伺服器 ESC NM2N721-E1 XA GB721-E2 XA GB721-E2
    儲存裝置 RS501A-E12-RS12U RS501A-E12-RS12U RS501A-E12-RS12U
    管理 RS700-E12-RS4U RS700-E12-RS4U RS700-E12-RS4U
  • ASUS AI WEKA 儲存參考

    具有多層磁碟機的儲存伺服器

    管理節點規格 (WMS)

    • 伺服器或虛擬機器必須符合以下要求:
    • 開機磁碟機:具有兩個相同開機磁碟機的系統,作業系統安裝在鏡像分割區 (LVM) 上,最小可用容量為 141GB。
    • 核心與 RAM:最少 4 個核心與 16GB RAM
    • 網路介面:最少 1 Gbps
    GB 系列 B 系列 MGX/HGX 系列
    伺服器型號 ASUS RS501A-E12-RS12U
    CPU 與記憶體 AMD 64C (9005 系列) 與 768G RAM
    網路 400G(200x2) IB NIC x 2
    儲存裝置 開機磁碟:2 x 960G NVMe M.2
    儲存磁碟:16 x 30.72 TLC NVMe U.2
    伺服器節點 27 19 8
    可用容量 10PB 7PB 2.2PB
    讀取速度 2284GB 1607GB 676GB
    寫入速度 691GB 486GB 164GB
    讀取 IOPS 4,950 萬 3,480 萬 1,460 萬
    寫入 IOPS 1,240 萬 870 萬 360 萬
    Stripe 寬度 16+2+1 16+2+1 5+2+1

    經 WEKA Data Platform 認證

  • 網路拓撲

    高效和高頻寬的網路連接對於 NVIDIA GB200 NVL72 的效能至關重要。以下是典型的外部網路架構和技術概述,用於連接多個 NVL72 系統並將其整合到更大的網路基礎設施中。

    用於資料中心的交換器

    NVIDIA Quantum-2 QM9700 系列 InfiniBand 交換器

    ODs 1 1 2 4
    機櫃 1 2 4 8 6 32 64
    運算托盤 18 36 72 144 288 576 1152
    Blackwell GPU 72 144 288 576 1152 2304 4608
    Bluefield-3 (DPU) 32 72 144 288 576 1152 2304
    交換器
    Spine 交換器數量 0 2 4 8 16 32
    Leaf 交換器數量 2 4 8 16 32 64
  • 液冷解決方案

    搭配 NVIDIA GB200 NVL72 的 ASUS AI POD

    華碩與合作夥伴合作,提供全面的機櫃級液冷解決方案。這些方案包括 CPU/GPU 冷板、冷卻分配單元和冷卻塔,皆旨在最大限度地減少功耗並優化資料中心的電力使用效率 (PUE)。

    液對氣解決方案

    非常適合設施緊湊的小型資料中心。
    旨在滿足現有氣冷資料中心的需求,並輕鬆與現有基礎設施整合。
    非常適合尋求立即實施和部署的企業

    液對液解決方案

    非常適合具有高工作負載的大規模、廣泛的基礎設施。
    提供長期的低 PUE,並隨著時間的推移持續保持能源效率。
    降低總體擁有成本,實現最大價值和具成本效益的營運。

    華碩氣冷解決方案。一個機櫃旁邊有兩個 CDU。
    華碩液冷解決方案,具有兩排 GB200 NVL72 裝置、兩個 CDU 以及下方的整合式管線系統。