Der ASUS RP-NVIDIAL40S Dual-Band Range Extender kann die WLAN-Abdeckung auf bis zu 2.000 m² erweitern und sorgt so für nahtloses WLAN im ganzen Haus.

Beschleunigen Sie Ihre KI- und Grafikleistung

Um sich mit generativer KI weiterzuentwickeln, müssen Unternehmen mehr Rechenressourcen in größerem Umfang einsetzen. ASUS bietet mehrere NVIDIA L40S Server an, die eine beschleunigte Bereitstellung von KI-Lösungen durch schnellere Zugriffe auf die GPU-Verfügbarkeit und eine bessere Leistung pro Euro mit starker Rechenleistung ermöglichen.

ASUS ist ein ausgewählter Anbieter von NVIDIA OVX Serversystemen und ein erfahrener und vertrauenswürdiger Anbieter von KI-Lösungen, der über das Wissen und die Fähigkeiten verfügt, technologische Unterschiede zu überbrücken und Kundenoptimierte Lösungen zu liefern.

Die 3 wichtigsten Gründe für
ASUS L40S Serversysteme

  • das Symbol der schnelleren Bereitstellung

    Schnellerer Bereitstellung

    Kurze Vorlaufzeit

  • das Symbol für ein besseres Preis-Leistungs-Verhältnis

    Besseres Preis-Leistungs-Verhältnis

    2X bessere Leistung als A100

  • das Symbol für höhere Leistung

    Höhere Leistung

    Leistungsstarke KI & Grafik

NVIDI L40S Produktbild

NVIDIA L40S

Die NVIDIA L40S GPU, die auf der Ada Lovelace Architektur basiert, ist die leistungsstärkste Universal-GPU für das Rechenzentrum und bietet bahnbrechende Multi-Workload-Beschleunigung für Large Language Model (LLM) Inferenz und Training, Grafik- und Videoanwendungen.
Mehr erfahren
  • Feinabstimmung LLM

    4Std

    GPT-175B 860M Token

  • LLM Inferenz

    1.1X

    Leistung vs. HGX A100

  • KI-Inferenz

    1.5X

    Leistung vs. A100 80GM SXM2

NVIDIA L40S Spezifikationen

L40S A100 80GB SXM
Am besten für Universelle GPU für Gen AI Multi-Node-KI mit höchster Leistung
GPU Architektur NVIDIA Ada Lovelace NVIDIA Ampere
FP64 N/A 9.7 TFLOPS
FP32 91.6 TFLOPS 19.5 TFLOPS
RT Core 212 TFLOPS N/A
TF32 Tensor Core 366 TFLOPS 312 TFLOPS
FP16/BF16 Tensor Core 733 TFLOPS 624 TFLOPS
FP8 Tensor-Kern 1466 TFLOPS N/A
INT8 Tensor Core 1466 TOPS 1248 TFLOPS
GPU-Speicher 48 GB GDDR6 80 GB HBM2e
GPU-Speicherbandbreite 864 GB/s 2039 GB/s
L2-Cache 96 MB 40 MB
Media-Engines 3 NVENC(+AV1)
3 NVDEC
4 NVJPEG
0 NVENC
5 NVDEC
5 NVJPEG
Leistungsaufnahme/TDP Bis zu 350 W Bis zu 400 W
Formfaktor 2-slot FHFL 8-fach HGX
Anschlusstyp PCle Gen4 x 16: 64 GB/s PCle Gen4 x 16: 64 GB/s

NVIDIA L40S für die LLM-Training

Eine großartige Lösung für die Feinabstimmung, das Training kleiner Modelle und das Training im kleinen/mittleren Maßstab bis hin zu 4K GPU.
Feinabstimmung bestehender Modelle
(Zeit zum Trainieren von 860 Millionen Token)
Erwartete Beschleunigung mit TE/FP8
HGX A100 L40S HGX H100
GPT-40B LoRA (8 GPU) 12 Std. 1.7x 4.4x
GPT-175B LoRA (64 GPU) 6 Std. 1.6x 4.3x


Training kleiner Modelle
(Zeit zum Trainieren von 10M Tokens)
Erwartete Beschleunigung mit TE/FP8
HGX A100 L40S HGX H100
GPT-7B (8 GPU) 12 Std. 1.7x 4.4x
GPT-13B (8 GPU) 6 Std. 1.6x 4.3x


Training Foundation Models
(Zeit zum Trainieren von 300M Token)
Erwartete Beschleunigung mit TE/FP8
HGX A100 L40S HGX H100
GPT-175B (256 GPU) 64 Std. 1.4x 4.5x
GPT-175B (1K GPU) 16 Std. 1.3x 4.6x
GPT-175B (4K GPU) 4 Std. 1.2x 4.1x

Produkt für deine Lösung

ESC8000-E11

8 GPUs, 4U, Dual-Sockel 4. Intel Xeon Scalable CPUs

ESC4000-E11

4 GPUs, 2U, Dual-Sockel 4. Intel Xeon Scalable CPUs

ESC4000-E10

4 GPUs, 2U, Dual-Sockel 3. Intel Xeon Scalable CPUs

ESC8000A-E12

8 GPUs, 4U, Dual-Sockel EPYC 9004 CPUs PCIe 5.0 Switch-Lösung

ESC8000A-E11

8 GPUs, 4U, Dual-Sockel EPYC 7003 CPUs

ESC4000A-E12

4 GPUs, 2U, Single-Sockel EPYC 9004 CPU

ESC4000A-E11

4 GPUs, 2U, Single-Sockel EPYC 9004 CPUs