Dwuzakresowy extender sygnału ASUS RP-NVIDIAL40S może przedłużyć zasięgu sygnału bezprzewodowego nawet na 204 m kw., zapewniając niezakłóconą łączność Wi-Fi w całym domu.

Zwiększenie wydajności do zadań SI i przetwarzania grafiki

Aby dokonać transformacji za pomocą generatywnej sztucznej inteligencji, przedsiębiorstwa muszą zastosować więcej zasobów obliczeniowych na większą skalę. Do tego celu ASUS oferuje wiele serwerów NVIDIA L40S, które zapewniają szybsze wdrożenie SI z szybszym dostępem do GPU i lepszą opłacalnością inwestycji oraz wysoką mocą obliczeniową.

Firma ASUS to wybrany dostawca systemów serwerowych NVIDIA OVX oraz doświadczony i zaufany dostawca rozwiązań SI, dysponujący wiedzą i możliwościami pozwalającymi unowocześniać technologię i dostarczać zoptymalizowane rozwiązania dla klientów.

3 główne powody, dla których warto wybrać
systemy serwerowe ASUS L40S

  • ikona szybszego wdrożenia do użytku

    Szybsze wdrożenie do użytku

    Krótki czas realizacji

  • ikona lepszej wydajności w stosunku do ceny

    Lepszy stosunek ceny do wydajności

    2 x lepsza wydajność w porównaniu do A100

  • ikona wyższej wydajności

    Wyższa wydajność

    Wydajne wykonywanie procesów SI i przetwarzania grafiki

Obraz produktu – NVIDIA L40S

NVIDIA L40S

Oparty na architekturze Ada Lovelace układ graficzny NVIDIA L40S to najwydajniejszy uniwersalny procesor graficzny do centrów danych, zapewniający niespotykane dotąd przyspieszenie w zadaniach wnioskowania i trenowania na potrzeby dużych modeli językowych (LLM), a także zastosowaniach obróbki grafiki i wideo.
Dowiedz się więcej
  • Dostrajanie LLM

    4 godz.

    GPT-175B 860 mln tokenów

  • Wnioskowanie do LLM

    1,1x

    lepsza wydajność w porównaniu do HGX A100

  • Wnioskowanie SI

    1,5x

    lepsza wydajność w porównaniu do A100 80GM SXM2

Specyfikacja NVIDIA L40S

L40S A100 80GB SXM
Najlepsze do Uniwersalna GPU do gen. SI Najwyższa wydajność wielowęzłowa do SI
Architektura GPU NVIDIA Ada Lovelace NVIDIA Ampere
FP64 ND. 9,7 TFLOPS
FP32 91,6 TFLOPS 19,5 TFLOPS
Rdzenie RT 212 TFLOPS ND.
TF32 – rdzenie Tensor 366 TFLOPS 312 TFLOPS
FP16/BF16 – rdzenie Tensor 733 TFLOPS 624 TFLOPS
FP8 – rdzenie Tensor 1466 TFLOPS ND.
INT8 – rdzenie Tensor 1466 TOPS 1248 TFLOPS
Pamięć GPU 48 GB GDDR6 80 GB HBM2e
Przepustowość pamięci GPU 864 GB/s 2039 GB/s
L2 Cache 96 MB 40 MB
Silniki multimediów 3 NVENC(+AV1)
3 NVDEC
4 NVJPEG
0 NVENC
5 NVDEC
5 NVJPEG
Zasilanie Maks. 350 W Maks. 400 W
konstrukcja obudowy 2-slotowa FHFL 8-drożna HGX
Połączenie PCle Gen4 x 16: 64 GB/s PCle Gen4 x 16: 64 GB/s

NVIDIA L40S do trenowania LLM

Doskonałe rozwiązanie do precyzyjnego dostrajania, trenowania małych modeli oraz trenowania na małą/średnią skalę z układem graficznym obsługującym maksymalnie 4K.
Czas potrzebny do dostrojenia istniejących modeli
(czas do wytrenowania 860 mln tokenów)
Przewidywane przyspieszenie w TE/FP8
HGX A100 L40S HGX H100
GPT-40B LoRA (8 GPU) 12 godz. 1,7x 4,4x
GPT-175B LoRA (64 GPU) 6 godz. 1,6x 4,3x


Trenowanie małych modeli
(czas potrzebny do wytrenowania 10 miliardów tokenów)
Przewidywane przyspieszenie w TE/FP8
HGX A100 L40S HGX H100
GPT-7B (8 GPU) 12 godz. 1,7x 4,4x
GPT-13B (8 GPU) 6 godz. 1,6x 4,3x


Trenowanie podstawowych modeli
(czas potrzebny do wytrenowania 300B tokenów)
Przewidywane przyspieszenie w TE/FP8
HGX A100 L40S HGX H100
GPT-175B (256 GPU) 64 godz. 1,4x 4,5 x
GPT-175B (1K GPU) 16 godz. 1,3x 4,6x
GPT-175B (4K GPU) 4 godz. 1,2x 4,1x

Produkt odpowiedni do twojego rozwiązania

ESC8000-E11

8 GPU, 4U, dwu-socketowe procesory Dual-socket 4. gen. Intel Xeon Scalable

ESC4000-E11

4 GPU, 2U, dwu-socketowe procesory Dual-socket 4. gen. Intel Xeon Scalable

ESC4000-E10

4 GPU, 2U, dwu-socketowe procesory Dual-socket 3. gen. Intel Xeon Scalable

ESC8000A-E12

8 x GPU, 4U, dwu-socketowe rozwiązania przełącznika EPYC 9004 CPUs PCIe 5.0

ESC8000A-E11

8 GPU, 4U, dwu-socketowe procesory EPYC 7003

ESC4000A-E12

4 GPU, 2U, jedno-socketowy procesor EPYC 9004

ESC4000A-E11

4 GPU, 2U, jedno-socketowe procesory EPYC 9004