ASUS présente sa nouvelle gamme de serveurs PCI-E avec GPU NVIDIA Tesla

2018/06/18

POINTS CLÉS

  • Les serveurs ASUS sont désormais compatibles avec les solutions d'Intelligence Artificielle NVIDIA et intègrent des GPU de 32 Go NVIDIA® Tesla® V100 Tensor Core ou Tesla P4.
  • Le ASUS ESC8000 G4 supporte jusqu'à 8 GPU de 32 Go Tesla V100 ; le ESC4000 G4 supporte quant à lui 4 GPU de 32 Go Tesla V100 OU 8 GPU Tesla P4.
  • Le ASUS RS720-E9, muni d'un GPU NVIDIA, est parfait pour les opérations d'inférence dans le domaine de l'intelligence artificielle.

Taipei (Taïwan), 30 mai 2018 — ASUS, entreprise leader dans le domaine des serveurs, cartes mères serveurs, stations de travail et cartes mères pour stations de travail, a aujourd'hui annoncé la sortie de ses nouveaux serveurs compatibles avec les solutions d'Intelligence Artificielle NVIDIA et intègrent des GPU de 32 Go NVIDIA® Tesla® V100 Tensor Core ou Tesla P4. L'intelligence Artificielle (IA) traduit des données en résultats et services significatifs ainsi qu'en découvertes scientifiques. La taille des réseaux de neurones par lesquels la révolution de l'intelligence artificielle passe, a considérablement augmenté. Par exemple, les réseaux de neurones dernier cri utilisés en traduction automatique notamment par Google sont passés de 100 millions à 8 milliards de paramètres de modèles en seulement deux ans.

Pour supporter ces deux colossaux modèles, le GPU NVIDIA Tesla V100 offre une mémoire de 32 Go soit le double des générations précédentes. Cette capacité de mémoire doublée permet d'améliorer de 50 % les performances d'entraînement au Deep Learning pour la prochaine génération de modèles d'intelligence artificielle ainsi qu'accroitre la productivité et permettre aux chercheurs de faire davantage de découvertes scientifiques dans un laps de temps plus court. Une meilleure mémoire permet également aux applications de calcul HPC de réaliser de plus grandes simulations et ce plus efficacement qu'avant.

Tesla P4 est le GPU d'inférence en Deep Learning le plus rapide au monde pour des serveurs avec architecture scale-out pour exécuter des applications IA à la fois intuitives et rapides. Il réduit jusqu'à 10 fois la latence de l'inférence dans tout type d'infrastructure hyperscale et offre une efficacité énergétique jusqu'à 40 fois supérieure à celle des CPU, ouvrant ainsi la voie vers de nouveaux services IA auparavant limités par la latence.

Les serveurs ASUS intègrent des GPU NVIDIA Tesla V100 de 32 Go ou Tesla P4 afin d'offrir aux utilisateurs les toutes dernières technologies améliorant les performances IA de leur système pour diverses applications.

  • Le ASUS ESC8000 G4, optimisé pour les applications de calcul haute performance (HPC) et entrainements IA, supporte jusqu'à 8 GPU Tesla V100 de 32 Go et fait partie de la plateforme HGX-T1 des serveurs accélérés grâce aux GPU NVIDIA.
  • Le ASUS ESC4000 G4 est conçu pour les applications de calcul haute performance (HPC) et les opérations d'inférence, supporte 4 GPU Tesla V100 de 32 Go ou 8 GPU Tesla P4, selon l'application. Il fait partie de la plateforme HGX-I2 des serveurs accélérés grâce aux GPU NVIDIA et offre une expérience ultra-rapide permettant d'en faire de nouvelles utilisations notamment grâce à la réduction par 10 des latences lors des opérations d'inférence dans le Deep Learning. Avec ses performances d'inférence atteignant les 20 TeraFlops grâce à des opérations INT8 et son moteur de transcodage matériel, le ESC4000 G4 ouvre la voie vers de nouvelles applications vidéos avec IA. Son format compact de 75 watts convient parfaitement aux serveurs avec architecture scale-out et offre une efficacité de performances 40 fois plus élevée que celle des CPU.
  • Le ASUS RS720-E9, muni d'un GPU NVIDIA Tesla P4, est parfait pour les opérations d'inférence dans le domaine de l'intelligence artificielle.

S'appuyant sur les avantages offerts par les GPU NVIDIA Tesla et son expertise en matière de conception de composants, ASUS s'engage à offrir plus de choix et de qualité à ses utilisateurs à travers le monde.