aTecnologíaNoticias Tecnología

ASUS Server logra 26 registros en MLPerf Inference v2.0 | #Tech

Que tal a toda la banda de Geek And Life!

En esta ocasión, te compartimos un comunicado de ASUS.

Los diseños optimizados y las avanzadas capacidades se combinan para elevar los servidores de ASUS a posiciones dominantes en las tablas de rendimiento de inferencias de IA

  • Los servidores ASUS dominan en la IA: Los diseños avanzados permiten obtener unos resultados de rendimiento extraordinarios, logrando 26 récords en seis tareas de referencia de IA
  • El ESC8000A-E11 alcanza 12 récords: Servidor de doble zócalo 4U con diseño térmico optimizado que incluye túneles de flujo de aire independientes para la GPU y la CPU
  • El ESC4000A-E11 alcanza 14 récords: Servidor 2U de un solo zócalo que ofrece una amplia gama de aceleradores gráficos y compatibilidad con NVIDIA NVLink

TAIPEI, Taiwán, 5 de mayo de 2022 — ASUS, la empresa de TI líder en sistemas de servidores, placas base para servidores y estaciones de trabajo, ha publicado hoy sus resultados por primera vez desde que se unió a la Asociación MLCommons el pasado diciembre, estableciendo al instante nuevos récords de rendimiento en docenas de tareas evaluadas.

En concreto, en la última ronda de MLPerf Inference 2.0, los servidores ASUS establecieron 26 récords en la división de centros de datos cerrados en seis tareas de pruebas de IA, superando a todos los demás servidores con las mismas configuraciones de GPU. Los logros consisten en 12 récords conseguidos con un servidor ASUS ESC8000A-E11 configurado con ocho GPUs NVIDIA® A100 Tensor Core de 80 GB; y 14 discos con un servidor ASUS ESC4000A-E11 con cuatro GPUs NVIDIA A30 Tensor Core de 24 GB.

Estos innovadores resultados demuestran claramente el dominio del rendimiento de los servidores ASUS en el ámbito de la IA, aportando un valor significativo a las organizaciones que buscan implementar la IA y garantizar un rendimiento óptimo en los centros de datos.

ASUS establece 26 récords en inferencia de IA y domina las tablas de resultados en seis tareas

La prueba de referencia MLPerf Inference 2.0 cubre seis cargas de trabajo habituales en el ámbito de la IA, como la clasificación de imágenes (ResNet50), la detección de objetos (SSD-ResNet34), la segmentación de imágenes médicas (3D-Unet), el reconocimiento del habla (RNN-T), el procesamiento del lenguaje natural (BERT) y la recomendación (DLRM).

El ESC8000A-E11 ha alcanzado múltiples posiciones de liderazgo en cuanto a rendimiento, entre ellas:

– Procesó la clasificación de 298.105 imágenes por segundo en ResNet50
– Ha completado el reconocimiento de objetos de 7.462,06 imágenes por segundo en SSD-ResNet34
– Procesamiento de 24,3 imágenes médicas por segundo en 3D-UNet
– Realización de 26.005,7 preguntas y respuestas por segundo en BERT
– Realización de 2.363.760 predicciones de clics por segundo en DLRM

El ESC4000A-E11 ha alcanzado múltiples posiciones de liderazgo en cuanto a rendimiento, incluyendo:

– Procesamiento de 73.814,5 imágenes de clasificación por segundo en ResNet50
– Completado el reconocimiento de objetos de 1.957,18 imágenes por segundo en SSD-ResNet34
– Procesamiento de 6,83 imágenes médicas por segundo en 3D-UNet  
– Realización de 27.299,2 conversiones de reconocimiento de voz por segundo en RNNT
– Realización de 6.896,01 preguntas y respuestas por segundo en BERT
– Realización de 574.371 predicciones de clics por segundo en DLRM

Continua mejora  del rendimiento de la IA con un diseño de servidor optimizado

La docena de récords de MLPerf Inference 2.0 12 establecidos por el ESC8000A-E11 de 4U con certificación NVIDIA -configurado con ocho GPUs NVIDIA A100 PCIe Tensor Core de 80 GB y dos CPUs AMD EPYC 7763- demuestra su suprema escalabilidad para la IA y el aprendizaje automático. Su optimizado diseño térmico, con túneles de flujo de aire independientes para la CPU y la GPU, aporta una solución de refrigeración de alta eficiencia a los centros de datos refrigerados por aire.
El ESC4000A-E11, certificado por NVIDIA, alojado en el tamaño de 2U más compacto del mercado -y configurado con cuatro GPUs NVIDIA A30 PCIe Tensor Core de 24 GB y dos CPUs AMD EPYC 7763- estableció un total de 14 récords de MPLerf Inference 2.0. Ofrece una amplia gama de aceleradores gráficos, además de compatibilidad con la interconexión de GPU de alta velocidad NVLink de NVIDIA, para dar rienda suelta al máximo rendimiento de la IA.

DISPONIBILIDAD Y PRECIOS
Los servidores ASUS están disponibles en todo el mundo. Póngase en contacto con su representante local de ASUS para obtener más información.

Asus MX: https://www.asus.com/mx/
Asus Business: https://www.asus.com/mx/Business/

Últimas noticias del mundo, cultura geek & tech: GeekandLife.com.mx
Anime, Videojuegos y Entretenimiento: MultiAnime.com.mx

Fuente: Comunicado de Prensa

Social Media Auto Publish Powered By : XYZScripts.com