Acelerador versátil de formación e inferencia para inteligencia artificial y aprendizaje profundo
Basado en la ARQUITECTURA DE GRÁFICOS “Polaris” y diseñado para manejar las cargas de trabajo de formación e inferencia
36 UNIDADES DE CÓMPUTO disponibles para ejecutar muchos lotes más pequeños de datos en simultáneo en redes neurales entrenadas de aprendizaje profundo
Hasta 5,7 TFLOPS de rendimiento de cómputo FP32 y FP16 máximo para acelerar la inteligencia artificial de cómputo intensivo
38 GFLOPS/vatio pico de rendimiento de FP16/FP32. Ofrece una gran solución de servidor de bajo costo y alta eficiencia para inferencia y formación de vanguardia
16 GB de MEMORIA GDDR5 y hasta 224 GB/s de ancho de banda de memoria
Tarjeta de alimentación TDP de 150 W de refrigeración pasiva y ranura simple, que se adapta a casi todos los diseños de servidor estándar
MxGPU para cargas de trabajo de cómputo virtualizadas que optimizan el uso y la capacidad del centro de datos
Plataforma de software ROCm que ofrece soluciones de clase HPC e hiperescala de código abierto
Inferencia y formación de vanguardia para aprendizaje profundo
Plataforma de software ROCm que ofrece una plataforma de hiperescala de código abierto
Controladores Linux® de código abierto, compilador HCC, herramientas y bibliotecas de diseño totalmente abierto para control completo
Bibliotecas de entorno de aprendizaje profundo MIOpen optimizadas
Compatibilidad con BAR grande para mGPU punto a punto
Virtualización de hardware MxGPU SR-IOV para optimizar el uso de sistemas
Compatibilidad abierta para varias arquitecturas y tecnologías de interconexión estándar del sector