GPU del centro de datos del amperio de Nvidia A30 24GB de la memoria HBM2 para la computación científica
NVIDIA Amperio A30GPU del centro de datos
Inferencia de IA y computación convencional para todas las empresas
Lleve un rendimiento acelerado a cada carga de trabajo empresarial con las GPU NVIDIA A30 Tensor Core.Con la arquitectura NVIDIA Ampere Tensor Cores y Multi-Instance GPU (MIG), ofrece aceleraciones de forma segura en diversas cargas de trabajo, incluida la inferencia de IA a escala y aplicaciones informáticas de alto rendimiento (HPC).Al combinar un ancho de banda de memoria rápido y un bajo consumo de energía en un factor de forma PCIe, óptimo para servidores convencionales, A30 habilita un centro de datos elástico y ofrece el máximo valor para las empresas.
Especificaciones técnicas de la GPU del centro de datos NVIDIA A30
Arquitectura GPU |
NVIDIA amperio |
FP64 |
5,2 teraFLOPS |
Núcleo tensor FP64 |
10,3 teraFLOPS |
FP32 |
10,3 teraFLOPS |
Núcleo tensor TF32 |
82 teraFLOPS |165 teraFLOPS* |
Núcleo tensor BFLOAT16 |
165 teraFLOPS |330 teraFLOPS* |
Núcleo tensor FP16 |
165 teraFLOPS |330 teraFLOPS* |
Núcleo tensor INT8 |
330 TOPS |661 TOPS* |
Núcleo tensor INT4 |
661 PARTES SUPERIORES |1321 TOPS* |
Motores de medios |
1 acelerador de flujo óptico (OFA) |
memoria GPU |
24GB HBM2 |
Ancho de banda de memoria GPU |
933 GB/s |
Interconectar |
PCIe Gen4: 64 GB/s |
Potencia máxima de diseño térmico (TDP) |
165W |
Factor de forma |
Doble ranura, altura completa, longitud completa (FHFL) |
GPU de múltiples instancias (MIG) |
4 instancias de GPU de 6 GB cada una |
Soporte de software de GPU virtual (vGPU) |
NVIDIA AI Enterprise para VMware |
Los científicos de datos deben poder analizar, visualizar y convertir conjuntos de datos masivos en información.Pero las soluciones de escalamiento horizontal a menudo se ven atascadas por conjuntos de datos dispersos en varios servidores.
Los servidores acelerados con A30 brindan la potencia informática necesaria, junto con una gran memoria HBM2, 933 GB/s de ancho de banda de memoria y escalabilidad con NVLink, para hacer frente a estas cargas de trabajo.En combinación con NVIDIA InfiniBand, NVIDIA Magnum IO y el conjunto de bibliotecas de código abierto RAPIDS™, incluido RAPIDS Accelerator para Apache Spark, la plataforma del centro de datos de NVIDIA acelera estas enormes cargas de trabajo a niveles de rendimiento y eficiencia sin precedentes.