Publicidad

La NVIDIA A100 es una GPU bestial con 54.000 millones de transistores y 40 GB de memoria HBM2, pero no es para ti

La NVIDIA A100 es una GPU bestial con 54.000 millones de transistores y 40 GB de memoria HBM2, pero no es para ti
Sin comentarios

NVIDIA nos tenía reservada hoy una sorpresa: debuta la nueva arquitectura Ampere que dará vida a las futuras RTX 3000, pero antes de poder conocer esas gráficas destinadas a usuarios finales, esta empresa ha querido presentar la versión empresarial, la NVIDIA A100.

Estamos ante una GPU bestial en todo. Estamos ante el chip de 7 nm más grande del mundo con sus 826 mm2, algo que permite también alcanzar números de récord en integración con 54.000 millones de transistores y con nada menos que 40 GB de memoria HBM2. El foco de este monstruo del procesamiento gráfico no está en el gaming, por supuesto, sino en los centros de datos especializados en el ámbito de la inteligencia artificial.

Bestiales en todo, precio incluido

Precisamente por ese enfoque al ámbito de la IA NVIDIA integra aquí los Tensor Core de 3ª generación, además de nuevas versiones también de sus NVLink (con un ancho de banda de 600 GB/s) y NVSwitch.

Nvidia 1

Su predecesora, la V100 basada en la arquitectura Volta, queda ensombrecida por los números de la A100, que es 20 veces más potente en ámbitos como el entrenamiento de sistemas de aprendizaje profundo con operaciones TP32, una especialización de las FP32: en ese escenario logra 312 TFLOPs de potencia aunque no son directamente comparables a los índices que hasta ahora manejábamos al hablar de TFLOPS FP32.

Aún así los números que plantea este chip son espectaculares y se deben en buena parte a ese salto a los 7 nm con los que NVIDIA deja atrás por fin el anterior nodo de 12 nm que había usado hasta ahora. La integración se une a ese enorme chip para dejar en evidencia los ya de por sí sorprendentes 18.600 millones de transistores que por ejemplo tiene la RTX 2080 Ti actual, la gráfica para mercado final más potente hasta la fecha.

La NVIDIA A100 cuenta con 6.912 núcleos CUDA FP32, 3.456 núcleos CUDA FP64 y 422 Tensor Cores. La citada V100 tenía 4.120 núcleos CUDA y 640 Tensor Cores de la anterior generación. Curiosamente estas tarjetas gráficas para centros de datos integran 40 GB de memoria HBM2 (16 en las V100), aunque Jensen Huang, CEO de NVIDIA, indicó que las futuras tarjetas gráficas Ampere para usuarios finales no usarán estos módulos.

Las gráficas, insistimos, no son para el común de los mortales. NVIDIA las venderá como parte de sus nuevos sistemas DGX A100, que cuentan con 8 de estas tarjetas, un par de procesadores AMD de 64 núcleos, 1 TB de RAM y 15 TB de SSD. El precio de esas máquinas es tan bestial como todo lo demás en este anuncio: 200.000 dólares.

Vía | Tweaktown

Temas

Publicidad

Publicidad

Publicidad

Inicio

Explora en nuestros medios