La empresa Nvidia ha presentado sus últimas innovaciones en el campo de la supercomputación. Entre ellas destaca la GPU HGX H200, basada en la arquitectura Hopper, que junto con la CPU Nvidia Grace, forma el superchip Grace Hopper GH200, con un rendimiento de IA de 200 exaflops.
La GPU HGX H200 cuenta con núcleos Nvidia H200 Tensor y la tecnología de memoria HBM3e, que mejoran el rendimiento y aceleran los trabajos con IA generativa y los modelos de lenguaje grandes.
Concretamente, H200 ofrece 141GB de memoria a 4,8 TB por segundo, duplicando el ancho de banda de su predecesor, Nvidia A100. Esta información ha sido proporcionada por la compañía durante la conferencia de computación SC23 y se encuentra en una nota de prensa.
La arquitectura Hopper permite duplicar la velocidad de inferencia en el modelo de lenguaje Llama 2 de Meta, que consta de 70.000 millones de parámetros. Además, facilita las cargas de trabajo de computación de alto rendimiento gracias a la tecnología de interconexiones de alta velocidad NVIDIA NVLink y NVSwitch. Las configuraciones pueden ser de cuatro ocho vías, siendo esta última la que ofrece más de 32 petaflops de computación de aprendizaje profundo FP8 y 1,1TB de memoria agregada de alto ancho de banda.
La GPU H200 está dirigida a centros de datos, tanto en la nube como en el extremo, y es compatible con las infraestructuras principales del sector, como Amazon Web Services, Google Cloud, Microsoft Azure y Oracle Cloud.
Destacan desde Nvidia que la GPU H200 puede combinarse con la CPU Nvidia Grace, creando el superchip Grace Hopper GH200 con HBM3e, un módulo integrado diseñado para aplicaciones HPC e IA a gran escala.
Centros como el Centro de Supercomputación Jülich en Alemania, el Centro Conjunto de Computación Avanzada de Alto Rendimiento en Japón, el Centro de Computación Avanzada de Texas en Estados Unidos, el Centro Nacional de Aplicaciones de Supercomputación de la Universidad de Illinois Urbana-Champaign en Estados Unidos y la Universidad de Bristol en Reino Unido, ya están utilizando el GH200. Se estima que estos centros representan unos 200 exaflops de rendimiento de IA para impulsar la innovación científica.
Nvidia también menciona que más de cien empresas, organizaciones y agencias gubernamentales de todo el mundo han adoptado Grace Hopper en sus iniciativas de supercomputación.