Hoy, el superordenador Frontier del Laboratorio Nacional de Oak Ridge ha sido coronado como el más rápido del planeta en el concurso semestral Top500 lista. Frontier ha duplicado con creces la velocidad del último poseedor del título, el superordenador japonés Fugaku, y es el primero en superar oficialmente los quintillones de cálculos por segundo, un hito que la informática ha perseguido durante 14 años.

Es una cifra importante. Así que antes de seguir, vale la pena ponerlo en términos más humanos.

Imagina que das a los 7.900 millones de personas del planeta un lápiz y una lista de problemas sencillos de aritmética o multiplicación. Ahora, pídeles que resuelvan un problema por segundo durante cuatro años y medio. Al reunir las habilidades matemáticas de la población de la Tierra durante media década, habrás resuelto más de un quintillón de problemas.

Frontier puede hacer el mismo trabajo en un segundo, y mantenerlo indefinidamente. La aritmética de mil años realizada por todos los habitantes de la Tierra llevaría a Frontier algo menos de cuatro minutos.

Este impresionante rendimiento da el pistoletazo de salida a una nueva era conocida como computación a exaescala.

La era de la exaescala

El número de operaciones en coma flotante, o problemas matemáticos sencillos, que un ordenador resuelve por segundo se denomina FLOP/s o coloquialmente «flops». El progreso se registra en múltiplos de mil: Mil flops equivalen a un kiloflop, un millón de flops a un megaflop, y así sucesivamente.

El superordenador ASCI Red fue el primera en registrar velocidades de un trillón de flops o un teraflop, en 1997. (En particular, una videoconsola Xbox Series X ahora paquetes de 12 teraflops .) Correcaminos primero rompió la barrera del petaflop un cuatrillón de flops, en 2008. Desde entonces, los ordenadores más rápidos se miden en petaflops. Frontier es el primero en registrar oficialmente velocidades superiores a un exaflops-1,102 exaflops, para ser exactos-aproximadamente 1.000 veces más rápido que Roadrunner.

Es cierto que los superordenadores actuales son mucho más rápidos que las máquinas antiguas, pero siguen ocupando salas enteras, con filas de armarios erizados de cables y chips. Frontier, en particular, es un sistema de refrigeración líquida de Cray que funciona con 8,73 millones de núcleos de procesamiento de AMD. Además de ser el más rápido del mundo, también es el segundo más eficiente -sólo superado por un sistema de prueba formado por uno de sus gabinetes- con una calificación de 52,23 gigaflops/vatio.

Entonces, ¿cuál es el problema?

La mayoría de los superordenadores son financiados, construidos y operados por agencias gubernamentales. Los científicos los utilizan para modelar sistemas físicos, como el clima o la estructura del universo, pero también los militares para la investigación de armas nucleares.

Los superordenadores están ahora hechos a medida para ejecutar también los últimos algoritmos de la inteligencia artificial. De hecho, hace unos años, Top500 añadió una nueva referencia de menor precisión para medir la velocidad de supercomputación en aplicaciones de IA. Según esa marca, Fugaku eclipsó un exaflop en 2020. El sistema Fugaku estableció el récord más reciente de aprendizaje automático con 2 exaflops. Frontier pulverizó ese récord con velocidades de IA de 6,86 exaflops.

A medida que han ido surgiendo algoritmos de aprendizaje automático muy grandes en los últimos años, las empresas privadas han empezado a construir sus propias máquinas junto con los gobiernos. Microsoft y OpenAI fueron noticia en 2020 con una máquina que, según ellos, era quinto más rápido del mundo . En enero, Meta dijo que su próximo superordenador del RSC sería el más rápido en IA del mundo con 5 exaflops. (Parece que ahora necesitarán unos cuantos chips más para igualar a Frontier).

Frontier y otros superordenadores privados permitirán a los algoritmos de aprendizaje automático superar los límites. Los algoritmos más avanzados de la actualidad cuentan con cientos de miles de millones de parámetros -o conexiones internas-, pero los próximos sistemas probablemente lleguen a los billones.

Así que, tanto si se trata de IA como de modelado, Frontier permitirá a los investigadores avanzar en la tecnología y hacer ciencia de vanguardia con más detalle y a mayor velocidad.

¿Es realmente Frontier la primera máquina de exaescala?

El momento exacto en que la supercomputación rompió la barrera del exaflop depende en parte de cómo se defina y de lo que se haya medido.

[email protected], que es un sistema distribuido formado por un variopinto conjunto de ordenadores portátiles voluntarios, rompió un exaflop al principio de la pandemia. Pero según el cofundador de Top500, Jack Dongarra [email protected] es un sistema especializado que es «vergonzosamente paralelo» y sólo funciona en problemas con piezas que pueden resolverse de forma totalmente independiente.

El año pasado se rumoreó que China tenía hasta dos superordenadores de exaescala funcionando en secreto. Los investigadores publicaron algunos detalles sobre las máquinas en artículos a finales del año pasado, pero aún no han sido evaluadas oficialmente por Top500. En un IEEE Spectrum En una entrevista realizada el pasado mes de diciembre, Dongarra especuló con la posibilidad de que, si las máquinas de exaescala existen en China, el gobierno esté evitando hacerlas públicas para no provocar tensiones geopolíticas que puedan llevar a Estados Unidos a restringir las exportaciones de tecnología clave.

Así pues, es posible que China gane a EE.UU. en el terreno de la exaescala, pero si nos atenemos al Top500, una referencia que el sector de la supercomputación utiliza para determinar quién es el mejor desde principios de los años noventa, Frontier sigue teniendo la ventaja oficial.

Próximo paso: ¿Zettascale?

Se necesitaron unos 12 años para pasar de la terescala a la petascala y otros 14 para llegar a la exoescala. El próximo gran salto hacia adelante puede llevar el mismo tiempo o más. La industria informática sigue haciendo progreso constante en los chips pero el ritmo se ha ralentizado y cada paso se ha vuelto más costoso. La Ley de Moore no ha muerto pero ya no es tan estable como antes.

En el caso de los superordenadores, el reto va más allá de la potencia de cálculo bruta. Podría parecer que se puede escalar cualquier sistema para alcanzar cualquier punto de referencia que se desee: Sólo hay que hacerlo más grande. Pero la escala también requiere eficiencia, o los requisitos de energía se vuelven incontrolables. También es más difícil escribir software para resolver problemas en paralelo en sistemas cada vez más grandes.

El próximo salto de 1.000 veces, conocido como zettascale, requerirá innovaciones en los chips, los sistemas que los conectan a los superordenadores y el software que se ejecuta en ellos. Un equipo de investigadores chinospredicted we’d hit zettascale computing in 2035. Pero, por supuesto, nadie lo sabe con certeza. Exascale, que anteriormente se preveía que llegaría para 2018 o 2020 llegó con algunos años de retraso.

Lo que es más cierto es que no es probable que disminuya el hambre de mayor potencia de cálculo. Las aplicaciones de consumo, como los coches autónomos y la realidad mixta, y las aplicaciones de investigación, como el modelado y la inteligencia artificial, requerirán ordenadores más rápidos y eficientes. Si la necesidad es la madre de la invención, podemos esperar ordenadores cada vez más rápidos durante un tiempo.

Crédito de la imagen: Laboratorio Nacional de Oak Ridge (ORNL)