La inteligencia artificial y los ordenadores convencionales son una pareja perfecta.

The main reason is how hardware chips are currently set up. Based on the traditional Von Neumann architecture, the chip isolates memory storage from its main processors. Each computation is a nightmarish Monday morning commute, with the chip constantly shuttling data to-and-fro from each compartment, forming a notorious “ muro de la memoria

Si alguna vez has estado atascado en el tráfico, conoces la frustración: se pierde tiempo y energía. A medida que los algoritmos de IA se vuelven más complejos, el problema se agrava cada vez más.

Entonces, ¿por qué no diseñar un chip basado en el cerebro, un potencial complemento perfecto para las redes neuronales profundas?

Los chips de computación en memoria (CIM). Fieles a su nombre, estos chips computan y almacenan la memoria en el mismo sitio. Olvídate de los desplazamientos; estos chips son alternativas muy eficientes para trabajar desde casa, ya que eliminan el problema de los cuellos de botella en el tráfico de datos y prometen una mayor eficiencia y un menor consumo de energía.

O eso dice la teoría. La mayoría de los chips CIM que ejecutan algoritmos de IA se han centrado únicamente en el diseño del chip, mostrando sus capacidades mediante simulaciones del mismo en lugar de ejecutar tareas en un hardware completo. Los chips también tienen dificultades para ajustarse a múltiples tareas de IA diferentes -reconocimiento de imágenes, percepción de la voz-, lo que limita su integración en los teléfonos inteligentes u otros dispositivos cotidianos.

Este mes, un estudio en Naturaleza mejoró el CIM desde el principio. En lugar de centrarse únicamente en el diseño del chip, el equipo internacional -dirigido por los expertos en hardware neuromórfico Dr. H.S. Philip Wong, de Stanford, y Dr. Gert Cauwenberghs, de la UC San Diego- optimizó toda la configuración, desde la tecnología hasta la arquitectura y los algoritmos que calibran el hardware.

El chip NeuRRAM resultante es un potente gigante de la computación neuromórfica con 48 núcleos paralelos y 3 millones de celdas de memoria. El chip, extremadamente versátil, se enfrentó a múltiples tareas estándar de IA -como la lectura de números escritos a mano, la identificación de coches y otros objetos en imágenes y la decodificación de grabaciones de voz- con una precisión superior al 84%.

While the success rate may seem mediocre, it rivals existing digital chips but dramatically saves energy. To the authors, it’s a step closer to bringing AI directly to our devices rather than needing to shuttle data to the cloud for computation.

«Que esos cálculos se realicen en el chip en lugar de enviar información hacia y desde la nube podría permitir una IA más rápida, más segura, más barata y más escalable de cara al futuro, y dar a más personas acceso a la potencia de la IA». dijo Wong.

Inspiración neuronal

Chips específicos para la IA son ahora una asombrosa docena de centavos. Desde la Unidad de Procesamiento de Tensores (TPU) de Google y la arquitectura de superordenadores Dojo de Tesla hasta Baidu y Amazon, los gigantes tecnológicos están invirtiendo millones en la fiebre del oro de los chips de IA para construir procesadores que admitan algoritmos de aprendizaje profundo cada vez más sofisticados. Algunos incluso aprovechar el aprendizaje automático para diseñar arquitecturas de chips a medida para el software de IA, cerrando el círculo de la carrera.

Un concepto especialmente intrigante procede directamente del cerebro. A medida que los datos pasan por nuestras neuronas, se «conectan» en redes a través de «muelles» físicos llamados sinapsis. Estas estructuras, que se asientan en la parte superior de las ramas neuronales como pequeñas setas, son multitarea: calculan y almacenan datos mediante cambios en su composición proteica.

En otras palabras, las neuronas, a diferencia de los ordenadores clásicos, no necesitan transportar datos de la memoria a las CPU. Esto da al cerebro su ventaja sobre los dispositivos digitales: es muy eficiente energéticamente y realiza múltiples cálculos de forma simultánea, todo ello empaquetado en una gelatina de un kilo metida dentro del cráneo.

¿Por qué no recrear aspectos del cerebro?

Entre enneuromorphic computing. Un truco fue utilizar las RRAM, o dispositivos de memoria resistiva de acceso aleatorio (también llamados «memristores»). Las RRAM almacenan memoria incluso cuando se les corta la corriente, cambiando la resistencia de su hardware. Al igual que las sinapsis, estos componentes pueden agruparse en conjuntos densos en una superficie diminuta, lo que permite crear circuitos capaces de realizar cálculos muy complejos sin necesidad de que sean voluminosos. Cuando se combinan con el CMOS, un proceso de fabricación para construir circuitos en nuestros microprocesadores y chips actuales, el dúo se vuelve aún más poderoso for running deep learning algorithms.

Pero tiene un coste. «El cálculo analógico en paralelo de la arquitectura RRAM-CIM aporta una eficiencia superior, pero dificulta la consecución del mismo nivel de flexibilidad funcional y precisión computacional que en los circuitos digitales», afirman los autores.

Genio de la optimización

El nuevo estudio profundizó en cada parte de un chip RRAM-CIM, rediseñándolo para su uso práctico.

Todo comienza con la tecnología. La NeuRRAM cuenta con 48 núcleos que computan en paralelo, con dispositivos RRAM físicamente entrelazados en circuitos CMOS. Al igual que una neurona, cada núcleo puede apagarse individualmente cuando no está en uso, preservando la energía mientras su memoria se almacena en la RRAM.

Estas celdas RRAM -tres millones de ellas- están conectadas para que los datos puedan transferirse en ambas direcciones. Se trata de un diseño crucial, que permite al chip adaptarse con flexibilidad a múltiples tipos de algoritmos de IA, explican los autores. Por ejemplo, un tipo de red neuronal profunda, la CNN (red neuronal convolucional), es especialmente buena para la visión por ordenador, pero necesita que los datos fluyan en una sola dirección. En cambio, las LSTM, un tipo de red neuronal profunda que suele utilizarse para el reconocimiento de audio, procesa los datos de forma recurrente para hacer coincidir las señales con el tiempo. Al igual que las sinapsis, el chip codifica la intensidad con la que una «neurona» RRAM se conecta a otra.

Esta arquitectura permitía ajustar el flujo de datos para minimizar los atascos. Al igual que la ampliación del tráfico de un solo carril a uno múltiple, el chip podía duplicar la «memoria» actual de una red de la mayoría de los problemas de cálculo intensivo, de modo que varios núcleos analizaran el problema simultáneamente.

Un último retoque a los anteriores chips CIM fue un puente más fuerte entre el cálculo cerebral -a menudo analógico- y el procesamiento digital. En este caso, el chip utiliza un circuito de neuronas que puede convertir fácilmente los cálculos analógicos en señales digitales. Los autores explican que se trata de un paso adelante con respecto a las configuraciones anteriores, que requerían mucha energía y espacio.

Las optimizaciones funcionaron. Poniendo a prueba su teoría, el equipo fabricó el chip NeuRRAM y desarrolló algoritmos para programar el hardware para diferentes algoritmos, como la Play Station 5, ejecutando diferentes juegos.

En una multitud de pruebas de referencia, el chip funcionó como un campeón. Al ejecutar una CNN de siete capas en el chip, NeuRRAM obtuvo una tasa de error inferior al uno por ciento en el reconocimiento de dígitos escritos a mano utilizando la popular base de datos MNIST.

También destacó en tareas más difíciles. Al cargar otra popular red neuronal profunda, la LSTM, el chip acertó en aproximadamente un 85% cuando se le planteó el reconocimiento de comandos de voz de Google. Con solo ocho núcleos, el chip -que funciona con otra arquitectura de IA- fue capaz de recuperar imágenes ruidosas, reduciendo los errores en aproximadamente un 70 por ciento.

So What?

Una palabra: energía.

La mayoría de los algoritmos de IA son auténticos devoradores de energía. La NeuRRAM funciona a la mitad del coste energético de los chips RRAM-CIM de última generación, lo que convierte en realidad la promesa de ahorro energético de la computación neuromórfica.

Pero lo más destacado del estudio es su estrategia. A menudo, cuando se diseñan chips, los científicos tienen que equilibrar la eficiencia, la versatilidad y la precisión para múltiples tareas, métricas que suelen estar reñidas entre sí. El problema se complica aún más cuando todo el cálculo se realiza directamente en el hardware. NeuRRAM demostró que es posible luchar contra todas las bestias a la vez.

La estrategia empleada aquí puede utilizarse para optimizar otros dispositivos de computación neuromórfica comophase-change memory technologies, dijeron los autores.

For now, NeuRRAM is a proof-of-concept, showing that a physical chip—rather than a simulation of it—works as intended. But there’s room for improvement, including further scaling RRAMs and shrinking its size to one day potentially fit into our phones.

«Quizá hoy se utilice para realizar tareas sencillas de IA, como la localización de palabras clave o la detección de personas, pero mañana podría permitir una experiencia de usuario totalmente diferente. Imagínese un análisis de vídeo en tiempo real combinado con el reconocimiento de voz, todo ello en un dispositivo diminuto». dijo autor del estudio, el Dr. Weier Wan. «Como investigador e ingeniero, mi ambición es llevar las innovaciones de la investigación de los laboratorios al uso práctico».

Crédito de la imagen: David Baillot/Universidad de California San Diego