Esta innovadora tecnología de memoria podría hacer que la IA sea 1.000 veces más eficiente

Todos sabemos que la IA tiene un problema de energía. En general, el uso global de la IA ya consumió tanta energía como toda la nación de Chipre en 2021.

Pero investigadores de ingeniería de la Universidad de Minnesota Twin Cities han desarrollado y demostrado un nuevo diseño de memoria de computadora que podría reducir drásticamente la cantidad de energía que consumen los sistemas de IA para ayudar a atenuar este problema. Su investigación fue publicada recientemente en la revista Nature, Unconventional Computing.

La mayoría de los sistemas informáticos modernos se basan en lo que se conoce como arquitectura de Von Neumann, donde los subsistemas de lógica y memoria están separados. Durante las operaciones normales, los datos van y vienen entre los módulos de memoria y los procesadores. Esta es la base básica del funcionamiento de las computadoras modernas.

Sin embargo, a medida que las velocidades de procesamiento superan rápidamente a la tecnología de E/S , esta transferencia de datos se convierte en un cuello de botella tanto en términos de velocidad de procesamiento (también conocido como el problema del muro de memoria ) como de consumo de energía. Como señalaron los investigadores, simplemente barajar los datos de un lado a otro consume hasta 200 veces la cantidad de energía que generan los propios cálculos.

Los desarrolladores han tratado de solucionar este problema acercando físicamente la lógica y la memoria con diseños informáticos de “memoria cercana” y “en memoria”. Los sistemas de memoria cercana apilan la lógica y la memoria una encima de otra en una matriz 3D, están en capas al estilo PB&J, mientras que los sistemas en memoria intercalan grupos de lógica en toda la memoria en un solo chip, más como una mantequilla de maní y sándwich de plátano.

La solución del equipo de investigación de Twin Cities es un novedoso diseño en memoria totalmente digital, denominado memoria computacional de acceso aleatorio (CRAM), en el que “la lógica la realizan de forma nativa las células de memoria; los datos para operaciones lógicas nunca tienen que salir de la memoria”, según los investigadores. El equipo logró esto integrando un sustrato de computación espintrónica reconfigurable directamente en la celda de memoria, un avance que, según descubrieron los investigadores, podría reducir el consumo de energía de una operación de IA en un "orden de 1000 veces más que una solución de última generación".

Y esa mejora de 1000 veces podría ser solo la base. El equipo de investigación probó CRAM en una tarea de clasificación de dígitos escritos a mano del MNIST y descubrió que era “2500 veces y 1700 veces menos en energía y tiempo, respectivamente, en comparación con un sistema de procesamiento cercano a la memoria en el nodo de tecnología de 16 nm”.

La emergente industria de la IA ya se enfrenta a importantes problemas de recursos. Las GPU, cada vez más rápidas, potentes y capaces que sustentan el software de IA, consumen inmensamente energía. El Blackwell B200 de gama alta más nuevo de NVIDIA consume hasta 1200 W , por ejemplo, y genera tanto calor residual que requiere refrigeración líquida, otra operación que consume muchos recursos.

Con hiperescaladores como Google, Amazon y Microsoft luchando por construir la infraestructura física necesaria para impulsar la próxima revolución de la IA (es decir, centros de datos del tamaño de gigavatios , algunos con sus propias plantas de energía nuclear adjuntas ), creando recursos de memoria y computación más eficientes desde el punto de vista energético. será cada vez más fundamental para la viabilidad a largo plazo de la tecnología de IA.