El enorme chip de inteligencia artificial de Cerebras es del tamaño de un iPad
Estamos acostumbrados a que los microchips se miniaturicen cada vez más, gracias a la sorprendente tendencia de la Ley de Moore que permite a los ingenieros empacar cada vez más transistores en chips cada vez más pequeños. No se puede decir lo mismo del chip Wafer Scale Engine (WSE) diseñado por la startup californiana Cerebras , que recientemente surgió del sigilo. Cerebras ha creado un chip inmensamente poderoso diseñado para llevar a cabo procesos de inteligencia artificial, y no hay absolutamente ninguna falta. En parte porque, a diferencia de la mayoría de los microchips, este es del tamaño de un iPad.
El chip WSE de 46,225 milímetros cuadrados cuenta con una enorme cantidad de 1.2 billones de transistores, 400,000 núcleos y 18 gigabytes de memoria en chip. Eso lo convierte en el chip más grande jamás creado. El anterior poseedor del récord era de solo 815 milímetros cuadrados, con 21.1 mil millones de transistores. Como dijo el CEO y cofundador Andrew Feldman a Digital Trends, esto significa que el chip WSE es "56.7 veces más grande" que el chip gigante que batió por el título.
"El trabajo de inteligencia artificial es una de las cargas de trabajo informáticas de más rápido crecimiento", dijo Feldman. “Entre 2013 y 2018, creció a un ritmo de más de 300,000 veces. Eso significa que cada 3,5 meses, la cantidad de trabajo realizado con esta carga de trabajo se duplicó ”.
Aquí es donde entra en juego la necesidad de fichas más grandes. Los chips más grandes procesan más información más rápidamente. Eso, a su vez, significa que el usuario puede calcular su respuesta computacionalmente pesada en menos tiempo.
“El WSE contiene 78 veces más núcleos de cómputo; tiene 3.000 veces más memoria de alta velocidad en chip, 10.000 veces más ancho de banda de memoria y 33 veces más ancho de banda de tejido que la GPU líder de hoy en día ”, explicó Feldman. “Esto significa que el WSE puede hacer más cálculos, de manera más eficiente y reducir drásticamente el tiempo que lleva entrenar un modelo de IA. Para el investigador y desarrollador de productos en IA, un tiempo de entrenamiento más rápido significa un mayor rendimiento experimental con más datos: menos tiempo para una mejor solución ".
Como era de esperar, un chip de computadora del tamaño de una tableta no es para uso doméstico. En cambio, está destinado a ser utilizado en centros de datos donde se lleva a cabo gran parte del procesamiento pesado detrás de las herramientas actuales de IA basadas en la nube. No hay información oficial sobre los clientes, pero parece probable que empresas como Facebook, Amazon, Baidu y otras estén interesadas en ponerlo a prueba.
Aún no se han publicado puntos de referencia de rendimiento. Sin embargo, si este chip cumple sus promesas, nos ayudará a mantenernos en la innovación de la inteligencia artificial durante las semanas, meses e incluso años venideros.