Las próximas GPU de Nvidia estarán diseñadas parcialmente por IA

Durante la conferencia GTC 2022 , Nvidia habló sobre el uso de inteligencia artificial y aprendizaje automático para hacer que las futuras tarjetas gráficas sean mejores que nunca.

A medida que la empresa elige priorizar la IA y el aprendizaje automático (ML), algunos de estos avances ya llegarán a las próximas GPU Ada Lovelace de próxima generación.

Logotipo de Nvidia hecho con microchips.

Los grandes planes de Nvidia para AI y ML en las tarjetas gráficas de próxima generación fueron compartidos por Bill Dally , el científico jefe y vicepresidente senior de investigación de la compañía. Habló sobre los equipos de investigación y desarrollo de Nvidia, cómo utilizan la IA y el aprendizaje automático (ML) y lo que esto significa para las GPU de última generación.

En resumen, el uso de estas tecnologías solo puede significar cosas buenas para las tarjetas gráficas Nvidia. Dally analizó cuatro secciones principales del diseño de GPU, así como las formas en que el uso de IA y ML puede acelerar drásticamente el rendimiento de GPU.

El objetivo es aumentar tanto la velocidad como la eficiencia, y el ejemplo de Dally habla de cómo el uso de IA y ML puede reducir una tarea de diseño de GPU estándar de tres horas a solo tres segundos.

Supuestamente, esto es posible mediante la optimización de hasta cuatro procesos que normalmente toman mucho tiempo y son muy detallados.

Esto se refiere a monitorear y mapear caídas de voltaje de energía, anticipar errores a través de predicción parásita, automatización de migración de celdas estándar y abordar varios desafíos de enrutamiento. El uso de la inteligencia artificial y el aprendizaje automático puede ayudar a optimizar todos estos procesos, lo que genera importantes ganancias en el producto final.

El mapeo de posibles caídas de voltaje ayuda a Nvidia a rastrear el flujo de energía de las tarjetas gráficas de próxima generación. Según Dally, pasar de usar herramientas estándar a herramientas de IA especializadas puede acelerar esta tarea drásticamente, ya que la nueva tecnología puede realizar tales tareas en cuestión de segundos.

Dally dijo que el uso de IA y ML para mapear caídas de voltaje puede aumentar la precisión hasta en un 94 % y, al mismo tiempo, aumentar enormemente la velocidad a la que se realizan estas tareas.

Diapositiva de Nvidia sobre migración celular automatizada.
nvidia

El flujo de datos en nuevos chips es un factor importante en el rendimiento de una nueva tarjeta gráfica. Por lo tanto, Nvidia utiliza redes neuronales gráficas (GNN) para identificar posibles problemas en el flujo de datos y abordarlos rápidamente.

La predicción parasitaria a través del uso de IA es otra área en la que Nvidia ve mejoras, notando una mayor precisión, con tasas de error de simulación que caen por debajo del 10 por ciento.

Nvidia también logró automatizar el proceso de migración de las celdas estándar del chip, reduciendo mucho el tiempo de inactividad y acelerando toda la tarea. Con eso, el 92 % de la biblioteca de células se migró mediante el uso de una herramienta sin errores.

La empresa planea centrarse en la IA y el aprendizaje automático en el futuro, dedicando cinco de sus laboratorios a investigar y diseñar nuevas soluciones en esos segmentos. Dally insinuó que es posible que veamos los primeros resultados de estos nuevos desarrollos en los nuevos diseños de 7nm y 5nm de Nvidia, que incluyen las próximas GPU Ada Lovelace. Esto fue informado por primera vez por Wccftech .

No es ningún secreto que la próxima generación de tarjetas gráficas, a menudo denominada RTX 4000 , será intensamente poderosa ( con requisitos de potencia acordes ). El uso de la IA y el aprendizaje automático para promover el desarrollo de estas GPU implica que pronto podremos tener una potencia real en nuestras manos.