La minicomputadora Jetson Orin Nano de $200 de Nvidia es 80 veces más rápida que la versión anterior
Nvidia anunció el próximo lanzamiento de Jetson Orin Nano, un sistema en módulo (SOM) que impulsará la próxima generación de inteligencia artificial y robótica de nivel de entrada, durante su discurso de apertura de GTC 2022 hoy.
Nvidia dice que esta nueva versión ofrece un aumento de 80 veces en el rendimiento sobre el Jetson Nano de $ 99 . La versión original se lanzó en 2019 y se usó como una entrada básica al mundo de la IA y la robótica, particularmente para aficionados y estudiantes de STEM. Esta nueva versión busca aumentar seriamente el poder.
Un sistema en módulo (también conocido como computadora en módulo) presenta una sola placa con un microprocesador. También tiene memoria y entradas/salidas (IO), y generalmente tiene una placa portadora. Tenga en cuenta que no es lo mismo que un sistema en un chip (SOC): un SOM está basado en una placa y puede tener espacio para incluir componentes adicionales; incluso podría incluir un SOC. En resumen, un SOM es una solución informática lista para usar, pero no es una computadora completa.
Con los tecnicismos fuera del camino, hablemos del último desarrollo de Nvidia, Jetson Orin, que llega con seis módulos de producción basados en Orin que se crearon para manejar aplicaciones de inteligencia artificial y robótica a un precio asequible. Entre ellos se encuentra el Nvidia Jetson Orin Nano.
A pesar de ser el Jetson SOM de factor de forma más pequeño, el Jetson Orin Nano puede manejar hasta 40 billones de operaciones por segundo (TOPS) de tareas relacionadas con la IA. El rendimiento alcanza nuevas alturas con el AGX Orin, que ofrece 275 TOPS para manejar máquinas autónomas avanzadas.
Jetson Orin de Nvidia viene con una GPU basada en Ampere, una CPU basada en ARM y soporte de sensor multimodal. También es totalmente compatible con los módulos Orin NX de Nvidia, incluido el soporte completo de emulación que permitirá a los clientes de Nvidia diseñar en torno a múltiples módulos Jetson. Otras ventajas incluyen soporte para múltiples canalizaciones de aplicaciones de IA simultáneas, completas con entradas y salidas rápidas.
Los módulos Jetson Orin Nano estarán disponibles en dos variantes, una con memoria de 8GB y hasta 40 TOPS, y otra con memoria de 4GB y hasta 20 TOPS. En términos de consumo de energía, el SOM no necesita casi nada: el primero requiere entre 7 y 15 vatios, mientras que el segundo solo necesita entre 5 y 10 vatios.
Nvidia prevé que los módulos serán utilizados por una amplia variedad de clientes, desde ingenieros que se ocupan de aplicaciones de IA de vanguardia hasta desarrolladores de sistemas operativos de robótica. El precio bajo, desde solo $199, hará que esta tecnología sea más accesible para una gama más amplia de usuarios. Nvidia cita a Canon, John Deere, Microsoft Azure y más como los primeros en adoptar Jetson Orin Nano.
“Con un aumento de órdenes de magnitud en el rendimiento para millones de desarrolladores de inteligencia artificial y ROS en la actualidad, Jetson Orin es la plataforma ideal para prácticamente cualquier tipo de implementación de robótica imaginable”, dijo Deepu Talla, vicepresidente de la división de computación integrada y de borde de Nvidia. .
Nvidia afirma que Jetson Orin ofrecerá un aumento de 80 veces en el rendimiento con respecto a la generación anterior de Jetson SOM. Eso es un gran paso adelante a un precio razonable. Los módulos estarán disponibles a partir de enero de 2023.