¿El futuro de los gráficos rápidos para PC? Conexión directa a SSD
Se esperan aumentos de rendimiento con cada nueva generación de las mejores tarjetas gráficas , pero parece que Nvidia e IBM tienen la vista puesta en cambios mayores.
Las empresas se unieron para trabajar en Big Accelerator Memory (BaM), una tecnología que implica conectar tarjetas gráficas directamente a SSD ultrarrápidos. Esto podría dar como resultado una mayor capacidad de memoria de la GPU y un ancho de banda más rápido al tiempo que limita la participación de la CPU.
Este tipo de tecnología ya ha sido pensada y trabajada en el pasado. La interfaz de programación de aplicaciones (API) DirectStorage de Microsoft funciona de manera algo similar, mejorando las transferencias de datos entre la GPU y la SSD. Sin embargo, esto se basa en un software externo, solo se aplica a los juegos y solo funciona en Windows. Los investigadores de Nvidia e IBM están trabajando juntos en una solución que elimina la necesidad de una API propietaria y al mismo tiempo conecta GPU a SSD .
El método, divertidomente conocido como BaM, se describió en un artículo escrito por el equipo que lo diseñó. Conectar una GPU directamente a una SSD proporcionaría un aumento del rendimiento que podría resultar viable, especialmente para tareas que requieren muchos recursos, como el aprendizaje automático. Como tal, se usaría principalmente en escenarios profesionales de computación de alto rendimiento (HPC).
La tecnología que está disponible actualmente para procesar cargas de trabajo tan pesadas requiere que la tarjeta gráfica dependa de grandes cantidades de memoria de propósito especial, como HBM2, o que cuente con acceso eficiente al almacenamiento SSD. Teniendo en cuenta que los conjuntos de datos solo están creciendo en tamaño, es importante optimizar la conexión entre la GPU y el almacenamiento para permitir transferencias de datos eficientes. Aquí es donde entra BaM.
“BaM mitiga la amplificación del tráfico de E/S al permitir que los subprocesos de la GPU lean o escriban pequeñas cantidades de datos bajo demanda, según lo determine la computación”, dijeron los investigadores en su artículo, citado por primera vez por The Register . “El objetivo de BaM es ampliar la capacidad de la memoria de la GPU y mejorar el ancho de banda de acceso al almacenamiento efectivo al mismo tiempo que proporciona abstracciones de alto nivel para los subprocesos de la GPU para realizar fácilmente un acceso detallado y bajo demanda a estructuras de datos masivas en la jerarquía de memoria extendida”.
Para muchas personas que no trabajan directamente con este tema, los detalles pueden parecer complicados, pero la esencia es que Nvidia quiere depender menos del procesador y conectarse directamente a la fuente de los datos. Esto haría que el proceso fuera más eficiente y liberaría la CPU, lo que haría que la tarjeta gráfica fuera mucho más autosuficiente. Los investigadores afirman que este diseño podría competir con las soluciones basadas en DRAM sin dejar de ser más barato de implementar.
Si bien Nvidia e IBM sin duda están abriendo nuevos caminos con su tecnología BaM, AMD trabajó primero en esta área: en 2016, presentó Radeon Pro SSG, una GPU para estaciones de trabajo con SSD M.2 integrado. Sin embargo, Radeon Pro SSG estaba destinado a ser estrictamente una solución de gráficos, y Nvidia lo está llevando un poco más allá, con el objetivo de lidiar con cargas de trabajo informáticas complejas y pesadas.
El equipo que trabaja en BaM planea publicar los detalles de su optimización de software y hardware como código abierto, lo que permitirá a otros desarrollar sus hallazgos. No se menciona cuándo, si alguna vez, BaM podría implementarse en futuros productos de Nvidia.