Las peores GPU de todos los tiempos: ruidosas, decepcionantes y sin inspiración
Cuando miras algunas de las mejores tarjetas gráficas de la actualidad, es fácil olvidar que Nvidia y AMD (y más recientemente, Intel) no siempre fueron los únicos jugadores en el juego de las GPU. Si bien AMD y Nvidia han cometido una buena cantidad de errores en las GPU, no son las únicas dos marcas detrás de algunas de las peores GPU de todos los tiempos.
Echemos un vistazo a algunas de las tarjetas gráficas que le harán apreciar el panorama actual de GPU y, sí, incluso tarjetas que están al límite de los errores. (Hola, RTX 4060 Ti .) Aquí están las GPU que lo hicieron terriblemente mal, a pesar de que cada una tenía algo interesante o innovador que aportar.
Aquí nos centramos en el pasado, principalmente en las marcas que han desaparecido del centro de atención. Asegúrese de consultar nuestros otros resúmenes para ver ejemplos más modernos:
Intel740
Arc Alchemist no fue la primera incursión de Intel en GPU discretas, ni tampoco lo fue la DG1. Mucho antes de cualquiera de esos proyectos llegó el Intel i740, y es una GPU que hace que todos los demás intentos de Intel se vean mucho mejor.
A mediados y finales de la década de 1990, Intel se subió al tren de la aceleración de gráficos 3D. El floreciente mercado de juegos de PC, con títulos como Doom, Quake y Tomb Raider , realmente estaba empezando a poner de relieve la importancia que tendrían los gráficos 3D en el futuro. Quizás esto fue lo que tentó a Intel a desviarse de su dominio principal (que, incluso en aquel entonces, fabricaba algunos de los mejores procesadores ) y tratar de fabricar GPU discretas.
El Intel740, también conocido como i740, se lanzó a principios de 1998. Era una GPU de 350 nm que dependía de la ahora olvidada interfaz AGP, que parecía prometedora en comparación con PCI (tenga en cuenta la diferencia, no PCIe) en aquellos días. De hecho, fue una de las primeras GPU en utilizar AGP, lo que luego jugó un papel en su caída.
Tenía una frecuencia modesta de 66 MHz y tenía entre 2 y 8 MB de VRAM en un bus de 64 bits. Esas especificaciones suenan ridículas cuando se las juzga según los estándares actuales, e incluso en aquel entonces, estaban un poco fuera de lugar. La cantidad de VRAM era menor que la que algunos de los competidores de Intel podían proporcionar, pero la interfaz AGP estaba destinada a ayudar; desafortunadamente, sólo sirvió para reducir el rendimiento de la CPU al llenar la RAM principal con texturas y ocupar la capacidad del procesador. La GPU también se vio afectada por este complicado proceso.
A pesar de muchas exageraciones, el Intel740 fracasó. Aunque podría haber estado destinado a convertirse en una solución para renderizar gráficos 3D, a veces no logró manejarlos bien, generando artefactos y baja claridad visual. Los rumores sobre su pobre desempeño no tardaron en difundirse. Aunque Intel se dirigió principalmente a los fabricantes de PC prefabricados (OEM) con esta GPU, solo tardó poco en ser olvidado, ya que los entusiastas de los juegos supieron mantenerse alejados del i740.
El mercado de gráficos era muy volátil en aquel entonces y evolucionó rápidamente, por lo que un fracaso como ese debe haber sido un revés para Intel. Sin embargo, después de un par de intentos más de crear GPU discretas, cambió a gráficos integrados, donde tuvo éxito en los años siguientes.
S3 Virgen
Antes de instalarnos en el panorama actual de AMD, Nvidia e Intel, el mercado de GPU tenía algunos nombres más compitiendo por la atención. Una de esas empresas fue S3, que saltó a la fama muy rápidamente entre principios y mediados de los años noventa. Al igual que Intel, S3 aprovechó el auge de los gráficos 3D y diseñó chips gráficos que ofrecían aceleración 3D. Al final, el S3 ViRGE pasó a ser conocido como un “desacelerador 3D” y ahora es recordado como una de las peores GPU de todos los tiempos.
Tras su lanzamiento, el S3 ViRGE se comercializó como el "primer acelerador de gráficos 3D integrado del mundo". De hecho, fue uno de los primeros conjuntos de chips diseñados para el mercado general. Admitía entre 2 MB y 4 MB de SDRAM en un bus de 64 bits y tenía una frecuencia central de 55 MHz. Podía renderizar gráficos 2D y 3D y ofrecía resoluciones de hasta 800 x 600 en 3D. Si bien hizo un trabajo bastante decente en 2D, no logró impresionar en 3D, y ese fue todo el propósito y el esquema de marketing del chip.
Cuando se enfrentó a una renderización 3D relativamente simple, el S3 ViRGE fue en realidad un poco más rápido que la mejor solución basada en CPU de aquellos tiempos. Sin embargo, cuando se trataba del renderizado cada vez más complejo requerido para los juegos 3D, incluidas tareas como el filtrado bilineal, la GPU demostró ser más lenta que el renderizado por software (lo que esencialmente significaba usar la CPU con fines gráficos). Esto es lo que le valió el nombre burlón de "primer desacelerador 3D del mundo", porque los usuarios preferirían desactivar la aceleración 3D y simplemente usar la CPU.
Rápidamente se corrió la voz sobre el pobre rendimiento 3D del chip, y el rápido cambio de 2D a 3D en el mercado de los juegos no ayudó aquí. S3 intentó arreglar lo que salió mal con las GPU futuras, como ViRGE/DX y ViRGE/GX, pero tenía competidores bastante feroces en Nvidia, ATI (más tarde AMD) y 3dfx. Al final, S3 no pudo competir en el creciente mercado 3D, aunque siguió fabricando chips para el segmento de gama media.
Nvidia GeForceFX 5800
Conozca la GeForce FX 5800 Ultra, la primera (¿y única?) GPU sobre la que Nvidia hizo un video falso. Sí, la propia Nvidia hizo un vídeo de dos minutos burlándose de esta GPU, pero no fue hasta que salió al mercado y se hizo conocida como la “Dustbuster” de las tarjetas gráficas.
Nvidia tenía grandes planes para la serie FX. Se suponía que sería este gran salto hacia la era DirectX 9, que fue una transición significativa para los juegos de PC. Esta GPU llegó en un momento en que Nvidia ya era líder del mercado, aunque ATI Technologies estaba muy cerca con la línea de tarjetas gráficas Radeon. El tropiezo de Nvidia con la serie FX fue un revés inesperado, pero como ahora sabemos, el dominio de ATI/AMD no duró mucho y Nvidia ahora controla la mayor parte del mercado, tal vez en detrimento de los jugadores de PC .
El FX 5800 Ultra se fabricó con un proceso de 130 nm y tenía una frecuencia de 500 MHz (reloj y memoria, para 1 GHz efectivo). Usó 128 MB de memoria GDDR2 en una interfaz de 128 bits. Nvidia lo adornó con la arquitectura CineFX para mejorar la representación cinematográfica y lo construyó con el plan de hacerlo eficiente en el procesamiento de sombreadores DirectX 9.
Sobre el papel, sonaba genial. En realidad, decididamente no lo fue. Funcionó bastante bien en juegos DirectX 8, pero tuvo problemas con ciertos títulos DX9, y la Radeon 9700 Pro de ATI era una alternativa atractiva que no tenía los mismos problemas. Sin embargo, el principal problema del FX 5800 Ultra fue el ruido.
Nvidia implementó una solución de refrigeración innovadora en esta GPU llamada FX Flow. Esto estaba destinado a mantener la GPU, que normalmente se calentaba, a una temperatura cómoda incluso durante los juegos intensos. Sin embargo, el pequeño ventilador que alimentaba el artilugio tenía que funcionar a una velocidad muy alta para poder seguir el ritmo. El resultado fue uno de los ruidos más fuertes que jamás haya producido una GPU de consumo.
Nvidia no se apegó a este modelo de refrigeración por mucho tiempo. La mayoría de sus socios volvieron a los métodos de enfriamiento tradicionales para FX 5900 XT y 5900 Ultra, y no hemos visto nada parecido desde entonces.
3dfx fiebre vudú
3dfx alguna vez fue un rival formidable para Nvidia y ATI. Saltó a la fama a principios de la década de 1990 y, como muchos otros fabricantes de GPU de esa época, se montó en la ola de los gráficos 3D hasta que colapsó y se quemó. Nvidia finalmente compró la mayoría de sus activos en 2000. Si bien el declive de la compañía no se puede atribuir a una sola tarjeta, tenía algunas soluciones interesantes que terminaron fallando en el mercado principal, y la GPU 3dfx Voodoo Rush es quizás una de las más ejemplos reconocidos.
El chipset Voodoo Rush fue una continuación del producto inicial de la compañía, el Voodoo1. Integró aceleración 2D y 3D en una sola tarjeta, combinando las capacidades 3D de los gráficos Voodoo con un núcleo 2D de otros fabricantes. Así es, aquí estoy hablando de una configuración de doble chip.
La GPU ofrecía 6 MB de EDO DRAM, una velocidad máxima de reloj central de alrededor de 50 MHz y soporte para cosas como Glide API, Direct3D y OpenGL, así como una resolución máxima de 800 x 600 en aplicaciones 3D. Sonaba prometedor sobre el papel, pero una vez que el producto real estuvo disponible y la gente pudo probarlo, varios problemas se asomaron entre las exageraciones.
Por un lado, era una GPU enorme con tendencia a calentarse, pero el problema principal residía en la arquitectura y en cómo todo ello contribuía a un rendimiento que a menudo era peor que el del Voodoo 1 en juegos 3D. Los problemas de compatibilidad y los artefactos visuales no eran infrecuentes, y una vez que esos problemas salieron a la luz, tanto los revisores como los usuarios le dieron la espalda a esta GPU.
Sin embargo, la mala recepción del Voodoo Rush no fue lo que finalmente selló el destino de 3dfx. Continuó produciendo más GPU, incluida la (también controvertida) Voodoo 5 6000, que venía con su propio adaptador de corriente. Esperemos que a Nvidia no se le ocurra una idea similar para uno de sus gigantescos buques insignia de próxima generación , porque el resultado final fue bastante divertido de ver .