La IA puede hacer muchas cosas, pero no puede crear juegos, ni siquiera jugarlos todavía.
A medida que las herramientas de inteligencia artificial mejoran, nos siguen animando a delegarles tareas cada vez más complejas. Los LLM pueden escribir nuestros correos electrónicos, crear presentaciones, diseñar aplicaciones, generar videos, buscar en Internet y resumir los resultados, y mucho más. Sin embargo, una cosa con la que todavía están luchando son los videojuegos.
En lo que va del año, dos de los nombres más importantes de la IA (Microsoft y Anthropic) han intentado que sus modelos generen o jueguen juegos, y los resultados probablemente sean mucho más limitados de lo que mucha gente espera.
Esto los convierte en ejemplos perfectos de dónde se encuentra realmente la IA generativa en este momento; en resumen: puede hacer mucho más que antes, pero no puede hacerlo todo.
Microsoft genera Quake II
Generar videojuegos tiene problemas similares a generar videos: el movimiento es extraño y cambiante, y la IA comienza a perder contacto con la "realidad" después de un período de tiempo determinado. El último intento de Microsoft, que cualquiera puede probar , es una versión de Quake II generada por IA.
Lo jugué varias veces y es una experiencia realmente alucinante, con enemigos extraños y borrosos que aparecen de la nada y el entorno cambia a tu alrededor a medida que te mueves. Varias veces, cuando entré en una nueva habitación, la entrada ya no estaba cuando me volví para mirarla, y cuando volví a mirar hacia adelante, las paredes se habrían movido.


La experiencia solo dura unos minutos antes de que se corte y te solicite comenzar un nuevo juego, pero si no tienes suerte, puede dejar de responder adecuadamente a tus entradas incluso antes de eso.
Sin embargo, es un gran experimento y creo que sería útil que más personas lo vieran. Le permite experimentar por sí mismo en qué es buena la generación de IA y cuáles son sus limitaciones actuales. Por muy impresionante que sea que podamos generar una experiencia de videojuego interactiva, es difícil imaginar que alguien pueda jugar esta demostración tecnológica y pensar que el próximoAssassin's Creed estará creado por IA.
Sin embargo, este tipo de pensamientos y suposiciones existen, y se debe en gran medida a que la gente no puede dejar de oír hablar de la IA en este momento. Incluso si no te importa nada la inteligencia artificial, todavía te la pondrán en la cara dondequiera que vayas. El problema es que la información que recibe la persona promedio se compone casi en su totalidad del marketing de las grandes tecnologías y de comentarios de los directores ejecutivos que aparecen en las publicaciones de noticias.
Eso significa que escuchan afirmaciones exageradas y contradictorias como estas:
Tiene el potencial de resolver algunos de los mayores problemas del mundo, como el cambio climático, la pobreza y las enfermedades. ( Bill Gates )
Probablemente en 2025, nosotros en Meta, así como las otras empresas que básicamente están trabajando en esto, tendremos una IA que efectivamente puede ser una especie de ingeniero de nivel medio que tiene en su empresa y que puede escribir código. ( Mark Zuckerberg )
Usar la IA de manera efectiva es ahora una expectativa fundamental de todos en Shopify. Es una herramienta para todos los oficios hoy en día y su importancia no hará más que crecer. Francamente, no creo que sea factible optar por no aprender la habilidad de aplicar la IA en su oficio. ( Tobi Lutke , director ejecutivo de Shopify)
Ahora estamos seguros de que sabemos cómo desarrollar la AGI tal como la hemos entendido tradicionalmente. Creemos que, en 2025, podremos ver a los primeros agentes de IA “unirse a la fuerza laboral” y cambiar materialmente la producción de las empresas. ( Sam Altman , director ejecutivo de OpenAI)
La IA es más peligrosa que, digamos, un diseño o un mantenimiento de la producción de aviones mal gestionados o una mala producción de automóviles, en el sentido de que lo es, tiene el potencial (por pequeña que uno pueda considerar esa probabilidad, pero no es trivial) tiene el potencial de destruir la civilización. ( Elon Musk )
Todo esto es bastante extremo, ¿verdad? Nos salvará y nos destruirá, es a la vez una herramienta de todos los oficios para profesionales y una herramienta que reemplazará a los profesionales y, aparentemente, podríamos obtener AGI de nivel de ciencia ficción tan pronto como este año. Cuando esto es todo lo que la gente escucha, empiezan a esperar cosas bastante sorprendentes de estas herramientas y a creer que todos los trabajadores de oficina pasan sus días conversando con sus computadoras como personajes de Star Trek.
Sin embargo, la realidad no es así. La realidad parece un Quake II alucinante y borroso con formas incomprensibles para los enemigos. Los LLM de nivel ChatGPT realmente fueron un avance emocionante en 2022 y muy divertidos para que todos jueguen, pero para la mayoría de los usos que la gran tecnología nos está presionando en este momento, la IA simplemente no es lo suficientemente capaz. Los niveles de precisión son demasiado bajos, las habilidades para seguir instrucciones son demasiado bajas, las ventanas de contexto son demasiado pequeñas y simplemente están entrenados en tonterías de Internet en lugar de conocimientos del mundo real.
Pero generar un videojuego es un objetivo bastante complejo; después de todo, se necesitan equipos enteros de humanos para crear estas cosas. ¿Qué tal jugar videojuegos en su lugar?
Claude “juega” Pokémon Rojo

Bueno, resulta que la gente también está experimentando con eso. El modelo más nuevo de Anthropic, Claude 3.7 Sonnet , ha estado jugando Pokémon Red en Twitch durante aproximadamente dos meses y está haciendo el mejor trabajo que jamás haya hecho un LLM jugando Pokémon. Sin embargo, una pequeña advertencia es que todavía está muy por detrás del ser humano promedio de 10 años.
Uno de los problemas es la velocidad: Claude necesita miles de acciones durante varios días para hacer cosas como atravesar Viridian Forest.

¿Por qué tarda tanto? No es porque no sepa cómo ganar batallas Pokémon estratégicamente; en realidad, esa es la parte en la que es mejor. Navegar por el entorno y evitar árboles y edificios, por otro lado, no es tan bueno. Claude nunca ha sido entrenado para jugar Pokémon y no le resulta fácil entender el pixel art y lo que representa.
Atravesar áreas tipo laberinto como el Monte Moon es particularmente difícil para él, ya que lucha por formar un mapa del área y evitar volver sobre sus pasos. Una vez, quedó tan atrapado en una esquina que concluyó que el juego estaba roto y generó una solicitud formal para reiniciarlo.
Tampoco es bueno para recordar cuáles son sus objetivos, qué cosas ya ha probado o en qué lugares ha estado.
Hay una razón bastante sencilla para esto: los LLM tienen una “ventana de contexto” finita que actúa como memoria. Solo puede contener una cantidad limitada de información, y una vez que Claude alcanza el límite, condensa lo que tiene para dejar espacio para más. Por lo tanto, una información como "Visité Viridian City, ingresé a todos los edificios y hablé con todos los NPC" podría condensarse en simplemente "Visité Viridian City", lo que llevó a Claude a regresar y verificar si había más que hacer en la ciudad.
Para resumir: Claude no puede saber adónde va, choca contra las paredes, confunde objetos aleatorios con NPC, olvida dónde ha estado y qué está tratando de hacer, y cada decisión que toma requiere párrafos y párrafos de razonamiento. Esto no es una crítica: ambos son experimentos interesantes que están llevando a los LLM lo más lejos posible.
Pero con todo el revuelo en torno a la IA, es importante que las personas vean demostraciones como estas y tomen sus propias decisiones sobre la IA. Ciertas figuras están tratando de impulsar la narrativa de que estamos a punto de alcanzar la cima (que dentro de unos años la IA estará más allá incluso de los humanos más inteligentes), pero no creo que estén siendo sinceros, solo están siendo vendedores. No estamos ni cerca de la cima, todo esto apenas comienza.