OpenAI reduce el tamaño de GPT-5.4 para mejorar la velocidad y disminuir los costos.

OpenAI está reduciendo el tamaño de sus últimos modelos para alcanzar un objetivo diferente: respuestas más rápidas y costes mucho menores. Los nuevos GPT-5.4 mini y nano están diseñados para desarrolladores que priorizan la capacidad de respuesta sobre el máximo rendimiento de razonamiento.

Ambos modelos están disponibles a partir de hoy. GPT-5.4 mini funciona más del doble de rápido que su predecesor, manteniendo un rendimiento similar al de la versión completa de GPT-5.4 en las pruebas de referencia clave. GPT-5.4 nano va aún más allá, centrándose en tareas más sencillas como la clasificación y la extracción de datos, donde la eficiencia es fundamental.

Este enfoque se adapta a las aplicaciones donde la velocidad determina la experiencia. Los asistentes de codificación, los agentes en segundo plano y las herramientas de visión en tiempo real dependen de una retroalimentación rápida, y en esos casos, un modelo ligeramente más pequeño suele ofrecer un mejor resultado general.

Cuánto rendimiento pierdes realmente

La diferencia de rendimiento entre los modelos es menor de lo que cabría esperar. GPT-5.4 mini obtiene un 54,4 % en SWE-Bench Pro, frente al 57,7 % del modelo completo. En OSWorld-Verified, el mini alcanza el 72,1 %, mientras que la versión completa llega al 75 %, manteniendo una diferencia mínima en todas las tareas.

Los costos disminuyen de forma mucho más drástica. GPT-5.4 mini tiene un precio de $0.75 por millón de tokens de entrada y $4.50 por millón de tokens de salida, mientras que nano cuesta $0.20 y $1.25. Ambos modelos admiten entradas de texto e imagen, uso de herramientas, llamadas a funciones y una ventana de contexto de 400,000 tokens, por lo que el precio más bajo no implica la pérdida de funcionalidades esenciales.

En Codex, el modelo mini utiliza solo el 30 por ciento de la cuota de GPT-5.4. Esto permite a los desarrolladores trasladar las tareas de codificación rutinarias a un nivel más económico, reservando el modelo completo para razonamientos más complejos.

Cuando los modelos más pequeños hacen el trabajo pesado

OpenAI también está impulsando un flujo de trabajo multimodelos. En lugar de depender de un solo sistema, los desarrolladores pueden dividir el trabajo en diferentes niveles, combinando un modelo más grande para la planificación con otros más pequeños para la ejecución.

Esta configuración refleja el funcionamiento de muchas aplicaciones reales. Un modelo puede revisar el código fuente o decidir sobre los cambios , mientras que otro procesa los datos de apoyo o los pasos repetitivos. El modelo más pequeño se encarga del trabajo predecible, mientras que el más grande se centra en el análisis y la coordinación.

Las primeras impresiones sugieren que esta combinación es eficaz. Aabhas Sharma, director de tecnología de Hebbia, informó que GPT-5.4 mini igualó o superó a los modelos de la competencia en varias tareas a un menor coste, y en algunos casos incluso ofreció mejores resultados de principio a fin que la versión completa de GPT-5.4.

Qué usar y cuándo

GPT-5.4 mini ya está disponible en la API, Codex y ChatGPT . Los usuarios de las versiones gratuita y Go pueden acceder a ella mediante la opción Thinking, mientras que otros usuarios pueden usarla como alternativa cuando alcancen los límites de GPT-5.4 Thinking.

El modelo nano se limita actualmente a la API y está dirigido a equipos que gestionan grandes volúmenes de trabajo, donde el control de costes es fundamental. Ambos modelos ya están operativos y cuentan con la documentación completa.

Para los desarrolladores que crean funciones de IA en tiempo real, el cambio es evidente. Los modelos más pequeños ahora son lo suficientemente capaces como para gestionar una mayor parte del trabajo diario, lo que hace que elegir el equilibrio adecuado entre velocidad, coste y capacidad sea una decisión cada vez más práctica.

El artículo«OpenAI reduce el tamaño de GPT-5.4 para mejorar la velocidad y disminuir los costes» apareció primero en Digital Trends .