OpenAI abre el acceso de los desarrolladores al modelo de razonamiento completo de o1
En el noveno día del bombardeo de prensa navideño de OpenAI, la compañía anunció que lanzará la versión completa de su modelo de razonamiento o1 para seleccionar desarrolladores a través de la API de la compañía. Hasta las noticias del martes, los desarrolladores solo podían acceder al modelo o1-preview menos capaz.
Según la compañía, el modelo o1 completo comenzará a implementarse para las personas en la categoría de desarrollador "Nivel 5" de OpenAI. Se trata de usuarios que tienen una cuenta desde hace más de un mes y que gastan al menos 1.000 dólares en la empresa. El nuevo servicio es especialmente caro para los usuarios (debido a los recursos informáticos adicionales que requiere o1), ya que cuesta 15 dólares por cada (aproximadamente) 750.000 palabras analizadas y 60 dólares por cada (aproximadamente) 750.000 palabras generadas por el modelo. Eso es de tres a cuatro veces el costo de realizar las mismas tareas con GPT-4o .
A esos precios, OpenAI se aseguró de mejorar las capacidades del modelo completo con respecto a las iteraciones de vista previa. El nuevo modelo o1 es más personalizable que su predecesor (su nuevo parámetro “reasoning_effort” dicta cuánto tiempo la IA reflexiona sobre una pregunta determinada) y ofrece llamada de funciones, mensajes de desarrollador y análisis de imágenes, todo lo cual faltaba en la vista previa de o1.
La compañía también anunció que está incorporando sus modelos GPT-4o y 4o-mini en su API en tiempo real, que está diseñada para aplicaciones de IA vocal de baja latencia (como el modo de voz avanzado ). La API ahora también es compatible con WebRTC, el estándar abierto de la industria para desarrollar aplicaciones de IA vocal en navegadores web, así que prepárese para un montón de sitios web más que intentarán comunicarse con usted en 2025.
"Nuestra integración WebRTC está diseñada para permitir interacciones fluidas y receptivas en condiciones del mundo real, incluso con una calidad de red variable", escribió OpenAI en su anuncio. "Se encarga de la codificación de audio, la transmisión por secuencias, la supresión de ruido y el control de la congestión".
Hasta ahora, OpenAI, como parte del evento de transmisión en vivo, ha presentado la versión completa de o1 (además del anuncio del martes), lanzó su modelo de generación de video Sora , estrenó su nueva función Proyectos y proporcionó múltiples actualizaciones a su Canvas , Búsqueda. y funciones del modo de voz avanzado .
A solo tres días del final del evento, ¿qué mostrará OpenAI a continuación? Tendremos que esperar y ver.