Resulta que no es tan difícil hacer lo que hace OpenAI por menos
![El nuevo tipo de letra de OpenAI OpenAI Sans](https://www.digitaltrends.com/wp-content/uploads/2025/02/openai-typeface-2.jpg?fit=720%2C405&p=1)
Incluso mientras OpenAI continúa aferrándose a su afirmación de que el único camino hacia la AGI pasa por enormes gastos financieros y energéticos, investigadores independientes están aprovechando las tecnologías de código abierto para igualar el rendimiento de sus modelos más potentes, y lo hacen a una fracción del precio.
El viernes pasado, un equipo unificado de la Universidad de Stanford y la Universidad de Washington anunció que habían entrenado un modelo de lenguaje grande centrado en matemáticas y codificación que funciona tan bien como los modelos de razonamiento o1 de OpenAI y R1 de DeepSeek . Su construcción costó solo $50 en créditos de computación en la nube. Según se informa, el equipo utilizó un modelo base disponible en el mercado y luego destiló en él el modelo experimental Gemini 2.0 Flash Thinking de Google. El proceso de destilar IA implica extraer la información relevante para completar una tarea específica de un modelo de IA más grande y transferirla a uno más pequeño.
Es más, el martes, investigadores de Hugging Face lanzaron un competidor para las herramientas Deep Research de OpenAI y (también) Deep Research de Google Gemini , denominada Open Deep Research , que desarrollaron en solo 24 horas. "Si bien los poderosos LLM ahora están disponibles gratuitamente en código abierto, OpenAI no reveló mucho sobre el marco agente subyacente a Deep Research", escribió Hugging Face en su publicación de anuncio . "¡Así que decidimos embarcarnos en una misión de 24 horas para reproducir sus resultados y abrir el marco necesario a lo largo del camino!" Según se informa, cuesta aproximadamente 20 dólares en créditos de computación en la nube y requeriría menos de 30 minutos para entrenarlo.
Posteriormente, el modelo de Hugging Face obtuvo una precisión del 55 % en el punto de referencia de Asistentes generales de IA (GAIA), que se utiliza para probar las capacidades de los sistemas de IA agentes . En comparación, Deep Research de OpenAI obtuvo una precisión de entre el 67 y el 73%, dependiendo de las metodologías de respuesta. Por supuesto, el modelo de 24 horas no funciona tan bien como la oferta de OpenAI, pero tampoco se necesitaron miles de millones de dólares ni la capacidad de generación de energía de una nación europea de tamaño mediano para entrenarlo.
Estos esfuerzos siguen a las noticias de enero de que un equipo del Sky Computing Lab de la Universidad de California en Berkeley logró entrenar su modelo de razonamiento Sky T1 por alrededor de $450 en créditos de computación en la nube. El modelo Sky-T1-32B-Preview del equipo demostró ser equivalente al lanzamiento inicial del modelo de razonamiento o1-preview. A medida que surgen más competidores de código abierto para el dominio de la industria de OpenAI, su mera existencia pone en duda si el plan de la compañía de gastar medio billón de dólares para construir centros de datos de IA e instalaciones de producción de energía es realmente la respuesta.