Los nuevos modelos de IA Gemma 3 de Google son rápidos, frugales y están listos para teléfonos

Los esfuerzos de Google en materia de IA son sinónimos de Gemini, que ahora también se ha convertido en un elemento integral de sus productos más populares en todo el software y hardware de Worksuite. Sin embargo, la compañía también ha lanzado varios modelos de IA de código abierto bajo el sello Gemma desde hace más de un año.

Hoy, Google reveló sus modelos de inteligencia artificial de código abierto de tercera generación con algunas afirmaciones impresionantes. Los modelos Gemma 3 vienen en cuatro variantes (mil millones, 4 mil millones, 12 mil millones y 27 mil millones de parámetros) y están diseñados para funcionar en dispositivos que van desde teléfonos inteligentes hasta robustas estaciones de trabajo.

Listo para dispositivos móviles

Comparación del rendimiento del modelo Google Gemma 3 AI.
Google

Google dice que Gemma 3 es el mejor modelo de acelerador único del mundo, lo que significa que puede ejecutarse en una sola GPU o TPU en lugar de requerir un clúster completo. En teoría, eso significa que un modelo Gemma 3 AI puede ejecutarse de forma nativa en la unidad Tensor Processing Core (TPU) del teléfono inteligente Pixel, tal como ejecuta el modelo Gemini Nano localmente en los teléfonos .

La mayor ventaja de Gemma 3 sobre la familia Gemini de modelos de IA es que, dado que es de código abierto, los desarrolladores pueden empaquetarlo y enviarlo de acuerdo con sus requisitos únicos dentro de aplicaciones móviles y software de escritorio. Otro beneficio crucial es que Gemma admite más de 140 idiomas, 35 de los cuales forman parte de un paquete previamente capacitado.

¿Qué hay de nuevo en Gemma 3?

Y al igual que los últimos modelos de la serie Gemini 2.0 , Gemma 3 también es capaz de comprender texto, imágenes y vídeos. En pocas palabras, es multimultimodal. En cuanto al rendimiento, se afirma que Gemma 3 supera a otros modelos populares de IA de código abierto, como DeepSeek V3 , el OpenAI o3-mini listo para el razonamiento y la variante Llama-405B de Meta.

Versátil y listo para implementar

En cuanto al rango de entrada, Gemma 3 ofrece una ventana de contexto por valor de 128.000 tokens. Eso es suficiente para cubrir un libro completo de 200 páginas incluido como entrada. A modo de comparación, la ventana de contexto del modelo Gemini 2.0 Flash Lite de Google asciende a un millón de tokens. En el contexto de los modelos de IA, una palabra promedio en inglés equivale aproximadamente a 1,3 tokens.

Demostración de comprensión visual con el modelo de IA Google Gemma 3.
Gemma 3 procesa información visual. Google

Gemma 3 también admite llamadas a funciones y resultados estructurados, lo que esencialmente significa que puede interactuar con conjuntos de datos externos y realizar tareas como un agente automatizado. La analogía más cercana sería Gemini y cómo puede realizar el trabajo en diferentes plataformas como Gmail o Docs sin problemas.

Los últimos modelos de IA de código abierto de Google se pueden implementar localmente o a través de las plataformas basadas en la nube de la empresa, como la suite Vertex AI. Los modelos de IA de Gemma 3 ahora están disponibles a través de Google AI Studio, así como en repositorios de terceros como Hugging Face, Ollama y Kaggle.

Comparativa del modelo de IA de Google Gemma 3.
Google

Gemma 3 es parte de una tendencia de la industria en la que las empresas están trabajando en modelos de lenguajes grandes (Gemini, en el caso de Google) y simultáneamente lanzan también modelos de lenguajes pequeños (SLM). Microsoft también sigue una estrategia similar con su serie Phi de pequeños modelos de lenguaje de código abierto.

Los modelos de lenguajes pequeños como Gemma y Phi son extremadamente eficientes en cuanto a recursos, lo que los convierte en una opción ideal para ejecutarse en dispositivos como teléfonos inteligentes. Además, como ofrecen una latencia más baja, son especialmente adecuados para aplicaciones móviles.