La aplicación secreta de Google ofrece una visión de cómo la IA funciona mejor en un teléfono
El futuro de la IA para smartphones está en el dispositivo. O bien, localiza tantos procesos de IA como sea posible. ¿Por qué? Pues no necesitas conexión a internet para realizar el trabajo. Ya sea pedirle a un chatbot que revise y corrija errores gramaticales, hacer una investigación breve, editar imágenes o explicar el mundo que te rodea a través de la cámara.
En segundo lugar, ninguno de tus datos personales tiene que salir del dispositivo ni procesarse en un servidor remoto. Y en tercer lugar, será más rápido. Cuanto más pequeño sea un modelo, más rápido podrá producir resultados. Es una cuestión de concesiones mutuas. Un modelo de IA ligero implica que sus capacidades son limitadas.
Un modelo de IA más grande, como Gemini o ChatGPT , puede comprender texto, imágenes, audio e incluso generar vídeo. Estos modelos son grandes y requieren una enorme potencia de procesamiento en chips personalizados. En resumen, se necesita una conexión a internet para que esto suceda. Pero algo muy interesante se está gestando, y ese algo viene de Google.
¿De qué trata esta aplicación de IA?
Hace unos meses, la compañía presentó una aplicación llamada Google AI Edge Gallery. Tras un tiempo en GitHub, finalmente llegó a Play Store . Idealmente, es una aplicación para desarrolladores que buscan crear experiencias de IA en sus apps, pero puedes probarla sin perder la cabeza.
Imagínalo como un mercado o una tienda. Pero en lugar de buscar aplicaciones, puedes elegir modelos de IA para ejecutar en tu teléfono. Si compras un teléfono Android hoy, como el Pixel 10 Pro, todas las funciones de IA están impulsadas por Gemini. Puedes descargar aplicaciones por separado como ChatGPT o Claude, pero todas requieren conexión a internet y envían tus datos a servidores.
La Galería de Google AI Edge está diseñada específicamente para ejecutar modelos de IA sin conexión. Así, si quieres comprender una imagen o resumir un informe extenso, puedes hacerlo sin conexión. Y lo mejor es que puedes hacerlo con cualquier modelo de IA que prefieras, sin necesidad de instalar una aplicación específica.
En resumen, esta aplicación es una solución integral para ejecutar experiencias de IA, totalmente gratuita y sin necesidad de conexión a internet. ¿Por qué querrías hacer eso? Bueno, se me ocurren varias situaciones.
¿Cómo es útil esta aplicación?
Digamos que alcanzas el límite de datos móviles, te encuentras en un lugar con poca o ninguna conexión a internet, o simplemente no quieres enviar informes confidenciales a una IA en línea. Quizás prefieras una IA especializada que solo realice una tarea específica, como convertir un archivo PDF en una página con viñetas. O enviar imágenes y que una IA escriba material académico basándose en ellas.
Para todos estos escenarios y más, simplemente puedes acceder a la Galería de Google AI Edge, ejecutar el modelo de IA que prefieras y empezar a trabajar. Actualmente, todos los modelos compatibles que necesitas se pueden descargar de la biblioteca de la comunidad HuggingFace LiteRT .
Aquí encontrará algunos modelos de IA bastante potentes desarrollados por Google en la serie Gemma. Estos cuentan con capacidades multimodales, lo que significa que pueden gestionar la generación de texto, imágenes y audio. Sin embargo, también puede experimentar con otros modelos de IA, como DeepSeek, SmolVLM, Phi-4 Mini de Microsoft y Llama de Meta.
Ahora, permítanme ofrecerles una breve descripción técnica. Todos estos modelos de IA disponibles para Google AI Edge Gallery están optimizados para el entorno de ejecución de alto rendimiento conocido como LiteRT, diseñado específicamente para tareas de IA en el dispositivo. Al igual que los modelos de IA mencionados anteriormente, LiteRT también es un entorno de ejecución de código abierto para modelos de lenguaje grandes (LLM).
Si dominas herramientas como TensorFlow o PyTorch, incluso puedes importar cualquier modelo de IA compacto almacenado en tu PC. Pero primero, debes convertir los archivos al formato .litertlm o .task. Una vez allí, solo tienes que subir el paquete a la carpeta de descargas del teléfono e importarlo a la galería de Google AI Edge con unos pocos toques.
¿Cómo es la experiencia?
Experimenté principalmente con el modelo Gemma 3n, ya que es el más versátil de todos. Además de chatear, también puede procesar imágenes y generar audio. Puedes seleccionar si un modelo funciona con CPU o GPU, ajustar el muestreo y la temperatura.
Esto último, en términos simples, mide la diversidad de respuestas de una IA. Una temperatura más baja produce resultados más predecibles, definitivos y algo repetitivos. Una temperatura más alta produce respuestas precisas, pero con mayor creatividad y mayor probabilidad de error.
Ahora bien, no es necesario experimentar demasiado con estos campos. Simplemente experimente con el rendimiento de un modelo de IA en CPU o GPU en términos de tasa de respuesta y manténgalo así. Experimenté con aproximadamente nueve modelos y los resultados han sido dispares.
Empecemos con las diferencias. Compartí una foto de mi gato y le pedí a Gemini que identificara la especie. Lo hizo en tres segundos. Cuando se envió la misma consulta antes de Gemma 3n, tardó 11 segundos. La respuesta fue precisa, pero un poco corta. Si prefieres respuestas concisas, quizás te guste este enfoque. En ocasiones, puedes encontrar errores, especialmente con consultas multimodales, así que conviene cambiar el acelerador (CPU y GPU) para ver si se acelera.
Asimismo, el procesamiento de texto también puede ser algo lento. Cuando escribí un artículo de unas 900 palabras y le pedí al modelo Qwen 2.5 de Alibaba que lo resumiera en viñetas, tardó unos 20 segundos en iniciarse. El Phi-4 mini de Microsoft fue notablemente más rápido, pero me gustó más el formato inteligente de Qwen 2.5.
El modelo Gemma 3n-E2B fue el más rápido en la tarea y también proporcionó la respuesta de mayor calidad en menos de ocho segundos. El modelo Gemma-3n-E4B, más potente, logró reformatear y formalizar el tono del mismo artículo en aproximadamente siete segundos mientras se ejecutaba en la CPU.
La transcripción de audio, aunque limitada a clips de 30 segundos, es simplemente fantástica. El modelo Gemma 3n-E2B de Google no cometió ningún error y resumió a la perfección el clip de audio transcrito. Todo esto ocurrió en menos de 10 segundos.
No todos los modelos funcionan bien con la aceleración de la GPU, por lo que es necesario ejecutarlos sin la CPU. Gemma3-1B se quedó atascado en el procesamiento durante minutos. Intentar cambiar el formato de aceleración bloquea la aplicación, especialmente con Qwen y Phi-4 mini. Por otro lado, Phi-4 mini fue casi tan rápido como Gemma en ciertas tareas de formato de artículos mientras se ejecutaba con la CPU.
Un vistazo al futuro
Esta aplicación no funciona en todos los teléfonos. Como mínimo, necesita un procesador con una NPU potente o un chip acelerador de IA, y preferiblemente, 8 GB o más de RAM. Realicé mis pruebas en el Google Pixel 10 Pro y no se calentó. Además, necesitarás conocimientos técnicos si quieres ejecutar modelos de IA que no están disponibles actualmente en la galería de LiteRT.
En general, la aplicación AI Edge Gallery de Google no reemplaza a Gemini ni a ninguna otra aplicación de chatbot conectada a internet en tu teléfono. Al menos por ahora. Pero es un buen augurio. No busques más: la aplicación HuggingSnap funciona con código abierto, es totalmente offline y permite usar funciones de Inteligencia Visual en un iPhone.
A medida que los procesadores móviles se vuelven más compatibles con la IA a nivel de hardware y obtenemos más modelos de IA optimizados para tareas en el dispositivo, aplicaciones como Google AI Gallery podrían servir como un centro para tareas de IA útiles. Un centro más privado, que funciona completamente en línea y sin costo alguno.
