Blog

  • Netflix está probando su propia función de búsqueda por voz y parece menos frustrante.

    Netflix está probando su propia función de búsqueda por voz y parece menos frustrante.

    Encontrar algo que ver en Netflix puede resultar una tarea tediosa. Por eso, Netflix ha lanzado discretamente una función de búsqueda por voz nativa con inteligencia artificial para un pequeño grupo de usuarios en Estados Unidos (vía The Verge ).

    En lugar de escribir un título, simplemente describes lo que te apetece ver y dejas que Netflix se encargue del resto. Todavía está en fase beta, pero las primeras impresiones son muy positivas.

    ¿Cómo funciona realmente la búsqueda por voz de Netflix?

    Los usuarios que tienen acceso a esta función en este momento deben presionar el botón de Netflix en su control remoto, lo que muestra algunas sugerencias basadas en el estado de ánimo, como " Necesito llorar un buen rato " o " Ver en segundo plano ".

    También hay un botón de "Preguntar" que activa la búsqueda por voz con IA . Puedes hablar con naturalidad y Netflix te mostrará recomendaciones en texto en pantalla. Sin embargo, Netflix no emite ninguna respuesta de voz.

    Un usuario de Reddit que descubrió la función en un televisor Sony A80J con Google TV la calificó como una incorporación muy solicitada, y señaló que funcionó de maravilla desde el primer momento.

    Los primeros usuarios que lo probaron lo encontraron sorprendentemente eficaz, manejando peticiones inusuales como " Hoy tomé demasiado café, ¿qué debería ver ?", que ofreció un especial de comedia relajado y la Guía de Headspace para dormir .

    También puedes refinar la búsqueda con peticiones adicionales como " más desquiciada " o " más agridulce". La función de búsqueda por voz de Netflix aún no accede a tu historial de visualización, por lo que las recomendaciones no están personalizadas.

    ¿Por qué Netflix no utiliza simplemente el buscador que ya está instalado en tu televisor?

    Actualmente, esta función está disponible en Chromecast con Google TV y en dispositivos TCL Google TV, pero no en Roku ni Fire TV . Probablemente, esto se deba a que Netflix prefiere que las búsquedas se realicen dentro de su propia aplicación, en lugar de ser redirigidos a una búsqueda global de la plataforma que incluye resultados de servicios de la competencia.

    Cuando usas el botón del micrófono en Hulu o Disney Plus , normalmente te redirige a la búsqueda universal de Google, Roku o Amazon. Netflix, al igual que YouTube, tiene suficiente poder de mercado como para gestionar esa función internamente.

    Todavía no hay noticias sobre un lanzamiento más amplio, pero si esta versión beta funciona bien, los días de navegar sin rumbo por Netflix podrían estar contados.

  • Esta nueva actualización de voz de OpenAI hace que Siri y Alexa parezcan necesitar volver a la escuela.

    Esta nueva actualización de voz de OpenAI hace que Siri y Alexa parezcan necesitar volver a la escuela.

    OpenAI ha lanzado tres nuevos modelos de audio en su API Realtime, lo que supone un gran avance para quienes desarrollan aplicaciones de voz. Los tres modelos son GPT-Realtime-2, GPT-Realtime-Translate y GPT-Realtime-Whisper.

    En conjunto, llevan la IA de voz más allá de las simples respuestas de ida y vuelta, hacia algo que puede entenderte, tomar medidas y mantener una conversación real.

    Si nos guiamos por su demostración, acabamos de presenciar la siguiente evolución en el funcionamiento de los modelos de IA de voz.

    ¿Qué pueden hacer realmente estos modelos?

    GPT-Realtime-2 es la novedad estrella. Aplica el razonamiento de la clase GPT-5 a las interacciones de voz en directo, lo que significa que puede gestionar solicitudes más complejas sin interrumpir el hilo de la conversación.

    Puede llamar a varias herramientas simultáneamente e incluso narrar lo que está haciendo con frases como «revisando tu calendario» o «déjame investigar eso». También cuenta con una ventana de contexto más amplia de 128 000 tokens, lo que se traduce en sesiones más largas y coherentes. Los desarrolladores pueden incluso ajustar el esfuerzo de razonamiento en función de la complejidad de la solicitud.

    GPT-Realtime-Translate es probablemente mi favorito. Es lo más parecido que hemos tenido al traductor universal de Star Trek en la vida real. Admite traducción de voz en tiempo real en más de 70 idiomas de entrada y 13 idiomas de salida.

    Lo mejor de la demostración fue que, incluso cuando se unió una persona nueva que hablaba un idioma diferente, GPT-Realtime-Translate no tuvo ningún problema para traducir a ambos interlocutores al inglés en tiempo real.

    Por último, tenemos GPT-Realtime-Whisper. La mayoría de los modelos de conversión de voz a texto esperan a que el orador termine de hablar antes de proporcionar la traducción completa. Este es un modelo de transcripción en tiempo real que convierte la voz a texto mientras el orador habla. Es útil para subtítulos en directo, notas de reuniones y cualquier flujo de trabajo basado en voz donde esperar a que se complete la transcripción no sea una opción.

    ¿Cualquiera puede usar estos nuevos modelos de IA de voz?

    Actualmente, OpenAI ha puesto estos modelos a disposición de los desarrolladores. Sin embargo, las aplicaciones que creen tendrán repercusiones en todos. Por ejemplo, un desarrollador puede crear una aplicación de traducción en tiempo real que permita a los usuarios conversar con personas en diferentes idiomas.

    Muchas empresas ya están probando estos nuevos modelos. Zillow está desarrollando un asistente de voz que permite buscar casas y programar visitas con solo una orden verbal. Priceline permite consultar vuelos y hoteles, cancelarlos y reservar otros nuevos. Vimeo lo utiliza para transcripciones en tiempo real, y así sucesivamente.

    Los precios parten de 0,017 dólares por minuto para Whisper, 0,034 dólares por minuto para Translate y 32 dólares por cada millón de tokens de entrada de audio para GPT-Realtime-2.

  • El motor de respuestas con IA de Perplexity finalmente no llegará a Snapchat.

    El motor de respuestas con IA de Perplexity finalmente no llegará a Snapchat.

    La integración de Perplexity prevista por Snapchat ya no se llevará a cabo. Snap reveló en su carta a los inversores del primer trimestre de 2026 que ambas compañías "pusieron fin amistosamente a la relación en el primer trimestre", poniendo fin a un acuerdo de 400 millones de dólares en efectivo y acciones anunciado en noviembre pasado .

    El acuerdo habría integrado el motor de respuestas con IA de Perplexity directamente en la interfaz de chat de Snapchat. Los usuarios habrían podido hacer preguntas y obtener respuestas conversacionales y con respaldo de fuentes fiables sin salir de la aplicación. Snap había declarado anteriormente que la colaboración comenzaría a generar ingresos en 2026, pero sus últimas previsiones de ventas ahora no contemplan ninguna contribución de Perplexity.

    ¿Necesitan los usuarios la función de búsqueda por IA en todas las aplicaciones de chat?

    La cancelación se produce en un momento en que las empresas tecnológicas están integrando asistentes de IA en sus aplicaciones. Meta ha añadido Meta AI a WhatsApp , Instagram, Facebook y Messenger. Google ha estado integrando Gemini en su buscador, Android , Gmail y otros productos.

    Snapchat parecía estar siguiendo el mismo camino con Perplexity. Con cientos de millones de usuarios diarios que utilizan la aplicación para conversar, planificar y compartir contenido, incorporar un chatbot podría haber parecido una buena idea en teoría. Sin embargo, en febrero comenzaron a surgir problemas, cuando la compañía anunció que aún no había llegado a un acuerdo con Perplexity sobre un plan de lanzamiento más amplio. El acuerdo también generó dudas sobre cómo funcionaría la búsqueda por IA dentro de la mensajería privada, especialmente para los usuarios más jóvenes y temas delicados.

    ¿Snapchat sigue utilizando inteligencia artificial?

    El fin del acuerdo con Perplexity no significa que Snapchat abandone la IA. La compañía presentó recientemente los Snaps Patrocinados con IA , un formato publicitario que permite a las marcas integrar chatbots interactivos con IA en el chat. Por lo tanto, es posible que sigan apareciendo conversaciones con chatbots en Snapchat, pero a través de anuncios en lugar de la búsqueda de Perplexity.

    Snap también está añadiendo más actividad a Snap Map. Su nueva función Place Loyalty clasifica a los usuarios según la frecuencia con la que visitan ciertos lugares durante el último año, con niveles Oro, Plata y Bronce. Snap afirma que las clasificaciones son privadas y que la opción de compartir la ubicación permanece desactivada por defecto.

    La empresa sigue creciendo. En el primer trimestre, los usuarios activos diarios globales aumentaron un 5 % interanual, alcanzando los 483 millones, mientras que los usuarios activos mensuales crecieron un 5 %, llegando a los 965 millones. Snap atribuyó este crecimiento a las funciones de Snap Map, Lenses y otras partes de la aplicación.

  • Google responde a la instalación silenciosa de Gemini Nano en Chrome, pero no aborda el tema del consentimiento.

    Google responde a la instalación silenciosa de Gemini Nano en Chrome, pero no aborda el tema del consentimiento.

    Parisa Tabriz, vicepresidenta y directora general de Google Chrome, ha respondido a las críticas sobre la práctica de Chrome de descargar silenciosamente un modelo de IA de 4 GB en los dispositivos de los usuarios, afirmando que la IA en el dispositivo es fundamental para la seguridad del navegador y su estrategia para desarrolladores.

    ¿Qué desencadenó la reacción negativa?

    El investigador de privacidad Alexander Hanff documentó recientemente este comportamiento, descubriendo que Chrome descarga automáticamente el modelo de Gemini Nano, que ocupa aproximadamente 4 GB, en los dispositivos sin avisar a los usuarios ni ofrecerles una opción clara para desactivarlo. Eliminar el archivo manualmente provoca una nueva descarga automática al reiniciar Chrome. Recientemente publicamos un artículo sobre este tema y ofrecimos instrucciones sobre cómo desactivarlo .

    La polémica se intensificó después de que los críticos señalaran una inconsistencia desconcertante: la función "Modo IA" de Chrome, muy visible en la barra de direcciones, no utilizaba en absoluto el modelo local. Las consultas que se introducen en ella se envían a los servidores en la nube de Google, lo que significa que los usuarios asumen el coste de almacenamiento y ancho de banda de un archivo de 4 GB que no tiene ninguna conexión con la función de IA más destacada del navegador.

    Los defensores de la privacidad también han expresado su preocupación por las posibles violaciones de la legislación europea sobre privacidad, en concreto por el requisito de la Directiva sobre privacidad electrónica de obtener el consentimiento del usuario antes de almacenar datos en un dispositivo.

    La respuesta de Google

    Tabriz reconoció este comportamiento en una serie de publicaciones recientes en X, aclarando que Google ofrece Gemini Nano en Chrome desde 2024 "como un modelo ligero para dispositivos móviles", que es fundamental tanto para las API de desarrollo de Chrome como para sus capacidades de seguridad, incluida la detección de estafas.

    Señaló que el modelo procesa los datos localmente en lugar de enviarlos a los servidores de Google, y dijo que se desinstala automáticamente cuando un dispositivo tiene poco espacio de almacenamiento.

    Tabriz no abordó directamente la cuestión del consentimiento, ni explicó por qué la aplicación se reinstala si el usuario la elimina. Google ha declarado por separado que los usuarios pueden desactivar y eliminar la aplicación a través de la configuración de Chrome, y que una vez desactivada, no se volverá a descargar.

  • Tu Galaxy Watch ahora puede avisarte antes de que te desmayes.

    Tu Galaxy Watch ahora puede avisarte antes de que te desmayes.

    Un desmayo puede parecer un suceso dramático pero inofensivo, pero el verdadero peligro reside en lo que ocurre después. Una caída repentina puede provocar fracturas, conmociones cerebrales y otras lesiones graves. Es especialmente peligroso para las personas mayores y puede causar traumatismos craneales graves y problemas de movilidad.

    La última investigación de Samsung podría cambiar eso. La compañía ha completado un estudio clínico conjunto con el Hospital Universitario Chung-Ang de Gwangmyeong en Corea, validando con éxito que el Galaxy Watch 6 puede predecir el síncope vasovagal (SVV) antes de que ocurra.

    En otras palabras, tu reloj puede avisarte de que estás a punto de desmayarte.

    ¿Qué es el síncope vasovagal y por qué debería importarte?

    El síncope vasovagal se produce cuando la frecuencia cardíaca y la presión arterial disminuyen repentinamente, a menudo debido al estrés, lo que provoca la pérdida del conocimiento. Hasta el 40 % de las personas lo experimentan en algún momento de su vida, y un tercio de ellas sufren episodios recurrentes.

    El profesor Junhwan Cho, del Departamento de Cardiología del Hospital Universitario Chung-Ang de Gwangmyeong, lo resume muy bien: «Una alerta temprana podría dar a los pacientes tiempo suficiente para colocarse en una posición segura o pedir ayuda, lo que reduciría drásticamente la incidencia de lesiones secundarias».

    ¿Cómo predice el Galaxy Watch los desmayos?

    El equipo de investigación realizó pruebas en 132 pacientes con síntomas sospechosos de síncope vasovagal. Utilizando un Galaxy Watch 6 equipado con un sensor PPG, el equipo analizó los datos de variabilidad de la frecuencia cardíaca con un algoritmo de inteligencia artificial .

    Los resultados fueron impresionantes. El modelo predijo los episodios de desmayo hasta 5 minutos antes de que ocurrieran, con una precisión del 84,6 % y una sensibilidad del 90 %. Los hallazgos se publicaron en la revista European Heart Journal Digital Health, y este es el primer estudio que demuestra que un reloj inteligente comercial puede lograr esto.

    El Apple Watch cuenta con una función de detección de caídas que notifica a tus contactos de confianza cuando te caes y no respondes. Al parecer, el Galaxy Watch 6 ahora ofrece una función mejorada, alertando a la persona antes de que se desmaye, para que pueda tomar precauciones y reducir las lesiones derivadas de la caída.

    Este tipo de investigaciones y avances son los que convierten nuestros dispositivos cotidianos en aparatos que salvan vidas , y estamos deseando ver hasta dónde podemos llegar con los límites de lo que la tecnología puede hacer.

  • Un nuevo estudio revela que incluso un uso breve de la IA podría perjudicar tu capacidad de pensar.

    Un nuevo estudio revela que incluso un uso breve de la IA podría perjudicar tu capacidad de pensar.

    Un nuevo estudio realizado por investigadores de Carnegie Mellon, MIT, Oxford y UCLA sugiere que usar un chatbot de IA durante tan solo 10 minutos podría afectar negativamente tu capacidad de pensar y resolver problemas. Y, sinceramente, los resultados son un tanto alarmantes.

    Según informa Wired , los investigadores pidieron a los participantes que resolvieran problemas, incluyendo fracciones simples y tareas de comprensión lectora. Algunos participantes tuvieron acceso a un asistente de IA que podía resolver el problema por ellos.

    Cuando se eliminó repentinamente la IA, los participantes fueron mucho más propensos a rendirse o a equivocarse en la respuesta. En otras palabras, en el momento en que la IA dejó de ser una ayuda, las personas tuvieron dificultades.

    ¿Deberíamos preocuparnos por lo que la IA le está haciendo a nuestros cerebros?

    Michiel Bakker, profesor adjunto del MIT que participó en el estudio, se cuida de no parecer un agorero. «La conclusión no es que debamos prohibir la IA en la educación o en los lugares de trabajo», afirma. «La IA puede ayudar claramente a las personas a rendir mejor en el momento, y eso puede ser valioso. Pero debemos ser más cuidadosos con el tipo de ayuda que proporciona la IA y cuándo».

    Lo que resulta especialmente preocupante es que la perseverancia, es decir, la voluntad de seguir intentándolo cuando las cosas se ponen difíciles, es fundamental para que los humanos aprendan y desarrollen nuevas habilidades con el tiempo. Al parecer, la IA está erosionando silenciosamente esa cualidad.

    ¿Cuál es la solución?

    Bakker cree que las herramientas de IA deben rediseñarse para funcionar como un buen profesor . En lugar de simplemente dar la respuesta, deberían guiar a los usuarios a través del problema. «Los sistemas que dan respuestas directas pueden tener efectos a largo plazo muy diferentes a los sistemas que brindan apoyo, guían o desafían al usuario», afirma.

    Es un equilibrio delicado, y las empresas de IA ya se enfrentan a problemas similares. Por ahora, quizás valga la pena preguntarse: ¿tu asistente de IA te ayuda a crecer o simplemente piensa por ti?

  • El jefe de Android rechaza una copia de Liquid Glass en los Pixel, y eso es un alivio.

    El jefe de Android rechaza una copia de Liquid Glass en los Pixel, y eso es un alivio.

    El presidente del ecosistema Android de Google ha desmentido las especulaciones sobre la posible adopción de la interfaz Liquid Glass de Apple por parte de Android, al menos en los dispositivos Pixel. En respuesta a una maqueta de Liquid Glass en un Pixel 11 publicada en X, Sameer Samat declaró: «Eso no va a pasar. ¡Están locos!». Esta respuesta es una buena noticia para los fans de Android, que han visto cómo una oleada de fabricantes copiaba la estética de Apple durante el último año.

    Varios fabricantes de dispositivos Android ya han caído en la trampa.

    Desde que Apple presentó Liquid Glass en la WWDC en junio del año pasado, varios fabricantes de Android han replicado su apariencia en sus respectivas interfaces. OnePlus, Vivo, Oppo, Honor y Xiaomi han lanzado actualizaciones de interfaz que imitan la estética translúcida de cristal esmerilado que introdujo Apple. Esta imitación se ha extendido tanto que ha generado preocupación sobre la propia identidad visual de Android.

    Google, al menos en lo que respecta a su propia línea Pixel, se está resistiendo a esa tendencia.

    Material 3 Expressive ya es bastante bueno

    Google presentó su nuevo lenguaje de diseño , Material 3 Expressive, en el evento I/O 2025. Esta actualización incorpora colores más llamativos, movimientos más dinámicos y transiciones de forma fluidas en la interfaz de usuario, las notificaciones y las aplicaciones principales. Esto le otorga a los dispositivos Pixel una personalidad distintiva.

    Material 3 Expressive ya le brinda a Google una identidad de diseño propia sin tener que imitar a la competencia, y la respuesta de Samat indica que la compañía tiene la intención de mantenerla. Para quienes usan teléfonos Pixel, este comentario equivale a una garantía de que el lenguaje de diseño de Android seguirá siendo único.

    Es posible que Liquid Glass se extienda a otras interfaces de Android de terceros, pero los dispositivos de Google vendrán con un sistema de diseño propio. Queda por ver si otros fabricantes de Android seguirán el ejemplo de Google.