Blog

  • Ahora puedes usar Gemini sin salir de tus aplicaciones, gracias a la multitarea en pantalla dividida

    Ahora puedes usar Gemini sin salir de tus aplicaciones, gracias a la multitarea en pantalla dividida

    Google está implementando una importante actualización de su plataforma de IA Gemini que cambia la forma en que los usuarios interactúan con la inteligencia artificial en dispositivos Android. Con esta última mejora , Gemini ahora puede funcionar en modo de pantalla dividida junto con otras aplicaciones, lo que permite que el asistente de IA trabaje en contexto con lo que aparece en la pantalla del teléfono, sin obligarte a cambiar de aplicación.

    Incorporando IA a su flujo de trabajo

    Tradicionalmente, los asistentes de IA en smartphones existían en interfaces separadas: se abría una ventana de chat, se hacía una pregunta y, una vez recibida la respuesta, se volvía a la app elegida. La nueva implementación de pantalla dividida de Google rompe ese patrón. Ahora, Gemini puede aparecer junto a otra app en un panel dedicado, ayudándote activamente mientras trabajas.

    Por ejemplo, al redactar un correo electrónico o un mensaje, Gemini puede sugerir frases, refinar el texto o crear borradores de respuestas en tiempo real. Si estás leyendo un artículo o documento largo en un navegador, la IA puede extraer puntos clave o resúmenes sin interrumpir la lectura. En las apps de mensajería, los usuarios pueden pedirle a Gemini que les ayude con sugerencias de respuestas o que genere respuestas rápidas basadas en la conversación visible en pantalla.

    Esta actualización forma parte del esfuerzo más amplio de Google por hacer que sus herramientas de IA sean más asistenciales, no solo reactivas. En lugar de esperar a que un usuario haga una pregunta, Gemini ahora puede ser un aliado contextual que contribuye activamente a tus tareas.

    Ya disponible en algunos dispositivos Android y aplicaciones compatibles, la función de pantalla dividida aparece como una opción para "abrir Gemini" junto con las aplicaciones compatibles. Una vez activada, el panel de IA permanece visible e interactivo mientras la aplicación principal permanece visible.

    Un cambio importante en el diseño de la IA móvil

    Esta medida refleja un cambio más amplio en la forma en que fabricantes y desarrolladores conciben la inteligencia artificial en plataformas móviles. En lugar de tratar la IA como un servicio independiente al que los usuarios recurren ocasionalmente, empresas como Google están avanzando hacia la multitarea aumentada por IA, donde la inteligencia generativa se integra en los flujos de trabajo móviles cotidianos.

    Competidores como Apple y Microsoft también han mostrado interés en una mayor integración de la IA en sus respectivos sistemas operativos. Microsoft está explorando herramientas de IA en las aplicaciones de Windows, mientras que Apple está preparando sus servicios de IA en dispositivos iOS. La implementación de pantalla dividida de Google representa uno de los ejemplos más avanzados de integración de IA contextual en Android hasta la fecha.

    Para los usuarios, esta evolución implica menos cambios de contexto. Ya no es necesario copiar texto de una aplicación, abrir una interfaz de IA independiente y pegarlo: Gemini puede estar junto a tu contenido, entendiendo lo que haces y sugiriendo mejoras sobre la marcha.

    Los beneficios pueden parecer sutiles a primera vista, pero son significativos en la práctica.

    Agilizar tareas como redactar respuestas, resumir contenido extenso o generar ideas puede ahorrar tiempo y reducir la fricción en los flujos de trabajo rutinarios. Tanto estudiantes que investigan temas, profesionales que gestionan la comunicación o usuarios ocasionales que intentan extraer información de los artículos encontrarán en la nueva pantalla dividida de Gemini una herramienta práctica.

    Las personas preocupadas por la privacidad también apreciarán que las herramientas de pantalla dividida de Gemini funcionen dentro del contexto de sus aplicaciones existentes, en lugar de canalizar datos a través de ventanas o servicios separados.

    ¿Qué sigue para Gemini y la IA móvil?

    El lanzamiento de Google aún se encuentra en sus primeras etapas, y no todos los dispositivos o aplicaciones son compatibles con la función de pantalla dividida. Sin embargo, ya se han sentado las bases para integraciones aún más profundas, donde las aplicaciones de terceros podrían ofrecer interfaces más completas que Gemini pueda usar para brindar asistencia más personalizada. Con el tiempo, los desarrolladores podrían permitir que Gemini acceda al contenido de la aplicación de forma estructurada, similar a los plugins de IA de escritorio.

    A medida que la IA se integra cada vez más en los sistemas operativos, experiencias como la multitarea en pantalla dividida podrían pronto volverse comunes, difuminando la línea entre app y asistente. La última iniciativa de Google con Gemini insinúa un futuro en el que la IA de tu teléfono no solo responderá preguntas, sino que te ayudará a realizar tus tareas.

    La publicación Ahora puedes usar Gemini sin salir de tus aplicaciones, gracias a la multitarea en pantalla dividida apareció primero en Digital Trends .

  • Google I/O 2026 se centra en la IA: esto es lo que significa para usted

    Google ha programado Google I/O 2026 para el 19 y 20 de mayo, y la IA está siendo el centro de atención desde el principio. El mensaje de la compañía para reservar la fecha coloca a Gemini en el centro, con Android , Chrome y Google Cloud como los principales destinos donde deberían llegar esas actualizaciones.

    Si estás pendiente de los anuncios de IA de Google I/O 2026 para guiar la elección de productos, la verdadera noticia está en el contexto. Google no está tratando la IA como un tema secundario, sino que está posicionando las actualizaciones de modelos y las herramientas para desarrolladores como el hilo conductor que conecta el resto de la historia de la plataforma. Esto debería determinar cómo se presupuesta la atención una vez que se publique el calendario.

    Google también confirmó los aspectos básicos: se celebrará en el Anfiteatro Shoreline de Mountain View, con visualización en línea disponible y la inscripción abierta. Lo que falta es la información que los desarrolladores realmente planean: títulos de las sesiones, temas de las charlas, detalles de los talleres y cualquier aclaración sobre los límites de asistencia presencial.

    Géminis es el primer indicio

    Las primeras pistas de Google son contundentes. Habla de actualizaciones de IA junto con Gemini y luego las vincula inmediatamente con las plataformas donde se distribuyen y escalan las aplicaciones. Se espera que las conferencias magistrales marquen el rumbo, y luego las sesiones expliquen las novedades en herramientas, SDK y cómo las funciones de IA se integran en los flujos de trabajo existentes, donde suelen ocultarse los detalles útiles.

    Los canales para desarrolladores de Google también se centraron en la "solución" de E/S, con menciones a las compilaciones y remezclas de la comunidad. Es una pequeña señal, pero sugiere que Google busca la experimentación antes del evento principal, no solo la observación pasiva. También sugiere que las demostraciones prácticas, las plantillas y las compilaciones guiadas podrían tener mayor importancia este año.

    Qué hacer antes de mayo

    Regístrate ahora y usa el sitio web del evento como un feed. Vale la pena echarle un vistazo al rompecabezas interactivo de E/S creado con Gemini, ya que indica el tipo de experiencias de desarrollo que Google quiere que la gente pruebe. Cuando aparezcan las listas de sesiones, prioriza las charlas relacionadas con la implementación, las API, la evaluación, la seguridad, el despliegue y la monitorización. Estas son las sesiones que convierten la amplia charla sobre IA en planes de lanzamiento.

    La publicación Google I/O 2026 se inclina hacia la IA: esto es lo que significa para usted apareció primero en Digital Trends .

  • Puedes dejar de ver comentarios en YouTube si usas un bloqueador de anuncios

    Puedes dejar de ver comentarios en YouTube si usas un bloqueador de anuncios

    En lo que muchos usuarios consideran la última medida en su continua lucha contra los bloqueadores de anuncios, YouTube muestra cada vez más comentarios faltantes, e incluso, en ocasiones, descripciones de vídeo, a los usuarios que tienen bloqueador de anuncios activado en sus navegadores. Este comportamiento inusual (secciones de comentarios reemplazadas por un mensaje que indica "Comentarios desactivados") se ha reportado en múltiples dispositivos y navegadores, lo que genera preocupación sobre si YouTube está eliminando intencionalmente funciones para los usuarios con bloqueadores de anuncios.

    Cómo está cambiando la experiencia para los espectadores

    Durante la última semana, los usuarios de foros como Reddit y X han notado que cada video que cargan muestra que los comentarios están desactivados, incluso en videos que normalmente tienen discusiones activas. En muchos casos, al actualizar la página se restauran los comentarios, y en otros, al desactivar un bloqueador de anuncios, se recuperan tanto los comentarios como las descripciones de los videos que estaban ocultos. Los informes generalizados abarcan navegadores como Chrome, Edge, Brave y más, y los usuarios rápidamente encuentran enlaces al uso de extensiones bloqueadoras de anuncios.

    Para los usuarios habituales, los comentarios y las descripciones no son solo un detalle útil: proporcionan contexto, retroalimentación e interacción con la comunidad. Verlos desaparecer junto con los bloqueadores de anuncios ha llevado a muchos a sospechar que YouTube podría estar experimentando con la supresión de funciones como una táctica indirecta para desincentivar el uso de bloqueadores de anuncios .

    Este desarrollo sigue un patrón más amplio de YouTube intentando reducir el bloqueo de anuncios de diversas maneras en los últimos años. Informes anteriores han documentado experimentos de YouTube con el bloqueo de la reproducción de videos, la ralentización de la carga de contenido o la visualización de mensajes en la plataforma si se detecta un bloqueador de anuncios.

    Por qué esto es importante más allá de pequeños fallos

    Si bien los errores de funcionalidad son comunes en las grandes plataformas, la magnitud y la consistencia de estos informes —que afectan a decenas de miles de usuarios en todas las plataformas— han llevado a los observadores a considerar este comportamiento como algo más que un simple error. Los comentarios y las descripciones son elementos esenciales de la experiencia de YouTube; su desaparición repentina socava el papel de la plataforma como espacio comunitario.

    Los usuarios han reaccionado con frustración, señalando que este dilema —anuncios o pérdida de funciones clave— los pone en una situación difícil. Para los usuarios preocupados por la privacidad que dependen de bloqueadores de anuncios en la web, esto crea una tensión entre querer una experiencia limpia y rápida y acceder a todas las funciones de YouTube.

    Los creadores de contenido también se ven afectados. Los comentarios son una métrica clave de interacción, utilizada para medir la respuesta de la audiencia y construir una comunidad. Si una parte significativa de los espectadores no puede ver ni publicar comentarios debido a la detección de bloqueadores de anuncios, los creadores podrían experimentar caídas significativas en la interacción y los ciclos de retroalimentación.

    Cómo responden los usuarios

    Actualmente, YouTube no ha confirmado oficialmente si la eliminación de comentarios es intencional, una prueba o simplemente un error relacionado con cambios recientes en la interfaz. Mientras tanto, los usuarios han identificado un par de soluciones alternativas: actualizar la página del video o deshabilitar las extensiones de bloqueo de anuncios; ambas suelen restaurar elementos completos de la interfaz de usuario.

    Algunos han especulado que esto podría ser un paso más en la guerra de YouTube contra los bloqueadores de anuncios, una larga lucha entre la plataforma y los usuarios que prefieren una experiencia sin anuncios sin pagar por YouTube Premium . Los críticos argumentan que tácticas agresivas como la eliminación de funciones podrían ser contraproducentes, empujando a algunos usuarios hacia plataformas de video alternativas o generando debates sobre la equidad y los derechos de los usuarios.

    ¿Qué sigue?

    Por ahora, lo más seguro es que YouTube aún está probando hasta dónde puede llegar para atraer a los usuarios a su ecosistema monetizado sin bloquear completamente el acceso al contenido. Queda por ver si este comportamiento se vuelve permanente, se revierte o evoluciona hacia otra forma de aplicación de medidas antibloqueo de anuncios.

    Los usuarios que dependen de los comentarios y las descripciones (ya sea para interactuar con la comunidad o para comprender mejor los videos que miran) querrán monitorear cómo avanza este problema, ya que refleja una tensión más amplia entre el uso gratuito de la plataforma y las estrategias de monetización.

    La publicación Puedes dejar de ver comentarios en YouTube si usas un bloqueador de anuncios apareció primero en Digital Trends .

  • Google trae compatibilidad con AirDrop a los teléfonos de la serie Pixel 9

    Google trae compatibilidad con AirDrop a los teléfonos de la serie Pixel 9

    El año pasado, Google habilitó por primera vez la compatibilidad con AirDrop en los dispositivos Pixel 10 , un cambio que finalmente permitió a los teléfonos Android compartir archivos con iPhones mediante el sistema de Apple. Ahora, Google está ampliando su función Quick Share, y los Pixel 9 son los siguientes en la lista.

    Google compartió la noticia en X, confirmando que Pixel 9 , Pixel 9 Pro , Pixel 9 Pro XL y Pixel 9 Pro Fold ahora son compatibles con AirDrop de Apple.

    Sin embargo, la compañía no ha explicado por qué el Pixel 9a queda excluido de esta nueva versión de compatibilidad. La función se implementará por fases en las próximas semanas.

    Cómo configurar Quick Share con AirDrop en teléfonos Pixel

    Para habilitar la función en un teléfono de la serie Pixel 9, siga estos pasos: Configuración > Sistema > Actualizaciones de software > instale la última actualización del sistema de Google Play.

    Asegúrese de que la extensión Quick Share también esté actualizada abriendo Configuración > Todos los servicios > Servicios del sistema > Extensión Quick Share e instalando la actualización disponible.

    Para recibir archivos desde un Pixel, los propietarios de dispositivos Apple deben configurar su visibilidad de AirDrop en “Todos durante 10 minutos”, lo que permitirá que se establezca la conexión.

    La promesa de Google sobre privacidad y rendimiento

    Google afirma que la actualización permite a los usuarios del Pixel 9 compartir fácilmente archivos de alta resolución con iPhones, iPads y dispositivos macOS. Esto facilita que los amigos que usan productos Apple intercambien contenido por Bluetooth.

    Google también afirma que la privacidad y la velocidad siguen siendo prioridades, y añade que el sistema utiliza múltiples capas de protección para mantener seguros los archivos compartidos. Esta función utiliza una conexión directa entre pares (P2P), por lo que los archivos no se envían a través de servidores, no se registran ni se comparten más allá de la propia transferencia.

    Para los usuarios de Pixel 9, es una pequeña actualización que finalmente elimina una gran molestia cotidiana al compartir archivos con amigos de iPhone.

    La publicación Google trae compatibilidad con AirDrop a los teléfonos de la serie Pixel 9 apareció primero en Digital Trends .

  • Este impresionante lapso de tiempo espacial “muestra un poco de todo”

    Orbitando a 250 millas sobre la Tierra, las vistas desde la Estación Espacial Internacional (ISS) son insuperables y siempre tienen un gran impacto en los astronautas que tienen la suerte de alojarse allí.

    Zena Cardman de la NASA, quien regresó de la ISS en enero después de una visita que duró poco más de cinco meses, compartió esta semana un hermoso lapso de tiempo (abajo) que muestra "un poco de todo", incluido el atardecer, las tormentas eléctricas, el resplandor del aire, el destello de la luna, las estrellas y el amanecer, e incluso una nave espacial Dragon acoplada bañándose en la luz siempre cambiante.

    “La estación espacial rara vez hace grandes cambios en su orientación, pero tuvimos la suerte de experimentar tales maniobras (dar la vuelta para volar con el trasero primero y luego volver a dar la vuelta) antes y después de cada reimpulso del CRS-33”, escribió Cardman en su publicación, refiriéndose a cómo la estación es empujada ocasionalmente a una órbita más alta por una nave espacial acoplada para contrarrestar la resistencia atmosférica que reduce gradualmente su altitud.

    “Este lapso de tiempo a 60x de velocidad fue uno de mis favoritos porque captura un poco de todo: la puesta de sol, las tormentas eléctricas, el resplandor del aire, el destello de la luna, las estrellas y el amanecer, mientras hacíamos una voltereta orbital (en realidad muy lenta) del Atlántico al Pacífico”.

    La estación orbita la Tierra a unos 28 000 km/h (17 500 mph), dando unas 16 vueltas al planeta cada 24 horas. Esto significa que los astronautas a bordo de la EEI pueden disfrutar de 16 atardeceres y 16 amaneceres durante ese período.

    Ya sea que haya luz u oscuridad, a muchos astronautas les gusta dirigirse a la Cúpula de siete ventanas durante su tiempo libre, tomar una cámara para tomar algunas fotografías de la Tierra o configurar un lapso de tiempo.

    El astronauta francés Thomas Pesquet incluso publicó un libro que exhibe su impresionante trabajo. Pesquet planificó cuidadosamente su tiempo a bordo de la EEI, tomando descansos del trabajo científico cuando sabía que la estación pasaría sobre una zona visualmente impactante de la Tierra. Cámara en mano, el astronauta capturaba imágenes impresionantes antes de compartirlas en redes sociales.

    El astronauta estadounidense Don Pettit también se ha ganado una reputación por su impresionante trabajo visual capturado a bordo de la ISS, y algunas de sus imágenes más surrealistas también han recibido muchos elogios.

    Este impresionante lapso de tiempo espacial "muestra un poco de todo" apareció primero en Digital Trends .

  • iOS 26.4 pone tu iPhone en modo antirrobo por defecto

    iOS 26.4 pone tu iPhone en modo antirrobo por defecto

    Ya está disponible la primera beta para desarrolladores de iOS 26.4, y con ella, Apple activa un importante interruptor de seguridad para los compradores. Una función de seguridad que antes era opcional ahora está activada por defecto para todos, lo que dificulta que los ladrones alteren la configuración crítica de tu iPhone.

    Estamos hablando de Stolen Device Protection (lanzada por primera vez con iOS 17.3) , la función que está diseñada para proteger tu ID de Apple, contraseñas guardadas, métodos de pago y otra información confidencial, incluso si alguien conoce el código de acceso de tu iPhone.

    Cambiar configuraciones de seguridad críticas requiere más que solo una contraseña

    La función solicita más credenciales que el código de acceso de su iPhone (como Face ID o Touch ID) para acciones como ver o usar contraseñas o claves de acceso guardadas en iCloud , ver una tarjeta Apple existente o solicitar una nueva, desactivar el Modo Perdido y borrar todo el contenido y las configuraciones.

    Además, la función también retrasa el cambio de configuraciones de seguridad críticas, como la contraseña de Apple ID, agregar o eliminar dispositivos confiables, cambiar el código de acceso del iPhone y agregar o eliminar Face ID o Touch ID, durante una hora.

    También requiere autenticación biométrica, seguida de un retraso de seguridad de una hora y una segunda confirmación biométrica antes de que se puedan realizar cambios.

    Por qué esto es importante

    Básicamente, al habilitar la Protección contra dispositivos robados en iOS 26.4, Apple está dificultando que actores maliciosos exploten la información crítica almacenada en su teléfono o lo restablezcan y lo vendan por dinero rápido.

    En otras palabras, tu iPhone estará más paranoico de lo habitual, incluso cuando lo estés usando, pero es mejor tener la función y no necesitarla que necesitarla y darte cuenta de que no la activó (que es el objetivo de convertirla en una función no opcional).

    Por otra parte, la beta para desarrolladores de iOS 26.4 también incluye compatibilidad con mensajería RCS cifrada, compatibilidad con vídeo nativo en Apple Podcasts y la nueva función Playlist Playground en Apple Music. Se espera el lanzamiento público completo de iOS 26.4 esta primavera.

    La publicación iOS 26.4 pone tu iPhone en modo antirrobo por defecto apareció primero en Digital Trends .

  • Google está planeando un sistema de desbloqueo facial similar al del iPhone para teléfonos Pixel y Chromebooks

    Google está planeando un sistema de desbloqueo facial similar al del iPhone para teléfonos Pixel y Chromebooks

    En Android Authority hemos descubierto el "Proyecto Toscana" de Google, que parece ser una palabra clave o nombre interno para la tecnología de reconocimiento facial. Lo interesante es que la compañía está trabajando para integrar la tecnología tanto en teléfonos Pixel como en Chromebooks.

    La fuente de la publicación ha utilizado la tecnología avanzada de reconocimiento facial en un teléfono Pixel con una sola cámara perforada en el frente y dos Chromebooks (con la ayuda de cámaras externas), bajo variadas condiciones de iluminación.

    Misterio del hardware: ¿cómo funciona?

    Así pues, a diferencia del desbloqueo facial basado en IA de los teléfonos Pixel , que no es muy útil en entornos con poca iluminación, Project Toscana parece funcionar tanto en condiciones de buena como de mala iluminación. De hecho, la publicación incluso afirma que esta tecnología experimental funciona tan "rápidamente" como el Face ID de Apple.

    Sin embargo, lo que me desconcierta es que el sistema avanzado de desbloqueo facial se haya probado en un teléfono con un orificio perforado, probablemente con un solo sensor de cámara. El informe no menciona ningún hardware especializado que mejore la precisión de la tecnología.

    En comparación, los iPhones de Apple incluyen un proyector de puntos IR dedicado que proyecta más de 30.000 puntos IR en la cara del usuario y una cámara IR que lee el patrón de puntos reflejado desde la cara, y es para ocultar todos estos sensores que los últimos iPhones vienen con una Dynamic Island.

    ¿Podría ser el poder de Tensor y la seguridad computacional?

    Por lo que puedo leer entre líneas, el Proyecto Toscana de Google podría aprovechar sensores de cámara híbridos que podrían capturar tanto la luz visible como las longitudes de onda del infrarrojo cercano (NIR).

    Además, el mecanismo también podría incluir integración de tiempo de vuelo y controles de actividad computacional (a través del procesador de señal de imagen avanzado en el chip Tensor G6 propuesto).

    Dado que no está claro si la fuente del medio probó la función en un Pixel existente o en un modelo próximo, no puedo comentar al respecto con total seguridad.

    Si se trata de un teléfono Pixel aún no lanzado (probablemente el Pixel 11, que se lanzará a finales de este año), podría presentar un emisor de infrarrojos invisible escondido debajo de la pantalla, algo que también se ha rumoreado en el pasado.

    Dejando de lado el aspecto técnico del Proyecto Toscana, es fantástico saber que Google está trabajando para mejorar su tecnología de reconocimiento facial. Podemos esperar que los futuros Pixel, probablemente el Pixel 11, incorporen esta tecnología.

    Google está planeando un sistema de desbloqueo facial similar al del iPhone para teléfonos Pixel y Chromebooks apareció primero en Digital Trends .