Categoría: Tendencias Digitales

  • Tu teléfono Android recibirá un truco para compartir con solo tocar la pantalla, al estilo AirDrop.

    Tu teléfono Android recibirá un truco para compartir con solo tocar la pantalla, al estilo AirDrop.

    Google y Samsung están desarrollando discretamente una función para compartir archivos con un solo toque en Android , muy similar a AirDrop de Apple . La idea es bastante sencilla: basta con acercar dos teléfonos para transferir archivos entre ellos sin tener que navegar por menús para compartir ni buscar el nombre de un dispositivo cercano.

    Según Android Authority , se han ido acumulando pruebas de la existencia de esta función en tres lugares distintos. Aparece en las compilaciones de One UI 9 de Samsung, en el código de Google Play Services e incluso en los archivos del sistema de Android 17. Los desarrolladores que siguen estas compilaciones afirman que la función lleva gestándose desde finales de 2025 y que ahora parece que se encamina hacia un lanzamiento oficial en lugar de seguir siendo un experimento de Samsung.

    Samsung y Google lo están construyendo juntos.

    La función de compartir con un toque apareció por primera vez en One UI 8.5 de Samsung como un experimento oculto de Labs. Ahora, en One UI 9, tiene su propio nombre y una descripción clara que indica a los usuarios que deben acercar la parte superior del teléfono a otro dispositivo para enviar archivos.

    Pero este no es solo un proyecto de Samsung. El código de Google Play Services de noviembre de 2025 incluye una función llamada "Gesture Exchange", diseñada para compartir información de contacto, similar a la función NameDrop de AirDrop. Ese mismo nombre, Gesture Exchange, ha aparecido desde entonces en la aplicación Quick Share de One UI 9, lo que sugiere que la herramienta para compartir contactos se ha convertido en un sistema completo de transferencia de archivos.

    Las versiones beta de Android 17 añaden otra capa, con referencias a un servicio del sistema operativo llamado "TapToShare". Es probable que la tecnología NFC gestione el toque inicial para activar todo, y luego Quick Share se encargue de transferir los archivos.

    Esto no es solo para teléfonos Samsung.

    Lo que hace que valga la pena prestar atención a esto es su potencial para diferentes marcas. Dado que el código para compartir con un toque reside en Google Play Services y en el propio Android 17, debería funcionar en dispositivos de distintos fabricantes. Esto solucionaría uno de los problemas más antiguos de Android.

    Un usuario de iPhone sabe que AirDrop funciona con cualquier otro iPhone. Un usuario de Android hoy en día tiene Quick Share, pero la experiencia puede resultar fragmentada dependiendo de si el otro teléfono usa software de Samsung, una versión de otra marca o requiere una aplicación aparte. Integrar esta función directamente en Android elimina por completo esa dificultad.

    Cuándo puedes esperar tocar para compartir

    Es probable que Google anuncie la función junto con el lanzamiento estable de Android 17. Los dispositivos Samsung podrían ser los primeros en recibirla, dado el gran trabajo que ya se aprecia en las versiones de One UI 9, pero el despliegue generalizado debería producirse posteriormente.

    Cabe destacar un detalle importante: estos descubrimientos provienen de análisis de código, lo que significa que nada es definitivo hasta que Google haga un anuncio oficial. Las funciones detectadas en versiones de desarrollo a veces se retrasan o se descartan por completo. Aun así, esta vez las pistas son inusualmente numerosas.

    Lo más sensato es estar al tanto de las novedades de Android 17. Si la función de compartir con un toque se implementa como se espera, compartir archivos entre teléfonos Android será tan natural como juntar dos dispositivos.

  • El Pixel 11 aparece en las primeras filtraciones y tiene un aspecto familiar de cíclope para el próximo teléfono de Google.

    El Pixel 11 aparece en las primeras filtraciones y tiene un aspecto familiar de cíclope para el próximo teléfono de Google.

    La serie Pixel 11 de Google está a solo cinco meses de su lanzamiento, y las filtraciones ya están llegando. Los primeros renders CAD me dejaron perplejo, porque a primera vista parece que nada ha cambiado. Pero si observamos la pantalla con más detalle, vemos que los biseles finalmente se están reduciendo. Si estos renders son precisos, se trata de una mejora notable en el diseño. Y esto es solo el principio; se han filtrado muchos más detalles, así que prepárense, porque va a ser emocionante.

    ¿Qué es diferente esta vez?

    Aunque su estética se ha quedado en el pasado, parece que Google no presentará un producto estrella obsoleto. Según la última filtración, el Pixel 11 incorporará el procesador Tensor de sexta generación, con una arquitectura única de 7 núcleos, 12 GB de RAM y 128 GB de almacenamiento interno.

    Un cambio clave es que Google abandonará el módem de Samsung en favor de un chip de red de MediaTek. Esperemos que este cambio de proveedor solucione los problemas de conectividad que arrastra la línea Pixel desde hace tiempo. En la parte frontal, los compradores encontrarán una pantalla OLED de 6,3 pulgadas con una frecuencia de actualización de 120 Hz.

    Sorprendentemente, se han omitido detalles sobre el hardware de imagen. Google lleva años utilizando sensores de 50 y 48 megapíxeles. Espero que la serie Pixel 11 (especialmente los modelos Pro) finalmente incorpore cámaras con más megapíxeles o, simplemente, sensores más grandes. De lo contrario, no tendrán ninguna posibilidad frente a los grandes fabricantes asiáticos como el Vivo X300 Ultra y el Oppo Find X9 Ultra, a menos que Google logre alguna proeza tecnológica asombrosa en el procesamiento de imágenes.

    La cuenta regresiva para el Pixel 11 ha comenzado.

    Se espera que el Google Pixel 11, al igual que sus predecesores, se lance en agosto de 2026. Si bien aún no hay una fecha oficial confirmada, este plazo parece razonable. En cuanto al precio, es probable que el Pixel 11 se mantenga cerca de los 799 dólares del Pixel 10 .

    Aquí es donde la cosa se pone interesante. Sería fantástico que Google finalmente abandonara el modelo base de 128 GB y estableciera 256 GB como estándar, al igual que el iPhone 17 y el Samsung Galaxy S26 . Después de todo, con las aplicaciones, fotos y videos aumentando su tamaño cada año, un poco de almacenamiento adicional se vuelve indispensable. Si Google lo logra, el Pixel 11 podría no solo sentirse familiar, sino también inteligentemente actualizado.

  • Apple ha solucionado el problema del teclado defectuoso del iPhone, pero es hora de cambiarlo por una mejor opción.

    Apple ha solucionado el problema del teclado defectuoso del iPhone, pero es hora de cambiarlo por una mejor opción.

    Apple finalmente solucionó uno de los problemas más molestos al escribir en el iPhone . Con iOS 26.4, corrigió un error que provocaba que se omitieran pulsaciones de teclas al escribir rápidamente, lo que hacía que la autocorrección fuera mucho menos fiable.

    La actualización está dirigida a usuarios que escriben rápido y que experimentaban fallos en la visualización de letras, lo que provocaba errores en palabras completas y predicciones confusas. Las pruebas demuestran que aparecen menos frases ilegibles y una entrada de texto más consistente, especialmente al escribir a gran velocidad.

    Pero la experiencia general no ha mejorado. El teclado del iPhone sigue presentando fallos extraños, se adapta mal a los hábitos del usuario y carece de funciones que los teclados de la competencia llevan años perfeccionando. Apple solucionó el defecto más evidente, pero las dificultades cotidianas persisten.

    Lo que Apple realmente solucionó

    El problema radicaba en la omisión de caracteres durante la escritura rápida. Los toques en pantalla podían registrarse sin insertar ninguna letra, lo que provocaba que la autocorrección adivinara a partir de un punto de partida erróneo.

    Corregir ese error proporciona al sistema una base más sólida. Ahora las palabras comienzan de forma más parecida a lo que pretendías, por lo que las predicciones son más acertadas. Las pruebas comparativas muestran menos frases incompletas y resultados más estables, aunque la mejora no es uniforme en todas las palabras.

    Sin embargo, los errores no han desaparecido. Todavía se cuelan errores de una sola palabra, y algunas pulsaciones siguen produciendo el carácter incorrecto, un problema aparte que esta actualización no soluciona.

    Donde el teclado aún presenta problemas

    La limitación principal reside en cómo aprende el teclado de Apple. Sigue basándose en el mismo sistema introducido anteriormente, por lo que persisten algunos fallos de funcionamiento.

    La autocorrección puede reforzar los malos hábitos en lugar de corregirlos. Si aceptas una sugerencia errónea una vez, es posible que siga apareciendo más adelante. Con el tiempo, tu diccionario personal puede alejarse de tu forma habitual de escribir, lo que hace que las correcciones sean menos predecibles.

    Ahí es donde destacan los teclados de terceros como Gboard y Microsoft SwiftKey . Se basan más en la predicción, manejan varios idiomas con mayor fluidez y ofrecen una escritura gestual que se siente más precisa en el uso diario.

    También te brindan mayor control sobre el comportamiento de las sugerencias. Puedes ajustar con precisión las entradas y evitar cometer errores repetidos, mientras que el teclado de Apple sigue resultando relativamente rígido.

    Por qué las alternativas se sienten mejor

    Instalar iOS 26.4 es una buena idea si has tenido problemas con letras que se omiten o palabras que no se escriben correctamente. Elimina una fuente importante de frustración, especialmente para quienes escriben rápido y se topan con este error con frecuencia.

    Pero es probable que tu rutina diaria de escritura no cambie drásticamente. Seguirás corrigiendo palabras, revisando mensajes y sorteando pequeños inconvenientes que interrumpan tu ritmo.

    Cambiar de teclado es la mejora más significativa en este momento. Aplicaciones como Gboard y Microsoft SwiftKey ofrecen predicciones más precisas y mayor flexibilidad sin necesidad de mucha configuración.

    No necesitas comprometerte a largo plazo. Pruébalo durante unos días y observa cómo se adapta a tus hábitos. Esa breve prueba te mostrará exactamente qué le falta al teclado de tu iPhone.

  • Las restricciones al uso de redes sociales por parte de menores están ganando terreno en más países.

    Las restricciones al uso de redes sociales por parte de menores están ganando terreno en más países.

    El uso de redes sociales por parte de los niños ya es de por sí complicado. Hay demasiadas cosas que pueden salir mal, y ningún padre quiere lidiar con las consecuencias. Lo que lo complica aún más es la creciente tendencia de padres que crean y administran cuentas para sus hijos. Para empezar, suena inofensivo, incluso controlado. Pero internet no viene con un sistema de seguridad infalible. Porque por mucho cuidado que se tenga al gestionar una cuenta, no hay forma de evitar por completo el acceso de depredadores. Y ahí radica la razón por la que una iniciativa que podría parecer bienintencionada se convierte en algo más inquietante.

    El problema de la crianza en Internet se ha vuelto real.

    Lo que antes era una inquietud silenciosa en la mesa familiar, ahora ha irrumpido con fuerza en los tribunales y las oficinas gubernamentales. La preocupación por los niños y las redes sociales se está convirtiendo en política pública. Países como Suiza y Austria ya no se mantienen al margen: están considerando activamente normas más estrictas, incluyendo prohibiciones totales, para los usuarios más jóvenes.

    Un asombroso 94% de las personas encuestadas recientemente cree que los menores necesitan mayor protección frente al lado oscuro de las redes sociales. Esto no es una preocupación; es un clamor colectivo de "¡basta ya!".

    Luego está la creciente desconfianza hacia las grandes tecnológicas. Alrededor del 78% de los encuestados cree que empresas como Meta y Google ejercen demasiada influencia sobre lo que la gente ve y piensa. Y es difícil rebatir eso. En Los Ángeles, un jurado declaró recientemente a Meta y Google responsables de crear plataformas que pueden perjudicar a los usuarios jóvenes. Esto es muy importante. Sienta un precedente y, lo que es más importante, envía un mensaje claro. La época del "no lo sabíamos" ha terminado. Ahora, la presión es mayor y, esta vez, no solo viene de los usuarios, sino también de la ley.

    El salvaje oeste de las redes sociales tendrá un sheriff.

    Lo que ahora resulta evidente es que el desenfreno en las redes sociales está llegando a su límite. Durante años, las plataformas se salieron con la suya haciendo lo mínimo indispensable, sobre todo con los usuarios más jóvenes. Pero esa actitud despreocupada, casi negligente, está empezando a resquebrajarse. Las pruebas se acumulan y la gente está prestando atención. Pero, ¿se trata realmente de proteger a los niños o de reforzar el control? Porque ambas cosas pueden parecer muy similares, dependiendo de quién tome las decisiones. Los gobiernos dirán que se trata de seguridad, y, para ser justos, hay algo de verdad en ello. Pero también hay una delgada línea entre la protección y el exceso de control, y esa línea se difumina cada día más.

    Una cosa está clara: las redes sociales ya no son solo un patio de recreo para memes y para navegar sin rumbo. Se han convertido en algo mucho más grande, más caótico y mucho más serio. Y este debate no ha hecho más que empezar.

  • Apple podría crear una tienda de aplicaciones de IA para el próximo avatar de Siri.

    Apple podría crear una tienda de aplicaciones de IA para el próximo avatar de Siri.

    La estrategia de IA de Apple podría estar tomando un rumbo muy familiar, uno que convirtió al iPhone en lo que es hoy. Según un informe reciente de Bloomberg , Apple está trabajando en un nuevo sistema de "Extensiones" en iOS 27 que permitiría que asistentes de IA de terceros se integren directamente con Siri, incluidos servicios como Google Gemini y Claude de Anthropic .

    Más importante aún, no se tratará simplemente de una configuración oculta. Según se informa, Apple planea crear una sección dedicada dentro de la App Store para estas integraciones de IA, lo que generaría un mercado para herramientas de IA, muy similar a cómo se distribuyen las aplicaciones hoy en día.

    ¿Qué significa esto realmente para Siri?

    Es un cambio radical. En lugar de intentar crear una IA perfecta, Apple parece estar convirtiendo a Siri en un centro o "enrutador" para múltiples modelos de IA, permitiendo a los usuarios elegir qué asistente gestiona sus consultas. Esto significa que Siri podría funcionar como interfaz, mientras que diferentes IA se encargarían de distintas tareas: una para escribir, otra para programar, otra para investigar. Ya no se trata tanto de "Siri contra ChatGPT", sino más bien de "Siri + todo".

    Según se informa, Apple está siguiendo una estrategia doble: desarrollar su propia IA interna (Apple Intelligence) y, al mismo tiempo, abrir la puerta a servicios de terceros. Esto le permite a Apple mantenerse competitiva sin depender de un solo modelo y, además, evita que los usuarios se pasen a Android.

    También hay un aspecto comercial. Al convertir las herramientas de IA en algo que los usuarios puedan instalar a través de la App Store, Apple podría obtener una comisión por las suscripciones, tal como lo hace actualmente con las aplicaciones.

    Entonces… ¿Siri se está convirtiendo en la nueva App Store?

    Esto podría cambiar por completo el funcionamiento de la IA en los teléfonos. En lugar de depender de un único asistente para todo, Apple parece estar avanzando hacia una configuración modular donde los usuarios pueden combinar diferentes herramientas de IA según sus necesidades. Y si esta visión se materializa, Siri dejará de ser solo un asistente para convertirse en una plataforma.

  • Apple está abriendo Siri para que elija modelos de IA, pero solo hay uno que me parece lógico.

    Apple está abriendo Siri para que elija modelos de IA, pero solo hay uno que me parece lógico.

    Apple nos prometió una Siri más inteligente y capaz en la WWDC 2024. La propuesta fue convincente: una Siri que comprende tu contexto personal, examina tus mensajes y correos electrónicos, realiza acciones dentro de tus aplicaciones y evoluciona hasta convertirse en un verdadero asistente.

    Dos años después, ese sueño sigue siendo solo eso, un sueño. Pero aquí está el detalle que podría cambiar el rumbo del asistente de Apple. Según los informes, Siri ya no está vinculado a una única inteligencia artificial . Apple lo está diseñando para que sea flexible, capaz de redirigir las solicitudes al modelo externo que mejor se adapte a sus necesidades.

    Esto me hizo plantearme una pregunta. Si Siri puede usar cualquier IA , ¿cuál debería usar? Actualmente, el modelo externo predeterminado es ChatGPT. Pero yo diría que Gemini es la opción más lógica, y aquí les explico por qué.

    Siri es un motor de búsqueda

    Piensa en cómo usas Siri a diario. Preguntas por el tiempo. Preguntas por los restaurantes más cercanos. Le pides que busque información en internet. Una parte importante del uso de Siri consiste en búsquedas o consultas similares, y ninguna empresa en el mundo realiza búsquedas mejor que Google .

    Google ha dedicado décadas a desarrollar el motor de búsqueda más potente, y esa experiencia ahora se integra directamente en Gemini . Cuando le haces una pregunta a Gemini , no solo recurre a un modelo de lenguaje, sino que extrae datos del índice web en tiempo real de Google, Google Maps, Google Shopping y mucho más.

    Utilizar esa tecnología para potenciar la capacidad de búsqueda de Siri la llevará a nuevas cotas que ningún otro proveedor de gestión del lenguaje natural (LLM) puede igualar.

    Apple prometió inteligencia personal, pero Gemini la está cumpliendo.

    Uno de los temas más comentados del anuncio de Apple en la WWDC 2024 fue la inteligencia personal. Apple mostró cómo Siri extrae información contextual de todas las aplicaciones y responde preguntas como "¿Cuándo aterriza el vuelo de mi madre?" o "Muéstrame fotos de Stacy con su abrigo rosa de Nueva York".

    La demostración fue realmente impresionante. Sin embargo, si le pido que me muestre una foto mía con una camiseta negra, me muestra fotos aleatorias de personas de internet con camisetas negras. No exagero al decir que la función de inteligencia personal de Siri ha sido un fracaso rotundo.

    Mientras tanto, Gemini lanzó discretamente su propia función de Inteligencia Personal. Esta accede a tu Gmail, Calendario, Google Fotos, Drive y más para analizar tus datos personales y responder preguntas complejas sobre tu vida. No es perfecta, pero al menos funciona.

    Eso es prácticamente lo mismo que Apple estaba mostrando como una futura función de Siri, solo que Gemini lo está haciendo hoy . Si Apple quiere acelerar la implementación de esas funciones para los usuarios, Gemini podría ser el atajo que necesita.

    Géminis ya hace lo que Siri prometió.

    Apple Intelligence implementa un modelo de IA compacto y potente en todas las aplicaciones del sistema, combinando el procesamiento en el dispositivo para garantizar la privacidad con la computación en la nube para las tareas más exigentes. El procesamiento en el dispositivo y la privacidad son los aspectos que distinguen a Apple de la competencia. Pero ahora no está sola.

    Gemini Nano ya ofrece esta funcionalidad en dispositivos Pixel y Samsung Galaxy. Permite la creación de resúmenes sin conexión, respuestas inteligentes y funciones contextuales, todo ello sin necesidad de conexión a internet. En Pixel 9 y modelos posteriores, Gemini Nano es multimodal y puede procesar imágenes, textos e idiomas directamente en el dispositivo.

    Apple está desarrollando soluciones basadas en lo que Google ya ha lanzado. En lugar de reinventar la rueda, usar la implementación existente de Nano de Gemini como base para las funciones de Siri en los dispositivos le ahorraría a Apple muchos dolores de cabeza y dinero.

    El conjunto de herramientas creativas de Géminis está repleto de ellas.

    Aquí es donde la cosa se pone realmente interesante. Gemini no es solo un modelo de texto. Viene con todo un ecosistema creativo que Apple podría aprovechar.

    Veo genera vídeos con una resolución de hasta 1080p, con estilos cinematográficos y clips de más de un minuto. Lyria , de Google DeepMind, se encarga de la generación de música y audio. En cuanto a imágenes, Nano Banana (el servicio de generación de imágenes de Google) recibió recientemente una importante actualización, con una mejor representación del texto, mayor coherencia en los sujetos y compatibilidad con cualquier relación de aspecto.

    Apple ha lanzado recientemente su propio Creator Studio , que ofrece a los usuarios acceso a herramientas creativas mediante una suscripción mensual fija. Si la compañía pretende competir seriamente con empresas como Adobe, necesita ofrecer capacidades generativas. Y resulta que Gemini ya cuenta con todas esas capacidades, por lo que integrarlo en la suite creativa de Apple sería una decisión lógica.

    La asociación ya existe.

    Este punto no se discute lo suficiente. Según se informa, Google paga a Apple alrededor de 20 mil millones de dólares al año para seguir siendo el motor de búsqueda predeterminado en Safari. Se trata de uno de los acuerdos de distribución más valiosos en la historia de la tecnología. La relación entre Apple y Google es profunda, de larga data y económicamente enorme para ambas compañías.

    Extender esa relación, desde «Google impulsa la búsqueda de Safari» hasta «Gemini impulsa las funciones de IA de Siri», no supone un salto drástico. Es una evolución natural de una colaboración que controla la mitad de lo que ocurre cuando abres un navegador en tu iPhone.

    ¿Con qué modelo me quedaría?

    Claude es excelente para la lectura de textos extensos y el razonamiento matizado. ChatGPT cuenta con un ecosistema enorme y herramientas de codificación y agentes robustas. Ambos funcionan de maravilla como especialistas elegidos por el usuario. Yo mismo uso Claude en mi ordenador.

    Pero ¿como motor predeterminado de Siri? No son la opción adecuada. Gemini funciona a nivel del sistema operativo en dispositivos móviles, comprende búsquedas y contextos personales, se presenta en un formato Nano integrado en el dispositivo y se encuentra en el centro de la relación comercial más importante que Apple mantiene con cualquier empresa tecnológica.

    Todos los elementos están presentes. No se trata de si Gemini podría potenciar una Siri más inteligente, sino de si Google y Apple lograrán un acuerdo mutuamente beneficioso. Y, a juzgar por los rumores, parece que ya estamos avanzando en esa dirección.

  • Android está cambiando las reglas para la instalación de aplicaciones externas, pero esto no impedirá la actualización de tu teléfono.

    Android está cambiando las reglas para la instalación de aplicaciones externas, pero esto no impedirá la actualización de tu teléfono.

    A partir de agosto de 2026, Google endurecerá las restricciones para la instalación de aplicaciones de fuentes no verificadas. Si deseas instalar apps de fuentes desconocidas , tendrás que seguir un nuevo proceso avanzado que se asemeja a un exhaustivo análisis de seguridad. Esto incluye activar el modo desarrollador , revisar manualmente las advertencias de seguridad, reiniciar el teléfono para bloquear cualquier acceso remoto sospechoso y esperar un período de espera obligatorio de 24 horas antes de continuar. El objetivo es que te tomes tu tiempo para detectar una estafa antes de que te afecte. Una vez completado el proceso, no tendrás que repetirlo cada vez. Es la forma que tiene Google de decir: «Adelante, instala aplicaciones de fuentes no verificadas, pero hazlo con cuidado».

    Tu próxima actualización no se verá afectada en absoluto.

    Según Matthew Forsythe, jefe de explicación de productos de Google , este nuevo sistema está diseñado para adaptarse a tus necesidades, no para ralentizarte. Una vez que completes el proceso avanzado en tu teléfono Android actual, esos permisos se transferirán a la configuración de tu próximo dispositivo. Así, realizas la configuración una sola vez y tu futuro teléfono la recordará, lo que hace que todo sea mucho menos engorroso de lo que parece al principio.

    También aclaró algunos detalles importantes si te dedicas a la instalación de aplicaciones externas. Para empezar, las instalaciones mediante Android Debug Bridge (ADB) no están sujetas al período de espera de 24 horas. No existe un comando abreviado para omitir el temporizador, así que si intentas instalar algo durante ese lapso, ADB se convierte en tu única opción. Se trata de mantener el proceso principal bajo estricto control.

    También hay un inconveniente con las actualizaciones. Si instalas aplicaciones de fuentes no verificadas, debes mantener activo el flujo avanzado para actualizarlas posteriormente. Incluso si eliges la opción de acceso temporal de siete días, este caduca y tendrás que repetir el proceso si quieres mantener esas aplicaciones actualizadas. Como señala Forsythe, esta configuración está claramente pensada para pruebas o uso a corto plazo, no para crear una biblioteca permanente de aplicaciones instaladas manualmente.

    La buena noticia es que el modo desarrollador no tiene por qué estar activado permanentemente. Solo lo necesitas para completar la configuración inicial. Una vez finalizada, puedes desactivarlo y usar tu teléfono con normalidad. Esto supone un gran alivio, sobre todo porque algunas aplicaciones bancarias y sensibles a la seguridad suelen dar problemas cuando el modo desarrollador está activado. En resumen, Google está añadiendo cierta resistencia donde importa, sin que ello afecte a tu experiencia diaria.