Blog

  • Google Vids recibe un gran impulso de IA para facilitar la generación de vídeos con algunos trucos nuevos e interesantes.

    Google Vids recibe un gran impulso de IA para facilitar la generación de vídeos con algunos trucos nuevos e interesantes.

    Vids, la herramienta de vídeo con inteligencia artificial de Google Workspace , acaba de recibir una actualización bastante generosa y está claro que ahora te facilita mucho el trabajo. Con herramientas de edición más inteligentes, una automatización más fluida y una mayor atención al detalle, crear un vídeo con aspecto profesional resulta ahora sorprendentemente sencillo.

    ¿Qué novedades hay en Vids?

    • Avatares Dirigibles: Ahora puedes insertar avatares en tus escenas y darles instrucciones . ¿Quieres que un presentador coja el teléfono, señale un gráfico de ventas o muestre una demostración de producto? Solo tienes que escribirlo. Lo mejor es que su rostro y voz se mantienen consistentes, así que tu vídeo no parecerá un collage caótico de clips inconexos. Es fluido, intencionado y, me atrevo a decir, incluso demasiado fácil.
    • Avatares personalizados: Si los avatares predeterminados no te convencen, puedes crear los tuyos desde cero. Experimenta con su apariencia, cambia su atuendo, el fondo y, en definitiva, define su estilo. Por ejemplo, podrías usar el mismo avatar para presentar los resultados trimestrales en un entorno de oficina formal y luego cambiar a un fondo alegre y divertido para mostrar un producto, sin perder su identidad.
    • Integración con Veo 3.1: Esta función es realmente divertida. Puedes generar videoclips cortos dentro de Vids simplemente escribiendo una frase o subiendo una imagen. Algo como "una toma cinematográfica con dron de una playa al atardecer" se convierte en un clip real en segundos. Recibes 10 generaciones gratuitas de 8 segundos cada mes, lo que parece mucho hasta que empiezas a experimentar y de repente deseas tener más.
    • Exportación directa a YouTube: Una vez que tu video esté listo, puedes enviarlo directamente a YouTube desde Vids. Es rápido, sencillo y elimina una de esas pequeñas pero muy molestas situaciones del proceso.
    • Grabación de pantalla mediante extensión de Chrome: También existe una grabadora de pantalla integrada que funciona a través de una extensión de Chrome . Puedes capturar tu pantalla junto con tu voz o incluso la cámara, lo que resulta perfecto para tutoriales rápidos, demostraciones o guías paso a paso. Por ejemplo, si estás explicando cómo funciona una función o guiando a alguien a través de una herramienta, puedes grabarlo al instante sin necesidad de buscar software adicional. Es sencillo y, lo que es más importante, funciona cuando lo necesitas.

    Lo que realmente pienso sobre estos nuevos trucos

    Google tiene un historial sólido con la IA. Rara vez lanza un producto a medio terminar, y con Vids, ese mismo enfoque es evidente. Estas funciones reducen la fricción en la creación de videos . Tareas que normalmente requerirían varias herramientas, algunos intentos y bastante paciencia ahora parecen mucho más sencillas. En teoría, todo suena muy prometedor. Desde generar clips hasta dirigir avatares y pulir el resultado final, gran parte del trabajo pesado y repetitivo parece estar resuelto automáticamente.

    Dicho esto, me gustaría dedicarle el tiempo necesario para ver sus puntos fuertes y débiles, porque ahí es donde reside la clave. Por ahora, sin embargo, parece que Google está impulsando Vids en la dirección correcta. Si esta es la trayectoria, probablemente estemos ante una herramienta de vídeo mucho más potente y útil, y no solo otra función de IA que suena impresionante pero que pierde efectividad en el uso diario.

  • El nuevo tráiler de Supergirl parece John Wick en una película de Guardianes de la Galaxia.

    El nuevo tráiler de Supergirl parece John Wick en una película de Guardianes de la Galaxia.

    DC ha lanzado un nuevo tráiler de la película de Supergirl , y si esperabas algo totalmente novedoso, bueno… modera tus expectativas. La película, protagonizada por Milly Alcock (House of the Dragon) como Kara Zor-El, incluye barras espaciales, traumas emocionales y un perro en peligro. Supergirl se estrena en cines el 26 de junio de 2026, dirigida por Craig Gillespie (Yo, Tonya) con guion de Ana Nogueira (Crónicas Vampíricas).

    Krypto recibe un disparo y Supergirl se desata en una batalla campal: aquí tienes el análisis del tráiler.

    El nuevo tráiler no pierde el tiempo en exponer su premisa, y el material original es fundamental. Supergirl es una adaptación en imagen real del aclamado cómic de 2022 , Supergirl: Woman of Tomorrow , de Tom King y la artista Bilquis Evely. La trama reproduce fielmente el cómic, con Supergirl (Kara) viajando por el espacio en busca de venganza, acompañada por Krypto, su fiel perro.

    Kara Zor-El, interpretada por Alcock, se cruza con Ruthye (Eve Ridley), una chica alienígena que busca vengarse de Krem de las Colinas Amarillas (Matthias Schoenaerts), un malvado pirata asesino que mató a su padre. Su primer encuentro con Krem no sale bien, ya que este dispara a Krypto con un dardo envenenado, dejándole al querido superperro solo tres días de vida a menos que Kara encuentre el antídoto.

    Sí, básicamente es una situación al estilo John Wick. Krypto no solo está ahí para brindar apoyo emocional; es el detonante emocional. Alguien lastimó al perro, y ahora toda la galaxia está a punto de arrepentirse. Kara y Ruthye se unen, viajan entre planetas, se enfrentan a piratas espaciales y se cruzan con Lobo, interpretado por Jason Momoa: un cazarrecompensas ruidoso, temerario y que monta en motocicleta, que no aparecía en el cómic original, pero que, sinceramente, parece la incorporación más divertida de la historia.

    El reparto se completa con David Krumholtz como Zor-El, el padre de Kara, Emily Beecham como su madre, Alura In-Ze, y un cameo de David Corenswet, que regresa como Superman/Kal-El. El tráiler promete mucho. La escala es impresionante, el ambiente es enérgico y Alcock claramente tiene el talento para llevar adelante una película como esta. Pero una vez que la emoción inicial disminuye un poco, surge una pregunta inquietante.

    Espera, ¿esto es otra vez Guardianes de la Galaxia?

    Aquí es donde la cosa se pone un poco incómoda. Si bien el tráiler se ve bien, no parece nuevo.

    Supergirl es la primera gran película del Universo DC que James Gunn no dirige. El problema es que parece la primera película del UCM que Gunn sí dirigió. Desde el principio, la atmósfera recuerda a Guardianes de la Galaxia. Por lo tanto, la visión de Gillespie para Kara Zor-El se parece menos a la exploración de nuevos horizontes del Universo DC y más a una recopilación de los mejores éxitos del catálogo anterior de Gunn.

    Empecemos por lo obvio: Supergirl se pavonea con una gabardina y auriculares naranjas, cargando con el peso emocional de un planeta natal perdido. ¿Les suena familiar? ¡Star-Lord llamó y quiere recuperar su arco argumental! Ambos protagonistas están emocionalmente marcados por tragedias infantiles: la destrucción de Krypton para Kara, la muerte de su madre para Peter Quill, y ambos lo sobrellevan siendo la persona más genial en cualquier bar de mala muerte alienígena en el que se encuentren.

    Luego están los mundos alienígenas en sí. Tenemos la ambientación espacial destartalada, bares alienígenas iluminados con neón, mundos desordenados que parecen vertederos y una banda sonora que parece sacada de la lista de reproducción retro de alguien. La estética tiene ese mismo encanto desordenado que hizo que Guardianes de la Galaxia fuera tan especial en 2014.

    Curiosamente, lo que se está perdiendo poco a poco es lo que hizo que Supergirl: Mujer del Mañana fuera tan impactante visualmente en los cómics. El arte de Bilquis Evely tenía una energía nítida y angulosa, y la audaz paleta de colores de Matheus Lopes, con naranjas vibrantes, verdes azulados, dorados enfermizos y rosas intensos, le daba un aspecto único. La película hace un guiño a esa paleta, pero la mantiene apagada y sombría. Visualmente, termina pareciendo más una secuela de Guardianes de la Galaxia que una adaptación de uno de los cómics más bellos de la última década.

    También está el tema del compañero animal creado por CGI, porque, al parecer, ninguna aventura espacial está completa sin uno. Rocket tuvo su momento. Ahora le toca a Krypto. La incorporación del personaje de Lobo solo intensifica la energía de Guardianes de la Galaxia. Una tripulación variopinta, una dinámica de familia elegida, un animal creado por CGI en el centro emocional; es una fórmula que funcionó de maravilla para Gunn en 2014. Usarla de nuevo tan pronto en su carrera en el Universo DC es un poco arriesgado.

    Y sí, toda esa premisa de "ir hasta los confines del mundo para salvar a tu perro" es, sin duda, John Wick en el espacio. ¡Y es divertido! Pero es una diversión prestada.

    Tal vez nos sorprenda cuando Supergirl finalmente aterrice.

    Para ser justos, esto es solo un tráiler. Y los tráileres son muy buenos para transmitir sensaciones, no profundidad. Supergirl no llega a los cines hasta el 26 de junio, así que aún hay tiempo de sobra para que defina una identidad que vaya más allá de lo que pueden captar los montajes de dos minutos.

    Gillespie es un director genuinamente creativo con un historial de películas que rompen con las expectativas ( Yo, Tonya es el ejemplo más claro), y Alcock tiene el carisma necesario para que Kara se sienta única. La base de una gran película está presente, sin duda, porque el cómic en el que se inspira es sólido. Y a veces, los ingredientes familiares pueden dar como resultado un gran producto final si la ejecución es la correcta. Así que esperemos que la película completa nos muestre algo que el tráiler no se atrevió a mostrar.

  • Este nuevo ataque de IA roba modelos sin tocar el sistema.

    Este nuevo ataque de IA roba modelos sin tocar el sistema.

    Durante mucho tiempo, los sistemas de IA han sido tratados como cajas negras selladas, especialmente en áreas como el reconocimiento facial y la conducción autónoma. Sin embargo, nuevas investigaciones sugieren que la protección no es tan sólida como se creía.

    Un equipo liderado por KAIST demuestra que los sistemas de IA pueden ser sometidos a ingeniería inversa de forma remota utilizando las emisiones que se producen durante su funcionamiento normal, sin intrusión directa. En cambio, este método se basa en la escucha.

    Utilizando una pequeña antena, los investigadores captaron débiles rastros electromagnéticos de las GPU y reconstruyeron el diseño del sistema. Aunque parezca un truco de ladrón, los resultados son fiables y las implicaciones para la seguridad son inmediatas.

    Cómo funciona el canal lateral

    El sistema, llamado ModelSpy, recopila la actividad electromagnética producida mientras las GPU gestionan las cargas de trabajo de IA. Estas señales son sutiles, pero siguen patrones relacionados con la forma en que está organizada la arquitectura.

    Mediante el análisis de esos patrones, el equipo dedujo detalles clave, como la configuración de las capas y la elección de parámetros. Las pruebas demostraron que las estructuras centrales podían identificarse con una precisión de hasta el 97,6 por ciento.

    Lo que resulta inquietante es la configuración. La antena cabe dentro de una bolsa y no requiere acceso físico. Funcionó a una distancia de hasta seis metros, incluso a través de paredes, con varios tipos de GPU. El propio cálculo se convierte en un canal secundario, exponiendo el diseño del sistema sin una brecha de seguridad tradicional.

    Por qué esto cambia la seguridad de la IA

    Esto lleva la seguridad de la IA a un terreno menos conocido. La mayoría de las defensas se centran en las vulnerabilidades de software o el acceso a la red. ModelSpy, en cambio, apunta a los subproductos físicos del cálculo.

    Incluso los sistemas aislados podrían filtrar información confidencial si no se controlan las emisiones de hardware. Para las empresas, esa arquitectura suele ser propiedad intelectual fundamental, lo que convierte esto en un riesgo empresarial directo.

    El trabajo plantea esto como un desafío ciberfísico, donde la defensa de la IA ahora implica tanto medidas de seguridad digitales como el entorno circundante, lo que eleva el listón de lo que realmente significa la protección.

    ¿Cómo son las defensas ahora?

    El equipo también describió formas de reducir el riesgo, incluyendo la adición de ruido electromagnético y el ajuste de la forma en que se ejecutan los cálculos para que los patrones sean más difíciles de interpretar.

    Estas correcciones sugieren un cambio más profundo. Garantizar la seguridad de la IA podría requerir ajustes a nivel de hardware, no solo actualizaciones de software, lo que complica su implementación para las industrias que ya utilizan sistemas existentes.

    La investigación fue reconocida en una importante conferencia de seguridad, lo que demuestra la seriedad con la que se está tomando esta amenaza. La próxima vulnerabilidad podría no implicar una intrusión, sino simplemente observar lo que los sistemas revelan involuntariamente.

  • No probé las gafas de IA de Meta, pero finalmente han solucionado un problema fundamental para millones de personas como yo.

    No probé las gafas de IA de Meta, pero finalmente han solucionado un problema fundamental para millones de personas como yo.

    Las gafas inteligentes siempre han tenido un problema fundamental para personas como yo. Se veían geniales en las demostraciones, sonaban futuristas en los comunicados de prensa y, por lo general, venían con el mismo inconveniente silencioso. Si ya usas gafas todos los días, se espera que te adaptes a ellas. Esto significaba añadir lentes graduadas más adelante, conformarse con un ajuste que no era del todo correcto o tratar todo el asunto como una novedad en lugar de algo que realmente usarías durante el día.

    Esto es lo que hace que el último anuncio de Meta sea aún más emocionante. La compañía acaba de presentar sus primeras gafas con IA optimizadas para lentes graduadas, las Ray-Ban Meta Blayzer Optics (Gen 2) y las Ray-Ban Meta Scriber Optics (Gen 2) , diseñadas específicamente para personas que usan gafas graduadas durante todo el día.

    Meta afirma que admiten casi todas las recetas, que su precio inicial en EE. UU. es de 499 dólares y que estarán disponibles en ópticas a partir del 14 de abril.

    Para mí, es la primera vez que la historia de las gafas de Meta me ha parecido menos una moda pasajera y más algo con lo que realmente podría convivir.

    Los usuarios de medicamentos recetados no tienen que hacer trabajo adicional.

    Miles de millones de personas en todo el mundo usan gafas o lentes de contacto para corregir su visión, y Meta señala que muchos propietarios de Ray-Ban Meta y Oakley ya añaden lentes graduadas a sus modelos. Sin embargo, «se pueden añadir posteriormente» no es lo mismo que «están diseñadas a medida desde el principio».

    La nueva apuesta por las gafas graduadas se percibe como una decisión más meditada. Meta afirma que estos nuevos modelos se diseñaron para ofrecer comodidad durante todo el día e incluyen características como bisagras de sobreextensión, plaquetas nasales intercambiables y puntas de las patillas ajustables por el óptico. Puede que esto suene a jerga técnica, pero si usas gafas a diario, son detalles que marcan la diferencia entre llevarlas puestas durante las próximas ocho horas o tener que guardarlas en el estuche a los 20 minutos.

    Un delicado equilibrio entre "dispositivo" y "gafas".

    Meta no se limita a lanzar dos nuevos estilos de montura y dar por terminado el asunto. Su objetivo es que las gafas con IA se perciban como una categoría normal de gafas, en lugar de un dispositivo de nicho para los primeros usuarios. Estas nuevas monturas optimizadas para lentes graduadas no son las únicas, ya que Meta también anunció más opciones de monturas y lentes para las gafas Ray-Ban Meta y Oakley Meta.

    También incluye nuevas funciones de software, como el seguimiento nutricional manos libres, resúmenes y recuperación de mensajes de WhatsApp mediante Meta AI, y compatibilidad con escritura neuronal a mano, ahora también disponible para iMessage. Todo esto hace que estas nuevas gafas resulten más naturales para el uso diario. La tecnología en sí es solo una parte de la historia. El verdadero avance se produce cuando no es necesario adaptarse al hardware.

    Y si ya usas gafas graduadas, ese umbral es aún más alto. Un reloj inteligente puede ser opcional. Las gafas no.

    Este es el primer movimiento de las gafas Meta que se siente realmente práctico.

    Básicamente, por eso creo que estas nuevas gafas Meta son más importantes de lo que parecen sobre el papel. La publicidad habitual de los dispositivos portátiles se centra en las funciones, la inteligencia artificial, las cámaras y la comodidad. Pero para quienes usamos gafas graduadas, como yo, la primera pregunta es si realmente querría llevarlas puestas todo el día en lugar de mis gafas normales.

    Y, para variar, Meta parece estar respondiendo directamente a esa pregunta.

    Sí, las preocupaciones persisten, y las gafas inteligentes siguen teniendo problemas de privacidad y un precio elevado. Además, aún no han demostrado que sus funciones de IA sean lo suficientemente útiles como para justificar su incorporación a la rutina diaria. Sin embargo, este lanzamiento elimina una barrera mucho más fundamental de lo que se suele pensar.

    Y para alguien que ya tiene gafas Wayfarer graduadas y sabe la gran diferencia que supone un ajuste adecuado, las nuevas gafas con IA de Meta resultan de repente mucho más atractivas.

  • Ahora puedes hablar con ChatGPT desde tu coche gracias a CarPlay.

    Ahora puedes hablar con ChatGPT desde tu coche gracias a CarPlay.

    Justo cuando parecía que la IA se había instalado discretamente en teléfonos y portátiles, ahora también llega al salpicadero de tu coche. En un movimiento que resulta a la vez inevitable y un tanto surrealista, ChatGPT se está implementando oficialmente en Apple CarPlay .

    El anuncio oficial de OpenAI integra el modo de voz del chatbot directamente en la experiencia de conducción. Y sí, esto significa que las conversaciones informales con la IA mientras se está atascado en el tráfico ahora son una realidad.

    ¿Cómo funciona ChatGPT en CarPlay?

    Esta integración llega con la última actualización de iOS 26.4 , que abrió discretamente la puerta a las aplicaciones de terceros basadas en voz dentro de CarPlay. Con la versión más reciente de la aplicación ChatGPT instalada, los usuarios ahora pueden acceder a la IA directamente desde la pantalla de infoentretenimiento de su automóvil.

    Pero aquí está la clave: este no es el ChatGPT que la mayoría conoce. No tiene interfaz de texto, ni respuestas que se desplacen, y definitivamente no hay párrafos que leer en el panel de control. Todo está diseñado para funcionar mediante voz, para evitar distracciones al volante.

    Una vez iniciada, la experiencia se asemeja más a una llamada que a una aplicación. El sistema muestra indicadores básicos como "escuchando" o "hablando", mientras que las conversaciones se desarrollan completamente por audio. Puedes hacer preguntas, obtener explicaciones rápidas o incluso redactar mensajes, todo sin apenas tocar la pantalla. Sin embargo, aún no es totalmente manos libres. A diferencia de Siri, no admite la activación por palabra clave, por lo que los usuarios todavía deben tocar la aplicación para iniciar una sesión. Es un pequeño inconveniente, pero demuestra claramente que se trata de la primera versión de una idea más ambiciosa.

    Por qué esto es más importante de lo que parece

    A primera vista, esto podría parecer una simple actualización de funciones. Pero en realidad supone un cambio bastante significativo para el ecosistema de Apple. Durante años, CarPlay ha estado estrictamente controlado, con Siri como la interfaz de voz principal (y casi exclusiva). Al permitir herramientas de IA de terceros como ChatGPT en CarPlay, Apple está abriendo el coche como el próximo gran espacio informático.

    Por supuesto, esta primera versión es claramente cautelosa. Los controles limitados, la falta de una integración profunda del sistema y el fuerte enfoque en la interacción exclusivamente por voz indican que la seguridad es la máxima prioridad. Pero también se siente como un anticipo de algo mucho más grande. Y si este es el comienzo, no es difícil imaginar un futuro donde tu trayecto diario se convierta en tu sesión de chat más productiva del día.

  • Estas 3 características del S26 Ultra hacen que extrañe aún más mi iPhone 17 Pro.

    Estas 3 características del S26 Ultra hacen que extrañe aún más mi iPhone 17 Pro.

    Cambiar de teléfono siempre es una apuesta. Uno espera algo nuevo, algo emocionante, tal vez incluso algo mejor. Y, para ser justos, el Galaxy S26 Ultra cumple con esa promesa en muchos sentidos. Es uno de los smartphones más impresionantes técnicamente disponibles hoy en día, con una pantalla AMOLED LTPO 2K de 6,85 pulgadas con una frecuencia de actualización de 120 Hz, un brillo máximo de hasta 2600 nits y el chip Snapdragon 8 Elite Gen 5 de Qualcomm, que ofrece un aumento de rendimiento de entre un 10 % y un 15 % con respecto a su predecesor.

    Pero después de usarlo un tiempo, me encontré en una situación extraña. Cuanto más apreciaba lo que Samsung había creado, más echaba de menos mi iPhone 17 Pro.

    La función de privacidad tiene algunas desventajas importantes.

    La característica más destacada de este año es, sin duda, la Pantalla de Privacidad de Samsung. Utiliza un control de luz a nivel de píxel para restringir los ángulos de visión, haciendo que la pantalla sea prácticamente ilegible desde los laterales. En teoría, es brillante. En la práctica, resulta realmente útil, sobre todo en espacios públicos como aviones o metros, donde las miradas indiscretas son una preocupación real.

    Samsung merece reconocimiento, porque esto no es solo un truco de software. Es una innovación basada en el hardware, algo cada vez más raro en los smartphones modernos.

    Pero en cuanto lo enciendes, las limitaciones se hacen evidentes. La pantalla se atenúa notablemente, la precisión del color se ve ligeramente afectada y la experiencia visual general se siente restringida. Esto se nota especialmente porque el panel del S26 Ultra es, por lo demás, uno de los más brillantes y vibrantes del mercado.

    Y es entonces cuando te das cuenta del contraste.

    Apple no ofrece una pantalla de privacidad. Pero tampoco introduce funciones que perjudiquen la experiencia principal. El enfoque del iPhone es más lento y conservador, pero también más refinado. No se incluyen funciones experimentales, pero tampoco hay que lidiar con sus inconvenientes.

    Mejoras en la cámara que no cambian el resultado.

    Sobre el papel, el sistema de cámara del S26 Ultra parece mejorado. El sensor principal ahora cuenta con una apertura más amplia de f/1.4, mientras que el teleobjetivo tiene una apertura de f/2.9, lo que teóricamente mejora el rendimiento en condiciones de poca luz. El teléfono conserva su configuración de triple cámara de 50 MP, que incluye un objetivo con zoom periscópico.

    En sí mismas, las fotos son excelentes. Son nítidas, brillantes y listas para compartir en redes sociales.

    Pero en comparación con el S25 Ultra, las diferencias son mínimas. En la mayoría de las situaciones cotidianas, sería difícil distinguir qué teléfono tomó cada foto a menos que se buscara específicamente. Incluso las comparaciones de rendimiento y las pruebas en paralelo sugieren que la mejora es gradual, no transformadora.

    Mientras tanto, el iPhone sigue destacando en aspectos clave del día a día: la consistencia del vídeo, la precisión del color y la optimización para aplicaciones como Instagram y Snapchat. La fotografía computacional de Apple quizás no siempre supere los límites, pero ofrece resultados predecibles.

    Samsung innova. Apple perfecciona. Y, en la mayoría de los casos, el perfeccionamiento se impone en el uso diario.

    Rendimiento e IA: Potente, pero abrumador.

    Es innegable la potencia bruta del S26 Ultra. El Snapdragon 8 Elite Gen 5 ofrece un rendimiento de primera categoría, y el dispositivo maneja todo, desde juegos hasta multitarea, sin esfuerzo. Pero el verdadero foco de atención este año es la IA.

    Samsung ha dotado al teléfono de numerosas funciones: edición de imágenes con IA, relleno generativo, inserción de objetos, asistentes de escritura, traducción en tiempo real y sugerencias contextuales mediante herramientas como Now Brief o Now Nudge. Estas funciones son técnicamente impresionantes, pero tienen sus limitaciones. Las imágenes generadas por IA suelen tener resoluciones inferiores, lo que no coincide con la pantalla nativa del teléfono. La edición de imágenes puede reducir la calidad hasta en un 20-30%, lo que las hace menos prácticas para un uso prolongado.

    Más importante aún, muchas de estas herramientas se perciben como opcionales en lugar de esenciales. Son funciones que se prueban, no funciones en las que se puede confiar.

    Y con el tiempo, eso empieza a resultar agotador.

    En comparación, el iPhone adopta un enfoque diferente. Integra la IA de forma más discreta, centrándose en tareas que mejoran los flujos de trabajo existentes en lugar de introducir otros completamente nuevos. Hace menos, pero lo hace de forma más consistente.

    La ironía de todo esto

    El S26 Ultra no hizo que me disgustara Android. Me recordó por qué me gustaba iOS.

    Mientras Samsung experimenta con funciones innovadoras —pantallas con privacidad, herramientas de IA, mejoras en la cámara—, Apple se centra en la estabilidad, la coherencia y el refinamiento. Y esa diferencia se hace más evidente cuanto más tiempo se usan ambos dispositivos. Las funciones que admiras no siempre son las que echas de menos.

    Mi opinión final

    El Galaxy S26 Ultra es un dispositivo excepcional. Es potente, innovador y está repleto de funciones que superan los límites de lo que un smartphone puede hacer. Pero usarlo no se sintió como una mejora en mi vida diaria. Se sintió como adentrarse en una filosofía diferente. Y a veces, eso es suficiente para darte cuenta de que lo que valoras no es la innovación por sí misma, sino la perfecta integración de todos sus elementos.

    Y en ese sentido, eché de menos mi iPhone 17 Pro más de lo que esperaba.

  • Los teléfonos Google Pixel pronto podrían bloquear la posibilidad de regresar a una versión anterior de Android.

    Los teléfonos Google Pixel pronto podrían bloquear la posibilidad de regresar a una versión anterior de Android.

    Google podría dificultar considerablemente que los usuarios de Pixel instalen versiones anteriores de Android. Un nuevo informe sugiere que pronto se implementará un cambio que ampliará la protección contra la reversión a versiones anteriores, una medida de seguridad diseñada para evitar que los dispositivos se actualicen con software antiguo. El objetivo principal es proteger los dispositivos contra versiones de software antiguas que puedan contener vulnerabilidades conocidas.

    Esa es la versión útil de la historia. La versión menos divertida es que también podría restar flexibilidad a los teléfonos Pixel, especialmente para los entusiastas a quienes les gusta flashear versiones anteriores para realizar pruebas, solucionar problemas o simplemente deshacerse de una versión con errores.

    ¿Por qué hace esto Google?

    Según Android Authority, la última pista proviene de la versión beta 1 de Android 16 QPR1 . Google parece estar preparando el terreno para una protección más amplia contra la reversión de versiones en los dispositivos Pixel. El informe indica que el mecanismo anti-reversión no solo se aplicaría al gestor de arranque o al firmware, sino que también podría afectar la capacidad de instalar una versión anterior del sistema operativo Android.

    Desde la perspectiva de Google, la lógica parece bastante sencilla. Las versiones antiguas aún pueden ser vulnerables a fallos de seguridad ya corregidos, lo que expone a los usuarios a posibles ataques. Por lo tanto, la protección anti-reversión sirve básicamente para garantizar que un dispositivo no pueda volver a un estado menos seguro.

    ¿Por qué a algunos usuarios no les gustará?

    El problema es que las decisiones centradas en la seguridad como esta suelen afectar primero a los usuarios avanzados. Si se implementa de forma más generalizada, podría complicar la vida a los usuarios que intentan revertir una versión beta defectuosa, a los desarrolladores que prueban el comportamiento en versiones antiguas de Android y a los entusiastas que flashean manualmente imágenes para la recuperación o la modificación.

    Es decir, los cambios tienen sentido en teoría, pero también socavan una de las razones por las que los teléfonos Pixel siguen siendo populares entre los aficionados a la personalización de Android. El Pixel 10 podría ser el primero en recibir esta actualización.