Blog

  • Probé el Motorola Razr Fold para hacer fotografía callejera y quedé realmente impresionado.

    Probé el Motorola Razr Fold para hacer fotografía callejera y quedé realmente impresionado.

    Los teléfonos plegables siempre han tenido algunas peculiaridades y compromisos para lograr su diseño único. Para conseguir un mecanismo de plegado tan práctico en un cuerpo portátil, lo primero que suele verse afectado es la calidad de la fotografía. Si bien ahora se pueden encontrar cámaras principales decentes, como la del Galaxy Z Fold 7 , los objetivos ultra gran angular y teleobjetivo suelen ser pequeños y de menor calidad en comparación.

    Cuando se presentó el Razr Fold , lo que más me llamó la atención no fue el hecho de que fuera el primer teléfono plegable tipo libro de Motorola, sino su impresionante cámara. Salvo algunas excepciones de marcas chinas, los plegables no suelen destacar por la calidad de sus cámaras. Pero ya había visto cámaras similares. La compañía había vuelto a incursionar en el mercado de los teléfonos insignia recientemente, con el Motorola Signature, que contaba con las mejores especificaciones. De alguna manera, Motorola ha incorporado gran parte del hardware que lo hizo tan exitoso en el Razr Fold.

    Tras tenerlo por fin en mis manos, quise someter el Razr Fold a una prueba de campo a la intemperie. Para esta prueba práctica, lo llevé a las calles de un barrio artístico local, lo que básicamente fue una prueba de resistencia disfrazada de un agradable paseo bajo el intenso calor del verano.

    La zona está repleta de enormes murales, paredes brillantes, sombras profundas, una intensa luz vespertina, arboledas, letreros y multitud de pequeños detalles ocultos en cada fotograma. Si la cámara de un teléfono tiende a saturar los colores, perder textura, quebrar las sombras o tener problemas con la exposición, este es el tipo de lugar donde esos problemas se hacen evidentes rápidamente. A pesar de las difíciles condiciones, el Razr Fold se comportó mejor de lo esperado.

    A las cámaras les encantan los colores.

    Motorola ha colaborado estrechamente con Pantone para lograr una reproducción cromática precisa, y esto se refleja en la seguridad con la que la cámara principal del dispositivo captó los colores. Los murales de las fotos son vibrantes, con rojos brillantes, azules intensos, paredes turquesas, edificios amarillos, pájaros pintados y mucho más. El Razr Fold capturó esa energía sin que las imágenes parecieran ridículas o artificialmente exageradas.

    En el mural rosa en particular, la cámara captó la textura de la pared manteniendo el cielo y la vegetación circundante bajo control. De igual manera, la obra de arte con fuertes tonos azules tampoco saturó la imagen con una viveza artificial. Incluso bajo la luz directa del sol, Motorola evita la trampa del procesamiento HDR excesivo, que puede hacer que las escenas se vean sobreexpuestas o artificiales. Lo mejor fue la moderación, no solo en los colores, sino también en el procesamiento. Este enfoque también se puede apreciar en las tomas más amplias de la calle.

    El teleobjetivo fue otra sorpresa para mí. Los teléfonos plegables dividen el hardware en dos mitades, lo que los hace más delgados y complejos internamente. Esto suele implicar una reducción del espacio interno, lo que generalmente se traduce en sensores más pequeños, especialmente para la cámara teleobjetivo. Sin embargo, Motorola ha encontrado una solución ingeniosa con una protuberancia de cámara bastante gruesa en la parte posterior. Esto le permitió integrar un teleobjetivo periscópico de 3 aumentos que capta la imagen con gran precisión. Se obtiene una nueva perspectiva, mayor detalle a distancia y una mejor manera de aislar texturas y elementos pequeños en una escena.

    Cambiando la experiencia con la pantalla plegable

    La calidad de la cámara me impresionó, pero el diseño plegable hizo que la sesión de fotos fuera mucho más divertida. Previsualizar las fotos en la gran pantalla interior es realmente satisfactorio. Es más fácil comprobar los detalles, evaluar el encuadre, detectar fallos de enfoque y decidir si merece la pena repetir la toma. En un teléfono normal, suelo echar un vistazo rápido y seguir adelante. En el Razr Fold, revisar las fotos se parecía más a hacerlo en una tableta pequeña.

    La confianza que Motorola deposita en la cámara del Razr Fold no se queda en nada en vano. La cámara principal es potente, el teleobjetivo aporta una gran versatilidad y el teléfono gestionó los colores intensos y la iluminación difícil mejor de lo que esperaba. Y lo que es más importante, me divertí mucho usándolo. La experiencia me animó a quedarme un rato más bajo el sol solo para conseguir mejores fotos. Para un teléfono plegable, eso es una muy buena señal.

  • Los nuevos auriculares Live 4 de JBL vienen en tres estilos y un estuche más elegante con pantalla integrada.

    Los nuevos auriculares Live 4 de JBL vienen en tres estilos y un estuche más elegante con pantalla integrada.

    JBL ha actualizado su línea de auriculares Live con tres nuevos modelos: Live Buds 4, Live Beam 4 y Live Flex 4. Este trío ofrece diferentes opciones de ajuste, desde auriculares intrauditivos sellados hasta una opción más abierta con diseño de vástago.

    Los tres modelos también incluyen un estuche de carga con pantalla táctil que ofrece opciones de personalización y acceso rápido a los controles de los auriculares, que normalmente se encuentran en la aplicación JBL Headphones.

    ¿Qué puede hacer la funda inteligente?

    Un estuche de carga con pantalla integrada no es una novedad absoluta para JBL. La compañía ya utilizó esta idea en la serie Live 3 , pero la línea Live 4 incorpora una pantalla más grande y el nuevo software Smart OS 3.0 de JBL. El estuche actualizado admite controles táctiles, lo que permite a los usuarios deslizar el dedo en diferentes direcciones para consultar notificaciones, saltar pistas, ajustar la configuración del ecualizador y alternar entre las funciones más utilizadas.

    También hay más opciones de personalización. Los usuarios pueden añadir sus controles favoritos a la pantalla de inicio, elegir entre nuevos temas de fondo o establecer su propia imagen como fondo de la carcasa.

    ¿Qué modelo de Live 4 deberías elegir?

    La principal diferencia radica en el ajuste. Los Live Buds 4 tienen un diseño intraauricular compacto con almohadillas de silicona. Los Live Beam 4 presentan un diseño con vástago y almohadillas para un ajuste hermético. Los Live Flex 4 también tienen un diseño con vástago, pero se colocan en el oído externo sin almohadillas de silicona, lo que los convierte en la opción más cómoda para quienes no les gusta la sensación de tener los oídos tapados.

    Los tres modelos son compatibles con audio de alta resolución , sonido característico de JBL, sonido espacial JBL, Personi-Fi 3.0, amplificación de sonido personal y ecualizador de bajo volumen. Los Buds 4 y los Beam 4 utilizan controladores dinámicos de 10 mm, mientras que los Flex 4 incorporan controladores más grandes de 12 mm.

    La cancelación de ruido también se ha mejorado con la tecnología True Adaptive Noise Cancelling 2.0 de 4 micrófonos. La calidad de las llamadas también mejora gracias a seis micrófonos, un diseño resistente al viento y una reducción de ruido mediante IA que, según JBL, puede silenciar el tráfico, el ruido de los ventiladores e incluso el portazo de una puerta.

    La duración de la batería varía según el modelo. Con la cancelación activa de ruido desactivada, JBL afirma que los Live Buds 4 ofrecen hasta 40 horas de autonomía, los Live Beam 4 hasta 48 horas y los Live Flex 4 hasta 50 horas. Los tres modelos están disponibles en jbl.com por 199,99 €. Los Beam 4 y los Flex 4 están disponibles en negro, azul, verde, plateado, naranja, morado y arena, mientras que los Buds 4 están disponibles en negro, azul, plateado y arena.

  • Netflix recibirá más anuncios, a pesar de que 250 millones de usuarios ya pagan por ver contenido con publicidad.

    Netflix recibirá más anuncios, a pesar de que 250 millones de usuarios ya pagan por ver contenido con publicidad.

    Netflix celebró esta semana su cuarto Upfront anual , y aunque la mayoría de los anuncios estaban dirigidos a los anunciantes, también hay muchos que afectan a los espectadores habituales. Si tienes el plan más económico de Netflix con anuncios, esto es lo que te espera.

    ¿Qué tan grande es el nivel de publicidad de Netflix?

    Netflix anunció que su plan con publicidad ahora alcanza a más de 250 millones de espectadores activos mensuales a nivel mundial, y que más del 80 % de ellos ven contenido activamente cada semana. Esto representa un aumento considerable con respecto a los 94 millones de usuarios que la compañía reportó el año pasado. Al parecer, el plan con publicidad no solo está teniendo un gran éxito este año, sino que también está sumando nuevos suscriptores a un ritmo mayor que sus otros planes.

    “Si en los últimos dos años nos hemos centrado en demostrar que somos un actor sólido, este año se trata de consolidarnos como uno formidable”, dijo Amy Reinhard, presidenta de publicidad de Netflix.

    Esto demuestra claramente que Netflix se toma en serio la expansión de su plan con publicidad. De hecho, el gigante del streaming ya ha anunciado que este plan llegará a 15 nuevos países a partir de 2027, entre ellos Irlanda, los Países Bajos, Suecia y Tailandia.

    ¿Vamos a ver más anuncios?

    En resumen, sí. La empresa está muy satisfecha con el éxito de su plataforma publicitaria y no solo está introduciendo anuncios en nuevas secciones, sino que también está incorporando herramientas de IA para mostrar anuncios más personalizados basados ​​en tu historial y patrones de visualización.

    La compañía también está probando la personalización de la carga publicitaria y la limitación de la frecuencia de los anuncios, lo que significa que Netflix ajustará la cantidad de anuncios que ves según tus hábitos de visualización. Además, los anuncios llegarán a nuevos formatos, como podcasts y vídeos verticales para móviles, con un lanzamiento global previsto para 2027.

    Si bien estas son buenas noticias para los anunciantes, quienes sufrirán las consecuencias serán los suscriptores. No entiendo cómo se ha normalizado ver anuncios cuando ya se está pagando por un servicio, pero me cuesta aceptarlo.

    Prefiero ver restricciones en el contenido que puedo ver al pagar por un plan inferior a ver anuncios por todas partes en la interfaz. Los anuncios personalizados no solo son molestos, sino que también implican que las empresas venden tu historial de visualización y tus datos personales a los anunciantes para mostrarte publicidad, algo que jamás quiero ver.

  • No se puede bloquear el bot de IA de Meta en Threads. No sé qué hicimos para merecer esto.

    No se puede bloquear el bot de IA de Meta en Threads. No sé qué hicimos para merecer esto.

    Esta semana, Meta lanzó su chatbot con inteligencia artificial en Threads , y viene con una condición que no aceptaste.

    La nueva cuenta @meta.ai, según informa Engadget , funciona de forma muy similar a Grok en X. Puedes mencionarla en una conversación y te responderá sobre temas de actualidad, deportes en directo, entretenimiento o noticias de última hora.

    El bot se encuentra actualmente en fase beta inicial, limitada a usuarios de Malasia, Arabia Saudita, México, Argentina y Singapur. Su cuenta pública @meta.ai es visible para todos en la plataforma, pero aquí está el problema: no se puede bloquear.

    ¿Por qué los usuarios de Threads están frustrados con Meta AI?

    La gente está enfadada porque el menú de tres puntos que aparece junto al perfil de @meta.ai no tiene la opción de bloquear, a diferencia de todas las demás cuentas de la plataforma.

    Algunos usuarios intentaron denunciarlo como spam, lo que normalmente activa una solicitud de bloqueo, pero descubrieron que la opción no estaba disponible o no funcionaba. «Los usuarios no pueden bloquear Meta AI» se convirtió en uno de los temas más comentados en Threads, con más de un millón de publicaciones que exigían respuestas.

    ¿Cuál es la respuesta oficial de Meta a la polémica?

    La portavoz de Meta, Christine Pai, declaró a TheVerge que los usuarios pueden silenciar al bot, ocultar sus respuestas o pulsar "No me interesa".

    Sin embargo, esas opciones no son lo mismo que bloquear al usuario. Pueden reducir la frecuencia con la que ves al bot después de que haya aparecido, pero no evitan por completo que aparezca en tus conversaciones.

    Esta reacción negativa forma parte de un debate más amplio que se está desarrollando actualmente en las redes sociales. Las empresas están introduciendo la IA en todos los rincones de tu feed, y los usuarios están reaccionando.

    Meta ya ha estado implementando funciones de IA en Facebook, Instagram y Threads es solo la última incorporación a esa lista.

    Para Meta, es una estrategia para mantener a los usuarios comprometidos con su plataforma y hacer que Threads sea más competitivo frente a X. El problema es que la mayoría de la gente quiere que la IA sea algo que puedan elegir, no algo con lo que estén obligados.

    Meta afirma que seguirá recabando opiniones durante la fase beta antes de expandirse aún más. Queda por ver si esas opiniones realmente cambiarán algo.

  • Las aplicaciones de Android ahora pueden rastrear tus hábitos y ubicación para ofrecerte sugerencias de tareas.

    Las aplicaciones de Android ahora pueden rastrear tus hábitos y ubicación para ofrecerte sugerencias de tareas.

    Google acaba de implementar una función en los teléfonos Android, y probablemente no te hayas dado cuenta. Una función llamada Sugerencias Contextuales se está implementando en los dispositivos Android y viene activada por defecto.

    Hace lo que su nombre indica: observa lo que haces, aprende tus hábitos y utiliza la información para proporcionarte sugerencias o acciones contextuales que podrías realizar a continuación (a través de aplicaciones compatibles).

    ¿Qué está haciendo realmente Android con tus hábitos de uso?

    Según explica Google, las sugerencias contextuales son una función que accede a "tus actividades y ubicaciones habituales" a través de las aplicaciones con las que interactúas y predice lo que podrías querer hacer a continuación, mostrándote una sugerencia en pantalla al respecto.

    Los ejemplos que ofrece Google incluyen la aplicación de música sugiriendo la lista de reproducción que siempre escuchas en el gimnasio o tu teléfono recomendándote transmitir el partido de fútbol a tu televisor un sábado por la noche. Google también aclara que los datos utilizados para mostrar las sugerencias nunca se comparten con las aplicaciones ni con la propia empresa.

    Esta función se encuentra en Configuración > [tu nombre] > Todos los servicios > Otros, lo cual es una ruta bastante larga para una función como esta. Lo bueno es que tienes tres niveles de control sobre la función: desactivarla por completo, deshabilitar solo el componente de ubicación o eliminar todos los datos almacenados mediante la opción "Administrar tus datos".

    ¿Quiénes tienen acceso a la función de sugerencias contextuales?

    Por ahora, las sugerencias contextuales no están vinculadas a una versión específica de Android . Llegan a través de los Servicios de Google Play, alcanzando así a un público mucho más amplio que una actualización estándar del sistema operativo.

    Según 9To5Google , esta función está disponible en la serie Pixel 10, incluido el Pixel 10a con Android 16 (y la versión 26.18 de Google Play Services). Cabe destacar que el Pixel 10a no incluía la función Magic Cue de fábrica , en la que se basa la nueva función de Sugerencias Contextuales.

    Además, esta función no aparece en los teléfonos Pixel más antiguos ni en las actualizaciones beta de Android 17 recientemente lanzadas.

    Si bien no diría que esta función sea un desastre para la privacidad, me sorprende un poco que Google haya optado por un enfoque de exclusión voluntaria en lugar del habitual de inclusión voluntaria, ya que esto deja la función habilitada para los usuarios que no la conocen y no desean compartir sus hábitos de uso.

  • Los lectores de tarot están usando ChatGPT para adivinaciones, estoy totalmente sorprendido por este giro hacia la IA.

    Los lectores de tarot están usando ChatGPT para adivinaciones, estoy totalmente sorprendido por este giro hacia la IA.

    La IA ya se ha infiltrado en algunos de los aspectos más delicados de la vida, desde los discursos fúnebres hasta los chatbots que prometen un último intercambio con quienes ya no están. Ahora, esta misma tecnología se está incorporando a las lecturas de tarot.

    Un estudio de 2026 analizó cómo los practicantes de tarot utilizan la IA al leerse las cartas, y este cambio se aleja considerablemente de los esquemas de productividad habituales. Los lectores de tarot están incorporando ChatGPT a cuestiones personales, simbólicas y, a menudo, sin resolver.

    Lo complicado es la transición. El tarot invita a aceptar la incertidumbre, pero ChatGPT está diseñado para transformar información confusa en una respuesta segura.

    ¿Por qué los lectores le preguntarían a la IA?

    El estudio reveló dos patrones generales entre los profesionales. Algunos utilizaban la IA como atajo cuando una tirada resultaba difícil de descifrar, especialmente cuando las cartas apuntaban en más de una dirección.

    Ahí reside el atractivo de ChatGPT. El tarot se basa en la interpretación, y esta puede ser lenta. Un chatbot puede tomar símbolos contradictorios y ofrecer una interpretación clara, completa y creíble.

    El problema surge cuando la claridad se vuelve excesiva. Una lectura suele funcionar porque deja espacio para la duda, la autorreflexión y los significados contrapuestos. ChatGPT desconoce la historia emocional completa que subyace a la pregunta, incluso cuando su respuesta parece segura.

    ¿Hasta dónde puede extenderse esto?

    Ese mismo instinto ya está presente en la tecnología para el duelo, la IA relacionada con la fe y la toma de decisiones privadas. La gente ya no solo les pide a los chatbots que organicen su vida, sino que les ayudan a darle sentido.

    El tarot facilita la comprensión de ese cambio porque su funcionamiento es abiertamente simbólico. El lector saca cartas, sopesa el contexto y busca significado en la tensión entre las posibles interpretaciones.

    El estudio también reveló un caso de uso más cauteloso. Algunos lectores solicitaron a la IA que cuestionara sus suposiciones, comparara lecturas y detectara puntos ciegos. En esos momentos, lo útil no era la certeza, sino la resistencia.

    ¿Quién tiene la última palabra?

    La clave está en el control. ChatGPT puede aportar otra perspectiva, pero no debe convertirse en la autoridad que determine el resultado final de la lectura.

    Un enfoque más seguro mantiene al lector informado. El bot puede ofrecer una posible interpretación, pero la persona aún debe sopesarla con las cartas, la tirada, la pregunta y su contexto personal.

    Esa distinción va más allá del tarot. A medida que la IA se adentra más en el duelo, la fe, los consejos y la memoria, la regla práctica es bastante simple: deja que amplíe la pregunta antes de dejar que la cierre.

  • Google podría estar preparando un nuevo y potente modelo de IA Gemini para superar a ChatGPT.

    Google podría estar preparando un nuevo y potente modelo de IA Gemini para superar a ChatGPT.

    Google podría anunciar un nuevo modelo de IA Gemini en el evento I/O del 19 de mayo, y el momento elegido es demasiado pronto. Según un informe, se espera que el lanzamiento coincida con el de la clase GPT-5.5 de OpenAI , aunque todavía por detrás de Mythos de Anthropic, el modelo que actualmente marca la pauta en el debate sobre los modelos de vanguardia del sector.

    Para Google, el problema no radica en el talento innato. Un modelo sólido puede acaparar titulares, pero los desarrolladores no rediseñan sus flujos de trabajo solo por estar en la cima de las clasificaciones. Cambian de herramienta cuando una les ahorra tiempo, reduce la necesidad de limpieza y se adapta a proyectos reales sin convertirse en una pestaña más que gestionar.

    Google cuenta con una plataforma útil, ya que el evento I/O se celebra del 19 al 20 de mayo , y la vista previa para desarrolladores de Google indica que el evento abordará la codificación de agentes y las actualizaciones del modelo Gemini. Esto sitúa las ambiciones de la compañía en el campo de la IA directamente ante quienes tienen más probabilidades de evaluarlas con rigor.

    ¿Podrá Gemini recuperar a los desarrolladores?

    La codificación es el punto clave. Google se adentra de lleno en el terreno donde los desarrolladores pueden determinar en cuestión de minutos si un modelo es realmente útil o simplemente está pulido para una presentación.

    Ese escepticismo es válido en el ámbito de la programación, ya que la IA ya ha pasado de ser una novedad a formar parte de la infraestructura de trabajo diaria. Gemini debe ser más rápido, estable y útil en proyectos reales. Los desarrolladores no cambiarán porque Google diga que el modelo es más inteligente. Cambiarán cuando los costes de corrección sean menores.

    ¿Pueden los agentes sobrevivir en el trabajo real?

    Google ya ha preparado el terreno para los agentes. En Cloud Next , presentó la plataforma Gemini Enterprise Agent para crear, escalar, gestionar y optimizar agentes, con funciones de orquestación, identidad, observabilidad y seguridad integradas en la pila tecnológica.

    Eso suena serio y le da a Google más credibilidad que una simple colección de demostraciones de IA. Aun así, las demostraciones de agentes son baratas ahora. La verdadera prueba reside en el trabajo desordenado, las tareas con varios pasos, las entradas incorrectas, los objetivos poco claros y los momentos en que el modelo debe recuperarse sin ayuda constante.

    ¿ChatGPT se sentirá menos automático?

    La verdadera batalla de Google radica en el comportamiento predeterminado. Los desarrolladores, los usuarios avanzados y los suscriptores habituales ya tienen rutinas de IA, y Gemini debe interrumpir esos hábitos con una utilidad evidente.

    ChatGPT y Claude ya forman parte de la mente de muchos usuarios de IA, mientras que Google sigue intentando que Gemini se vuelva indispensable. El modelo rumoreado solo será útil si convierte a Gemini en la primera opción para programar, investigar y trabajar con agentes.

    Google tiene una tarea sencilla en Google I/O: presentar un Gemini que ahorre tiempo, escriba código útil y ejecute tareas autónomas con menos supervisión. Cualquier otra cosa sería un modelo más en un mercado que ya está saturado.