Blog

  • Anthropic le enseñó a Claude a soñar entre tareas, y eso hace que los agentes sean significativamente más inteligentes.

    Anthropic acaba de darle a Claude algo que suena a trama de ciencia ficción perfecta: la capacidad de soñar. La compañía ha anunciado tres mejoras para Claude Managed Agents: Soñar, Resultados y Orquestación Multiagente.

    Si bien estoy de acuerdo en que el nombre "El Sueño" es sin duda el más evocador, también es el que tiene las implicaciones más prácticas para los desarrolladores que crean agentes de IA capaces de gestionar tareas complejas y de larga duración.

    ¿Qué es la función "Sueños" de Claude?

    A pesar de su nombre poético, Dreaming es un proceso programado que se ejecuta en segundo plano entre sesiones activas . Su propósito es revisar todo lo que un agente ha hecho previamente, incluyendo conversaciones pasadas, recuerdos registrados y tareas completadas, y buscar patrones entre ellos.

    Dreaming analiza todas las tareas realizadas por el agente, detecta los errores que repite, los enfoques que prefiere de forma natural (desarrollados a lo largo de las sesiones) y comparte las conclusiones entre varios agentes que trabajan en paralelo (cuando varios agentes Claude trabajan simultáneamente).

    Una vez que el agente comprende todo, guarda esos aprendizajes en su memoria, de modo que cada nueva sesión comienza con el mismo contexto de lo que funcionó y lo que no la vez anterior. Los desarrolladores pueden permitir que Dreaming actualice la memoria automáticamente o revisar los cambios antes de aplicarlos.

    ¿Qué aportan los resultados y la orquestación multiagente?

    Actualmente, la función "Soñar" está disponible en fase de prueba para investigadores en la plataforma Claude. Esta función es un mecanismo de autoaprendizaje que ayudará al agente a aumentar su utilidad con el tiempo, especialmente al reconocer los errores cometidos en sesiones anteriores.

    Como su nombre indica, los resultados permiten a los desarrolladores definir un conjunto de parámetros, requisitos o un estándar con el que se evalúa la salida del agente. La evaluación se lleva a cabo mediante un sistema de calificación independiente que garantiza que no se vea influenciada por el razonamiento del propio agente. Si la respuesta del agente no cumple con los criterios, el evaluador exige un nuevo intento.

    La orquestación multiagente permite que varios agentes de Claude trabajen en conjunto en diferentes partes de una tarea compleja. Esto reduce el tiempo y amplía el alcance de las respuestas en un único flujo de trabajo. Los webhooks complementan la actualización al habilitar activadores basados ​​en eventos para los agentes sin necesidad de intervención manual constante.

  • Creé una aplicación para Mac para monitorizar mi mala postura con los AirPods. No escribí ni una sola línea de código.

    Creé una aplicación para Mac para monitorizar mi mala postura con los AirPods. No escribí ni una sola línea de código.

    Hace unas semanas escribí sobre una aplicación que te observa a través de la cámara web de tu Mac y, en cuanto detecta una mala postura, te envía una notificación . La aplicación incluso registra todos los casos y proporciona una puntuación diaria de postura. Era una aplicación de código abierto , pero poco después de que su creador la compartiera en Reddit, muchos usuarios empezaron a preguntar cómo procesaba y almacenaba los datos. Eran preguntas totalmente válidas.

    Al fin y al cabo, le estás dando acceso a la cámara a una aplicación que puede monitorearte a ti y al mundo que te rodea en tiempo real. ¿Existe alguna vulnerabilidad que permita a alguien con malas intenciones espiar? ¿Qué más registra la aplicación en segundo plano y qué parte de la transmisión audiovisual se retransmite o almacena en un servidor en la nube externo? Afortunadamente, la aplicación funciona completamente en línea y todo el procesamiento se realiza localmente en mi Mac. Pero la inquietud persistía.

    Eso me impulsó a intentar crear mi propio software. Pero en lugar de usar la cámara para detectar malas posturas, pensé: ¿por qué no usar los sensores de movimiento de los AirPods? No tenía ni idea de cómo funcionaría el sistema en segundo plano, así que recurrí al experto al que todo el mundo acude hoy en día en busca de respuestas: un chatbot de IA. Para mí, ese experto fue Claude, de Anthropic .

    Y el muro se derrumbó.

    ¿El gran problema? Jamás he escrito una sola línea de código coherente. Apenas conozco los lenguajes de programación que se utilizan para crear software para plataformas móviles y de escritorio. Y, para mi total sorpresa, logré crear una aplicación completamente funcional hablando con Claude AI, sin haber visto nunca su aspecto visual.

    Le pregunté al chatbot de IA si una aplicación así era factible, y una vez que obtuve una respuesta afirmativa, dejé que Claude se encargara de desarrollarla por completo. Ni siquiera revisé el código fuente. Simplemente me hizo algunas preguntas sobre mis preferencias durante el proceso, y yo respondí brevemente. En media hora, la aplicación ya funcionaba en mi Mac.

    Claude incluso creó un icono para la barra de menú, el banner de notificación de postura (y el texto de advertencia), el cuadro de interfaz de usuario de la barra de menú cuando interactúo con la aplicación e incluso los controles de calibración. La IA gestionó las animaciones de cambio de color, estableció las reglas para detectar la duración de una mala postura, añadió un sonido de alerta a todo el proceso y creó un sistema de advertencia de dos etapas.

    Todo comenzó con un mensaje en un chat: «Quiero crear esta app», y lo que siguió fue una experiencia completa de desarrollo de una app conversacional. Ni siquiera tuve que explicarle la mayoría de los aspectos visuales ni los protocolos internos. Vi cómo el concepto de front-end y back-end se fusionaban y desaparecían en segundo plano. La única capa que quedó fue el lenguaje natural.

    Claude preguntó si la aplicación debería tener las funciones XYZ, y yo simplemente dije que sí a todo.

    Decir que me quedé asombrado sería quedarse corto. Claude incluso creó un icono de aplicación apropiado y lo guardó todo ordenadamente en una carpeta. Una vez compilado el código, el proceso de inicio y ejecución de la aplicación fue igual que el de cualquier otra aplicación instalada desde internet. Solo que, en este caso, la aplicación se creó y almacenó exclusivamente en mi Mac, y ningún dato de actividad sale jamás de mi dispositivo.

    ¿Cómo funciona la aplicación?

    La idea principal, como se describió anteriormente, es usar los sensores de movimiento de los AirPods para detectar cambios en la postura y mostrar un mensaje de advertencia. Al abrir la aplicación, me pide que me siente erguido (en una postura naturalmente saludable) y la establece como la postura ideal según los datos angulares registrados por los sensores de movimiento de los AirPods. Luego, me pide que me siente en una mala postura, encorvado o mirando hacia adelante, y registra los datos espaciales correspondientes.

    Eso es todo.

    Te pones los AirPods, abres la app, calibras la postura correcta e incorrecta, y listo. No tengo que introducir manualmente ningún dato de altura ni ángulo. Simplemente me siento en las posturas correcta e incorrecta, dejo que la app registre cada una, y ya está. Ni siquiera veo la app ejecutándose en el dock. En cambio, Claude la creó exclusivamente como una utilidad de la barra de menú, donde siempre puedo verla, sin tener que preocuparme por saturar la pantalla ni usar el atajo Command+Tab para comprobar la actividad.

    Cuando estoy sentado con la espalda recta, el icono de la aplicación es gris. En cuanto detecta un cambio de postura, el icono se vuelve amarillo. Si la postura empeora, el icono se vuelve rojo con indicadores de movimiento. Si la mala postura se mantiene durante más de 12 segundos, el icono de la aplicación se convierte en un triángulo rojo brillante y aparece una notificación en la esquina superior derecha de la pantalla, indicándome que corrija mi postura.

    Esta notificación es como cualquier otra, enviada por las apps instaladas en tu Mac. Respeta el comportamiento del modo de enfoque y puedo elegir si interactuar con ella o descartarla con un solo clic. Al principio era escéptico sobre la idea, pero la app funcionó de maravilla con la detección de movimiento y los cambios de postura. Les pedí a mis hermanos y a cuatro amigos que probaran la app con mis AirPods Pro de segunda generación . Les sorprendió gratamente su capacidad de respuesta y elogiaron la utilidad de esta aplicación.

    ¿Y ahora qué?

    Ahora bien, no tengo intención de publicarla en la App Store. Es demasiado trabajo. Para ello, necesitaría una cuenta de desarrollador de Apple, pasar por su riguroso proceso de control de calidad y, casi con toda seguridad, contratar a alguien para que la gestione a largo plazo. Ese nunca fue el objetivo inicial. Simplemente quería comprobar si era posible crear una aplicación personal con inteligencia artificial, y encontré la respuesta.

    Es posible.

    Todo el proceso es tan sencillo que ni siquiera tuve que preocuparme por qué modelo de Claude era el más adecuado. Por cierto, existen varios modelos de Claude especializados. Simplemente describí la función de la aplicación y la app para Mac seleccionó automáticamente el modelo correcto y se puso en marcha.

    Quizás tuve suerte, porque Claude es famoso por su habilidad para las tareas relacionadas con la programación. Mis experimentos anteriores con la programación de vibraciones terminaron en un desastre, donde simplemente me topé con obstáculos sin tener los conocimientos técnicos necesarios para seguir adelante.

    En cuanto a la ejecución de la aplicación, Claude me dio instrucciones paso a paso sobre qué hacer con la carpeta que había creado, cómo abrir la terminal y el comando exacto que debía escribir (lo copié del chat de Claude) para crear una aplicación completamente funcional. Para mi gran sorpresa, el código se ejecutó sin un solo error y al primer intento. Hasta ahora, la aplicación ha funcionado de forma fiable, sin fallos ni interrupciones repentinas. Incluso mantuvo la consistencia después de que le solicitara algunos cambios funcionales.

    De acuerdo, ¿y qué hay de la privacidad?

    Una preocupación recurrente que escucho a menudo de los usuarios es la privacidad del software de salud y fitness, especialmente cuando se trata de dispositivos portátiles . ¿De verdad quieres que la aplicación de un desarrollador independiente acceda a gran cantidad de tus datos de salud, desde tu ritmo cardíaco hasta tus patrones de sueño? No me parece bien ceder esos datos a Google, Apple o Samsung. Existen numerosos precedentes de aplicaciones de salud con accesos no autorizados .

    Confiar ciegamente en una aplicación sin revisar detenidamente sus políticas de privacidad y uso compartido de datos es como permitir que un desconocido acceda a tu historial médico y le dé control total sobre cómo vender esos datos a quien quiera. Así es, básicamente, como funciona el seguimiento de la actividad en internet, creando un ecosistema donde ves anuncios hiperpersonalizados en tu teléfono y ordenador.

    Entonces, ¿cuál es la solución? Procesamiento en el dispositivo. O, dicho de otro modo, crear un sistema donde ningún dato salga de tu dispositivo. Ninguno de tus registros de salud se guarda en un servidor en la nube. Todo se registra, se procesa y los resultados se muestran en el dispositivo que llevas en el bolsillo, en el regazo o en la muñeca. O, en este caso, en algo que llevas puesto en los oídos durante horas cada día.

    Yendo un paso más allá —y algo que se relaciona directamente con la temática de la aplicación que creé—, se trata de mantener el software restringido a tu uso personal. Crea una aplicación para ti, algo que nunca salga de tus propios dispositivos. Piensa en ello como crear un acceso directo en tu iPhone o una rutina de automatización que solo funcione con los dispositivos inteligentes de tu hogar.

    De esta forma, no tengo que compartir mis datos con nadie. Ningún tercero participa en la recopilación ni el seguimiento de la información. Simplemente activo los sensores de los AirPods y utilizo los datos que recogen para obtener resultados útiles. Solo necesito una conexión Bluetooth, y todo el proceso, desde la detección hasta la alerta, se ejecuta exclusivamente en mi MacBook.

    ¿Por qué esto supone un cambio radical?

    Jamás he escrito una sola línea de código en mi vida. No porque no haya tenido la oportunidad, sino porque el proceso me resultaba demasiado intimidante. Ver líneas de código aleatorias con colores, términos como sintaxis, bucles, repositorios y lógica, acabó con cualquier entusiasmo que tuviera por convertirme algún día en programador.

    Cuando las herramientas de codificación con IA irrumpieron en escena, con la enorme promesa de convertir a cualquier persona sin conocimientos de programación en un creador, me emocioné muchísimo. Por fin había una esperanza tangible para mí. ChatGPT Codex, Lovable, Vercel y Replit inundaron mi feed de X. Algunas incluso prometen ahora un sistema de publicación instantánea, directamente desde el teléfono.

    La realidad es muy diferente.

    Aunque tengas una idea brillante para una aplicación millonaria y logres desarrollarla de principio a fin, convertir el código en una aplicación funcional es una tarea ardua. Y si sueñas con publicarla en la App Store o Google Play Store, tendrás que pasar por un proceso engorroso que incluye registrar cuentas de desarrollador y cumplir con las normas de la plataforma.

    Además, si intentas integrar tu aplicación con información o datos de otra plataforma —por ejemplo, la Búsqueda de Google o las redes sociales—, tienes que familiarizarte con las API, planificar el procesamiento de pagos y mucho más. Como desarrollador sin conocimientos de programación, ¿cómo piensas implementar correcciones y nuevas funciones con las actualizaciones? Sí, eso también.

    Como ves, tener una idea genial para una aplicación es solo el principio. Pero si quieres construir un negocio a partir de ella, o simplemente compartir el fruto de tu trabajo con el mundo, necesitas a alguien con un profundo conocimiento de todo el proceso de desarrollo y publicación de aplicaciones. El sueño de un negocio unipersonal basado en la programación creativa solo es posible para alguien con experiencia previa.

    Yo estoy muy por debajo de esa clase de soñadores.

    La mayoría de nosotros simplemente queremos utilidades que nos sean útiles. Hasta ahora, si algo no existía, teníamos que esperar a que algún desarrollador lo creara. O conformarnos con una aplicación existente que cumpliera su función, con sus propias limitaciones y frustraciones. Herramientas como Claude ponen el poder en manos de un usuario promedio de Mac como tú o como yo. Por ahora, no puedo dejar de pensar en todas las ideas que puedo convertir en aplicaciones simplemente hablando con Claude y deseándoles que existan en mi Mac. Es simplemente maravilloso.

  • Google cancela el Proyecto Mariner, el agente de IA que navegaba por la web como un humano.

    Google ha cerrado Project Mariner, el navegador web autónomo que presentó en Google I/O el año pasado. Esta herramienta, que permitía navegar por Chrome, rellenar formularios, buscar información y reservar viajes mediante capturas de pantalla y el reconocimiento visual de elementos de la página, ya no está disponible. Su página de inicio ahora muestra un aviso con la fecha de cierre: 4 de mayo de 2026.

    Un agente de navegador que vio lo que tú viste

    El Proyecto Mariner fue el intento de Google DeepMind de crear un agente de IA que interactuara con los sitios web como lo haría una persona. En lugar de leer directamente los datos de la página, procesaba capturas de pantalla en tiempo real para identificar botones, campos de texto y enlaces, y luego hacía clic y escribía en nombre del usuario. Este enfoque le permite gestionar tareas de varios pasos en diferentes sitios web sin necesidad de ninguna integración especial por parte del sitio.

    La desventaja radicaba en el rendimiento. El procesamiento visual a esa escala exige una gran capacidad de cálculo, y el método era propenso a errores, como seleccionar la opción incorrecta en una página. El agente también planteaba problemas de privacidad, ya que requería acceso continuo a todo lo que estuviera visible en el navegador del usuario en cada momento.

    Los primeros indicios de problemas surgieron en marzo, cuando Wired informó que Google había comenzado a reasignar personal fuera del equipo del Proyecto Mariner, una señal de que el proyecto estaba perdiendo apoyo interno meses antes de que el cierre se hiciera público.

    La tecnología de Mariner no va a desaparecer.

    Google afirma que la tecnología de Mariner "se ha integrado en otros productos de Google". Según se informa, sus funciones principales se incorporarán a la API de Gemini y al nuevo Gemini Agent, en lugar de ser descontinuadas por completo.

    El cierre coincide con un cambio más amplio en la forma en que la industria desarrolla la IA con agentes . Las herramientas que operan a nivel de archivo y código, en lugar de a nivel de navegador visual, se han convertido en el modelo dominante. Son más rápidas, más económicas y más capaces de gestionar tareas complejas de varios pasos. El enfoque de Mariner basado en capturas de pantalla, si bien fue novedoso en su lanzamiento, competía con una arquitectura que ya lo había superado.

  • Mortal Kombat aún no ha terminado de arrancar espinas dorsales

    Mortal Kombat aún no ha terminado de arrancar espinas dorsales

    Mortal Kombat 1 no será la última incursión de NetherRealm en la arena. Tras el reinicio de 2023, Ed Boon declaró en una entrevista con Collider que el equipo está "definitivamente trabajando en otro juego de Mortal Kombat", lo que da a los jugadores la señal más clara hasta el momento de que la serie sigue activa.

    NetherRealm ha confirmado la dirección que tomará el juego, pero no ha revelado detalles. No ha compartido el título, la fecha de lanzamiento, las plataformas, la lista de personajes ni la trama. El próximo juego de Mortal Kombat es real, pero aún no está listo para mostrarse.

    Lo que sabemos ahora

    La actualización de Boon les da a los fanáticos la respuesta que han estado esperando después de Mortal Kombat 1. NetherRealm no considera el lanzamiento de 2023 como un punto final, y no deja el futuro de la franquicia en el aire.

    La forma en que se expresó sigue siendo importante. Boon no especificó cómo se conectaría la próxima entrega con Mortal Kombat 1, si es que existe alguna conexión directa. Esto da pie a muchas especulaciones, pero también establece una clara distinción entre el desarrollo confirmado y las meras ilusiones.

    Por ahora, lo más probable es que se esté trabajando en otro juego de Mortal Kombat, aunque los detalles que lo definen permanecen en secreto.

    Los juegos no son el único juego

    El próximo juego es la noticia principal, pero los planes de NetherRealm parecen ir más allá de una simple secuela. Boon afirmó que el equipo está trabajando en otros proyectos, y añadió que tienen muchos entre manos.

    Esa actividad va más allá de los videojuegos. Boon mencionó otros formatos multimedia, lo cual encaja con una franquicia que ya se mueve entre los juegos de lucha y el cine . Esto también explica por qué evitó confirmar algo como Injustice 3 , incluso mientras insinuaba más anuncios.

    NetherRealm mantiene las expectativas altas, pero limita lo que confirma. Esto deja al próximo juego de Mortal Kombat como el detalle más concreto dentro de un catálogo más amplio que permanece en gran parte oculto.

    Qué esperar

    Los fans deberían estar atentos al próximo anuncio oficial en lugar de basarse en los comentarios de Boon para deducir un cronograma. Él insinuó que habrá "muchos anuncios importantes", pero NetherRealm no ha dado nombres ni fechas a la mayoría de esos planes.

    Eso hace que la siguiente fase sea emocionante y fácil de interpretar erróneamente. Hasta que NetherRealm muestre el próximo juego de Mortal Kombat, los comentarios de Boon deben considerarse una confirmación de la dirección que tomará el juego, no una confirmación de la fecha de lanzamiento.

  • La aplicación con inteligencia artificial de tu compañero de trabajo podría estar filtrando secretos de la empresa.

    La aplicación con inteligencia artificial de tu compañero de trabajo podría estar filtrando secretos de la empresa.

    Las herramientas de codificación de IA han simplificado enormemente la creación de aplicaciones web, y ahora solo se necesitan unos minutos para configurarlas. Esta facilidad ha reducido las barreras para el desarrollo de aplicaciones, lo que está generando una nueva serie de problemas. ¿Qué sucede cuando estas aplicaciones creadas con IA se lanzan sin ningún tipo de control? Los secretos se filtran por toda la red.

    Un informe de WIRED destaca un grave problema de seguridad en torno a las aplicaciones denominadas " vibe-coded ", que se crean utilizando plataformas de desarrollo de IA como Lovable , Replit, Base44 y Netlify.

    Por qué esto es un problema más grave de lo que piensas.

    El investigador de seguridad Dor Zvi y su equipo en RedAccess analizaron miles de estas aplicaciones y encontraron más de 5000 con escasa o nula seguridad o autenticación. La mayoría de estas aplicaciones eran accesibles prácticamente para cualquiera que encontrara la URL correcta. Algunas presentaban barreras mínimas, permitiendo a los visitantes iniciar sesión con cualquier dirección de correo electrónico. Casi la mitad de estas aplicaciones expuestas parecían contener datos confidenciales, como información médica, registros financieros, presentaciones corporativas, documentos estratégicos y registros de chatbots de atención al cliente, según Zvi.

    Según los informes, la investigación también reveló asignaciones de trabajo hospitalarias con información personal identificable, datos de compra de publicidad, estrategias de presentación de mercado, información de ventas e incluso conversaciones con clientes con sus nombres y datos de contacto. Varias de estas aplicaciones seguían activas, aunque WIRED no pudo verificar si todos los datos revisados ​​eran reales o confidenciales.

    Cómo la codificación basada en vibraciones se ha vuelto peligrosa en TI

    Esta historia no se limita a un solo grupo de aplicaciones de IA mal desarrolladas. Estas herramientas permiten que personas sin experiencia en ingeniería de software o seguridad creen y publiquen aplicaciones rápidamente, a menudo fuera de los procesos de aprobación habituales de TI. Así, un miembro del equipo de marketing, un operario o un fundador puede crear una herramienta para uso interno, conectarla a datos reales y, accidentalmente, dejarla accesible a internet.

    Zvi lo comparó con la antigua oleada de vulnerabilidades en los buckets de Amazon S3, donde las configuraciones incorrectas provocaron que las empresas filtraran datos confidenciales a gran escala. El investigador de seguridad Joel Margolis explicó a WIRED que las herramientas de codificación de IA solo hacen lo que se les pide. Por lo tanto, si un usuario no solicita seguridad explícitamente, es posible que la aplicación no sea segura por defecto.

    ¿Qué dijeron las empresas?

    El director ejecutivo de Replit, Amjad Masad, escribió en X que algunos usuarios habían publicado aplicaciones en la web abierta que deberían haber sido privadas, y agregó que es normal que las aplicaciones públicas sean accesibles en línea. Por su parte, Lovable afirmó que se toma en serio los informes de datos expuestos y de phishing, y que está investigando. Wix, la empresa matriz de Base44, declaró que su plataforma ofrece controles de seguridad y visibilidad, argumentando que el acceso público refleja las preferencias de configuración del usuario y no una vulnerabilidad de la plataforma.

    Esto supone un baño de realidad para quienes consideran la programación intuitiva como un atajo hacia el éxito empresarial . Las aplicaciones generadas por IA pueden avanzar rápidamente, pero esa velocidad conlleva desventajas reales. Desde una supervisión deficiente hasta vulnerabilidades ocultas, las aplicaciones creadas con IA pueden convertirse en un grave problema una vez que el producto está en manos de los usuarios.

  • Un estudio revela que tener amigos en las redes sociales no necesariamente te hace sentir menos solo.

    Un estudio revela que tener amigos en las redes sociales no necesariamente te hace sentir menos solo.

    Si bien las redes sociales son una herramienta para conectar personas, un nuevo estudio sugiere que en realidad no te rodean de las personas que te importan ni ayudan mucho a combatir la soledad. Investigadores de la Universidad Estatal de Oregón estudiaron a más de 1500 adultos estadounidenses de entre 30 y 70 años y analizaron cómo los diferentes tipos de conexiones en redes sociales se relacionan con la soledad. ¿Los resultados? Las personas que no conoces en la vida real podrían estar empeorando las cosas.

    Por qué los desconocidos en línea podrían ser el problema

    Según el estudio , las conexiones en redes sociales con personas que los usuarios nunca habían conocido en persona se asociaban a menudo con una mayor soledad. Los hallazgos también revelaron que el 35 % de los contactos en redes sociales de los participantes eran personas que nunca habían conocido fuera de línea. Por otro lado, los investigadores descubrieron que conectar en línea con personas conocidas en la vida real no estaba relacionado con un aumento de la soledad, pero tampoco con una disminución de la misma.

    En otras palabras, incluso los contactos habituales en las redes sociales pueden no proporcionar la recompensa emocional que la gente espera.

    Por muy estrechas que sean las conexiones en línea, aún tienen sus límites.

    El líder del estudio, Brian Primack, añadió que los usuarios solitarios deberían analizar con mayor detenimiento cómo interactúan con desconocidos en las redes sociales, incluso cuando esas conexiones en línea les parezcan cercanas. Afirma que priorizar las relaciones en persona es más importante que las de las redes sociales.

    Lo que empeora las cosas son las relaciones. La coautora Jessica Gorman señaló que las interacciones en línea pueden llevar a las personas a idealizar las amistades ajenas, lo que agrava la comparación social. Este efecto se intensifica aún más con personas que nunca se han conocido, ya que no existe una experiencia real que contrarreste la impresión creada en línea.

    La mayoría de los investigadores de redes sociales se centran en adolescentes y adultos jóvenes. Sin embargo, este estudio es diferente porque analiza a los adultos de mediana edad y mayores, un grupo que constituye la mayor parte de la población estadounidense y que está muy expuesto a las redes sociales .

  • OnePlus eligió un pésimo momento para filtrar un teléfono monstruoso.

    OnePlus eligió un pésimo momento para filtrar un teléfono monstruoso.

    El OnePlus 16 empieza a perfilarse como un buque insignia que no pasará desapercibido. Una nueva filtración del informante Digital Chat Station apunta a una cámara con zoom periscópico de 200 MP, un chip Snapdragon 8 Elite Gen 6 Pro y una batería que podría alcanzar los 9000 mAh.

    Eso supondría un cambio drástico en el mercado de hardware en cualquier año. El momento elegido añade presión, ya que han circulado rumores de que OnePlus estaba reduciendo sus operaciones antes de fusionarse con Realme bajo el paraguas de Oppo.

    Aún no hay nada oficial, y OnePlus no ha anunciado el teléfono ni la fecha de lanzamiento. Lo más probable es que la filtración del OnePlus 16 merezca atención, pero no certeza.

    Las especificaciones filtradas son ruidosas

    La cámara es la principal novedad. Se rumorea que el OnePlus 16 utilizará una cámara teleobjetivo periscópica de 200 megapíxeles, acompañada de una cámara principal de 50 megapíxeles y una ultra gran angular de 50 megapíxeles.

    La filtración sobre la pantalla es igual de impactante. Se espera que el teléfono utilice un panel BOE plano con una frecuencia de actualización ultra alta, mientras que afirmaciones anteriores sugerían que OnePlus estaba probando hasta 240 Hz. Esta última frecuencia de actualización aún no está confirmada.

    La afirmación sobre la batería es quizás lo más difícil de ignorar. Una batería de 9000 mAh sería enorme para un teléfono insignia de gama media, y esta misma cifra ha aparecido ahora en boca de más de un informante.

    El riesgo es la credibilidad.

    La lista de especificaciones rumoreadas es lo suficientemente sólida como para que el OnePlus 16 llame la atención desde el principio. Sin embargo, también plantea el problema habitual de las filtraciones: las cifras más llamativas suelen ser las más fáciles de modificar antes del lanzamiento.

    La afirmación sobre la pantalla de 240 Hz merece especial atención. La filtración apunta a una frecuencia de actualización ultra alta , pero no confirma esa cifra máxima para el teléfono final.

    Para los compradores, la conclusión práctica es sencilla. El OnePlus 16 parece prometedor, pero las afirmaciones sobre la cámara, la batería, el chip y la pantalla deberían quedarse en rumores hasta que OnePlus confirme oficialmente sus novedades.

    Esté atento a la ventana de lanzamiento.

    La siguiente señal útil es el momento oportuno. OnePlus lanzó el OnePlus 15 en India en noviembre de 2025, por lo que el cuarto trimestre es el período obvio a tener en cuenta para su sucesor.

    Los detalles a seguir también están claros. Estén atentos a más información sobre la cámara telefoto periscópica de 200 MP, la batería de 9000 mAh y si OnePlus mantiene el rumoreado chip Snapdragon 8 Elite Gen 6 Pro.

    Hasta entonces, el OnePlus 16 es prometedor, pero aún no ha demostrado su valía. Si las filtraciones siguen coincidiendo, podría convertirse en el buque insignia más interesante de OnePlus en un momento muy extraño para la marca.