Categoría: Tendencias Digitales

  • La actualización Nvidia DLSS 4.5, que genera 6 veces más fotogramas por segundo, llega hoy a las tarjetas gráficas RTX.

    La actualización Nvidia DLSS 4.5, que genera 6 veces más fotogramas por segundo, llega hoy a las tarjetas gráficas RTX.

    Tras la polémica presentación de DLSS 5 , Nvidia ha lanzado oficialmente hoy DLSS 4.5 . La actualización llega a través de una nueva versión beta de la aplicación de Nvidia. La compañía afirma que los usuarios ya pueden acceder a todas las funciones de DLSS 4.5, incluido el nuevo sistema de generación dinámica de múltiples fotogramas y el modo de generación de múltiples fotogramas 6x.

    La actualización ya está disponible oficialmente, y Nvidia indica que los usuarios necesitarán el controlador GeForce Game Ready 595.79 WHQL o posterior para utilizar todas las funciones.

    ¿Qué tiene de especial DLSS 4.5?

    La principal novedad de esta actualización es la generación de fotogramas múltiples 6x de DLSS 4.5. Nvidia afirma que la tecnología de generación de fotogramas, que originalmente comenzó con 2x y luego alcanzó 4x en DLSS 4 , ahora vuelve a superar los límites. DLSS 4.5 ofrece un modo 6x que genera cinco fotogramas adicionales por cada fotograma renderizado de forma nativa en las GPU GeForce RTX serie 50.

    Incluso puedes configurarlo para que se ejecute de forma dinámica.

    Pero no se trata solo de aumentar la velocidad de fotogramas sin ton ni son. Nvidia afirma que la Generación Dinámica de Fotogramas Múltiples (DMG) cambia automáticamente entre los multiplicadores de generación de fotogramas para lograr un equilibrio entre la velocidad de fotogramas, la calidad de imagen y la capacidad de respuesta general. La compañía lo compara con una transmisión automática para la GPU. Puede ajustar la salida para adaptarse mejor al juego y a la pantalla, en lugar de limitar a los usuarios a un multiplicador fijo.

    Para los usuarios que deseen un mayor control manual, la aplicación de Nvidia también permite a los jugadores elegir entre estos dos modos.

    ¿Qué más ha mejorado?

    Además, Nvidia está apostando por su modelo de IA Transformer de segunda generación para la superresolución DLSS 4.5. Esto significa que mejora la calidad de imagen al usar DLSS, reduciendo el efecto fantasma y ofreciendo una mayor estabilidad temporal. Sin embargo, toda esa aparente fluidez no sirve de nada si el juego se ve borroso o poco nítido.

    Ten en cuenta que las tarjetas RTX de la serie 50, más antiguas, tienen acceso a la generación de fotogramas múltiples, mientras que las de la serie 40 solo tienen acceso a la generación de fotogramas estándar. Si todavía usas una tarjeta gráfica RTX de una generación anterior (como yo), no tienes suerte, ya que estas nuevas funciones no son compatibles con las GPU antiguas.

  • Tras el Galaxy S26, Samsung incorpora la compatibilidad con AirDrop del iPhone a los teléfonos económicos Galaxy A.

    Tras el Galaxy S26, Samsung incorpora la compatibilidad con AirDrop del iPhone a los teléfonos económicos Galaxy A.

    AirDrop ha sido durante mucho tiempo una función exclusiva del iPhone : una forma sencilla, rápida y eficiente de transferir archivos entre iPhones, iPads y Macs (a menos que decida dejar de hacerlo de vez en cuando). Los usuarios de Android han sido meros espectadores durante años, pero eso está cambiando rápidamente.

    El año pasado, Google integró la compatibilidad con AirDrop en su plataforma Quick Share. Esta función debutó en la serie Pixel 10. La serie Galaxy S26 fue la primera de Samsung en incorporarla . Ahora, la compañía está impulsando esta función en su catálogo de smartphones, y los teléfonos asequibles de la serie Galaxy A serán los siguientes.

    ¿Qué teléfonos económicos de la serie Galaxy A recibirán AirDrop?

    Los usuarios de GalaxyClub descubrieron el menú "Compartir con dispositivos Apple" en varios teléfonos Samsung que no son de gama alta después de instalar la versión actualizada de Quick Share (13.8.51.58), Quick Share Agent (3.5.22.24) y Quick Share Connectivity (1.5.13.15) desde Galaxy Store.

    La lista de smartphones incluye el Galaxy A56 , el Galaxy A36 y el Galaxy A55 , dispositivos de gama media de Samsung que suelen venderse a un precio muy inferior al de los modelos insignia. Lo más interesante es que los modelos insignia de la serie Galaxy S, como el S22, el S23, el S24 y el S25 , también aparecen en la lista confirmada.

    ¿Es posible instalar AirDrop en tu smartphone Galaxy mediante instalación manual ahora mismo?

    Si tienes alguno de los smartphones Galaxy mencionados anteriormente, técnicamente puedes instalar la compatibilidad con AirDrop en Quick Share. Sin embargo, tendrás que instalar manualmente la extensión Quick Share (1.0.874307641) y las extensiones que mencioné anteriormente (las tres) para habilitar la función en los teléfonos compatibles.

    Aun así, las transferencias de archivos a iPhones todavía no funcionan de forma fiable, especialmente fuera de la serie Galaxy S26. Lo extraño es que los recién lanzados Galaxy A37 5G y A57 5G no aparecen en la lista, a pesar de que ejecutan One UI 8.5 .

  • Nadie está pensando en gafas inteligentes con IA. Espero que sean transparentes y se iluminen.

    Nadie está pensando en gafas inteligentes con IA. Espero que sean transparentes y se iluminen.

    La carrera por las gafas inteligentes estará en pleno apogeo el próximo año, y parece que la emergente empresa británica Nothing también quiere participar. Según Bloomberg , la compañía planea lanzar gafas inteligentes con IA el próximo año, uniéndose así a otras como Meta (y próximamente, Samsung).

    ¿Una rival atrevida para la omnipresente Meta?

    Según fuentes cercanas a la empresa, la startup londinense planea lanzar las gafas durante la primera mitad de 2027. Además, Nothing está trabajando en nuevos auriculares con funciones de inteligencia artificial para finales de este año. Cabe destacar que estas gafas inteligentes no contarán con pantalla integrada, sino que incorporarán un altavoz, un micrófono y una cámara.

    La idea es prácticamente idéntica a la que Meta implementó con las gafas Ray-Ban AI, que ahora también están disponibles con lentes graduadas . Al parecer, Carl Pei, cofundador y director de Nothing, no estaba muy convencido, pero posteriormente adoptó una estrategia multidispositivo. Actualmente, la empresa se centra principalmente en smartphones, auriculares, relojes y una pequeña selección de accesorios con un diseño distintivo.

    Una apuesta arriesgada, pero no inesperada.

    En el mundo de la IA, nada es nuevo. Al contrario, se muestra muy optimista al respecto. Pei, exejecutivo de OnePlus, afirmó recientemente que los avances en IA convertirán las aplicaciones móviles convencionales en cosa del pasado. La compañía lanzó recientemente una función llamada Playground que utiliza IA para que los usuarios creen sus propias miniaplicaciones y las compartan con la comunidad. Pero las gafas inteligentes son un asunto completamente distinto, especialmente para una empresa pequeña.

    Google ha mostrado repetidamente sus gafas inteligentes basadas en Android con experiencias impresionantes gracias a Gemini . Las gafas inteligentes de Samsung , construidas sobre la plataforma de Google, llegarán a finales de este año. Meta es el líder indiscutible del sector, pero empresas chinas como Xreal, Rokid y RayNeo también han hecho un trabajo excelente últimamente. Veamos cómo Nothing logra destacar, pero su diseño seguramente dará mucho que hablar.

  • Ahora Alexa+ puede pedir tu comida a través de Grubhub y Uber Eats con un toque humano.

    Ahora Alexa+ puede pedir tu comida a través de Grubhub y Uber Eats con un toque humano.

    Pedir comida rara vez es un proceso sencillo. Empiezas a tener antojo de pasta, te distraes con las hamburguesas, de repente recuerdas que querías algo ligero y, al final, terminas pidiendo lo mismo de siempre. Es caótico, y muy humano. Ahora imagina hacer todo eso sin teclear frenéticamente en la pantalla.

    Alexa finalmente aprende a tomar un pedido como una persona real.

    Eso es esencialmente lo que Alexa+ intenta lograr. Con su última actualización, ahora puedes pedir comida de Grubhub y Uber Eats como si estuvieras hablando con ella. Durante años, los asistentes de voz se han quedado estancados en este rígido ciclo de " tú preguntas, yo respondo ". Ahora, Alexa+ intenta solucionar eso convirtiendo el pedido de comida en una conversación real.

    Aquí es donde la cosa se pone aún más interesante: Alexa+ te permite armar tu pedido como lo harías en la vida real. ¿Quieres agregar una hamburguesa con kétchup extra pero sin cebolla? Solo dilo. ¿Cambiaste de opinión y ahora prefieres pizza? También dilo. ¿Necesitas aumentar las cantidades? Alexa tampoco te juzgará. Todo se actualiza en tiempo real en la pantalla, y Alexa solo interviene cuando es necesario. Uno de los aspectos más subestimados es cómo el descubrimiento se integra con el proceso de pedido. No solo eliges de una lista, sino que exploras como si estuvieras en un menú.

    Puedes preguntar cosas como:

    • Enséñame los postres .”
    • ¿ Qué es popular aquí?
    • ¿Hay algo apto para niños?

    Mientras preparas tu pedido, verás todo organizado: artículos, cantidades, precios y el total. Una vez que lo hagas, Alexa te mantendrá al tanto. Puedes preguntar simplemente "¿Dónde está mi comida?" y obtener una actualización del estado sin tener que revisar las notificaciones.

    El comienzo de una Alexa menos robótica.

    Actualmente, esta nueva experiencia se está implementando para los usuarios de Alexa+ en dispositivos como el Echo Show 8 y superiores. Aún es pronto. Amazon está intentando que Alexa sea una asistente con la que se pueda interactuar de verdad, sin tener que pensar en cómo formular cada comando a la perfección. Y si eso significa que puedo pedir comida, cambiar de opinión tres veces, pedir sugerencias de postres y aun así no sentirme juzgado, ¡me apunto!

  • Meta presenta gafas con IA aptas para lentes graduadas para integrar los dispositivos portátiles en el uso cotidiano.

    Meta presenta gafas con IA aptas para lentes graduadas para integrar los dispositivos portátiles en el uso cotidiano.

    Meta ha anunciado una nueva generación de gafas inteligentes con IA diseñadas específicamente para usuarios con receta médica, lo que supone un gran avance para que la tecnología portátil sea más práctica en el día a día. Desarrolladas en colaboración con el gigante de la óptica EssilorLuxottica, los nuevos modelos buscan acortar la brecha entre las gafas tradicionales y la funcionalidad impulsada por la IA.

    Diseñado para la visión y la inteligencia

    Las nuevas gafas inteligentes, que forman parte de la línea Ray-Ban de Meta, están diseñadas desde cero para ser compatibles con lentes graduadas que cubren una amplia gama de necesidades visuales. A diferencia de los modelos anteriores, que ofrecían una compatibilidad limitada, estas nuevas versiones están optimizadas para personas que usan gafas durante todo el día.

    Las gafas estarán disponibles en varios estilos, incluyendo monturas rectangulares y redondas, y están diseñadas con puntas de patillas ajustables, plaquetas nasales intercambiables y bisagras flexibles para un ajuste más personalizado y cómodo.

    Con un precio inicial de 499 dólares, los dispositivos se venderán a través de la tienda en línea de Meta, así como en ópticas tradicionales, y estarán disponibles inicialmente en Estados Unidos antes de expandirse a otros mercados.

    Un impulso hacia la adopción generalizada de la IA en dispositivos portátiles

    La última iniciativa de Meta pone de manifiesto un claro cambio de estrategia: convertir las gafas inteligentes en un elemento esencial del día a día, en lugar de un producto de nicho. Al integrar la compatibilidad con lentes graduadas directamente en el diseño, la empresa aborda uno de los mayores obstáculos para su adopción.

    Miles de millones de personas en todo el mundo necesitan corrección visual y, hasta ahora, muchas tenían que elegir entre usar sus gafas graduadas o gafas inteligentes. El nuevo enfoque de Meta elimina esa disyuntiva, haciendo que las gafas con IA sean más prácticas para el uso diario.

    Las gafas también siguen desarrollando el ecosistema de IA de Meta, ofreciendo funciones como asistencia por voz, mensajería, navegación y captura de contenido. Las nuevas actualizaciones incluyen herramientas como el seguimiento nutricional manos libres, resúmenes de mensajes y capacidades de navegación mejoradas, lo que indica una mayor integración de la IA en las interacciones cotidianas.

    ¿Qué hay dentro de estos vasos?

    Más allá de su nuevo diseño, las gafas inteligentes Ray-Ban Meta Blayzer Optics (Gen 2) y Ray-Ban Scriber Optics (Gen 2) comparten la arquitectura técnica con las monturas Ray-Ban Meta (Gen 2) convencionales. En cuanto a sus funciones sociales, pueden grabar vídeos en 3K Ultra HD gracias a su cámara gran angular de 12 megapíxeles integrada.

    Meta anuncia ocho horas de funcionamiento por carga, mientras que el estuche proporciona hasta 48 horas adicionales. El sistema de audio incluye seis micrófonos, y el almacenamiento multimedia se realiza mediante un módulo de 32 GB. La diferencia más notable reside en los 10 grados adicionales de libertad de movimiento que ofrece la bisagra extensible. Además, las almohadillas nasales son intercambiables y las patillas son más ajustables para garantizar un ajuste perfecto.

    Por qué esto es importante para la industria

    El lanzamiento de gafas con IA compatibles con lentes graduadas es significativo no solo para Meta, sino para la industria tecnológica en general. Refleja la creciente convicción de que las gafas inteligentes podrían, con el tiempo, reemplazar o complementar a los teléfonos inteligentes como dispositivos informáticos principales.

    Al centrarse en la usabilidad y la comodidad, Meta se posiciona por delante de competidores como Google, Snap y otros actores emergentes en el sector de la IA portátil. La compañía ya lidera el mercado de las gafas inteligentes y ahora redobla sus esfuerzos en la accesibilidad para ampliar aún más su base de usuarios.

    Qué significa para los consumidores

    Para los usuarios, la mayor ventaja es la comodidad. Estas gafas permiten combinar la corrección visual con funciones de inteligencia artificial en un solo dispositivo, eliminando la necesidad de cambiar de producto.

    El diseño mejorado también sugiere que Meta busca que las gafas sean cómodas para usar durante todo el día, lo que las hace adecuadas para el trabajo, los viajes y las actividades cotidianas. Sin embargo, persisten algunas limitaciones, como las restricciones en el rango de graduación para las compras en línea, lo que puede obligar a los usuarios a visitar ópticas para una personalización completa.

    ¿Qué sigue?

    Se espera que Meta continúe expandiendo su ecosistema de gafas inteligentes con capacidades de IA mejoradas, mayor disponibilidad global e integraciones de aplicaciones más profundas. Las futuras actualizaciones podrían ofrecer experiencias más personalizadas, un procesamiento optimizado en el dispositivo y una conexión más estrecha con las plataformas de Meta.

    A medida que se intensifica la competencia en el sector de los dispositivos portátiles, el enfoque de Meta, centrado en las lentes graduadas, señala una dirección clara para la industria: las gafas inteligentes están evolucionando de una tecnología experimental a herramientas prácticas para el día a día.

    Con este lanzamiento, Meta no solo mejora su producto, sino que redefine la forma en que la IA puede integrarse a la perfección en la vida cotidiana.

  • Samsung está subiendo el precio de los Galaxy plegables en su país. Prepárense para que esto también tenga repercusiones en otros lugares.

    Samsung está subiendo el precio de los Galaxy plegables en su país. Prepárense para que esto también tenga repercusiones en otros lugares.

    Samsung ya ha comenzado a subir los precios de los smartphones Galaxy en 2026, con el lanzamiento de la serie Galaxy S26 a precios más elevados en varios mercados debido a la presión sobre los márgenes que ejerce el aumento de los costes de los componentes. Ahora, esa misma presión sobre los precios podría extenderse a teléfonos que llevan meses a la venta.

    ¿Qué dispositivos Galaxy se rumorea que experimentarán un aumento de precio?

    Según un informe reciente procedente de Corea del Sur, Samsung está considerando un aumento de precio para ciertas configuraciones del Galaxy S25 Edge , el Galaxy Z Fold 7 y el Galaxy Z Flip 7 a partir del próximo mes. El aumento se centra específicamente en las versiones con mayor capacidad de almacenamiento, afectando a los modelos de 512 GB y 1 TB.

    El aumento de precio que se rumorea es considerable. Se espera que los precios de las variantes de 512 GB suban alrededor de 100.000 wones (unos 65 dólares), mientras que los modelos de 1 TB podrían costar casi 200.000 wones (unos 131 dólares) más.

    De ser cierto, esto supondría un cambio significativo en la estrategia de Samsung. Normalmente, los modelos más antiguos experimentan una reducción gradual de precio unos meses después de su lanzamiento, pero esta medida sugiere que la compañía podría aumentar los precios incluso durante la vigencia del producto.

    El informe señala dos factores principales que explican el aumento: el incremento vertiginoso de los costes de los componentes y el aumento de los gastos de logística y combustible provocados por la escalada de las tensiones geopolíticas en Oriente Medio.

    ¿Afectará esto a los precios fuera del mercado nacional de Samsung?

    Es probable que el aumento de precio no se limite a Corea del Sur. Samsung ya ha trasladado las presiones de costos a los consumidores de la serie Galaxy S26 en varias regiones, y podrían anunciarse ajustes similares para modelos anteriores en otros lugares. Esto podría afectar a los consumidores que habían pospuesto sus compras a la espera de una bajada de precio.

    Samsung aún no ha confirmado oficialmente los cambios, pero es posible que surjan más detalles una vez que se implemente el aumento de precio. Por ahora, los compradores deben estar preparados para precios más altos, incluso en modelos con varios meses de antigüedad.

  • Cómo ver el lanzamiento de la NASA de la primera misión tripulada a la Luna en cinco décadas.

    La NASA anunció el lunes que la cuenta atrás para el primer vuelo lunar tripulado en más de 50 años ya ha comenzado.

    El reloj de cuenta regresiva en el sitio comenzó a funcionar a las 4:44 p. m. (hora del este) del lunes para el lanzamiento programado de la misión Artemis II en tan solo dos días. Sigue leyendo para obtener todos los detalles sobre cómo ver la transmisión en vivo del despegue.

    La misión Artemis II se lanzará desde el Centro Espacial Kennedy en Florida y marcará el primer lanzamiento tripulado del cohete SLS (Space Launch System) y la nave espacial Orion de la NASA.

    A bordo de la nave Orion viajarán los astronautas de la NASA Reid Wiseman, Victor Glover y Christina Koch, y el astronauta de la CSA (Agencia Espacial Canadiense) Jeremy Hansen .

    Hansen está en su primer viaje espacial, mientras que los demás miembros han participado ya en una misión a la Estación Espacial Internacional (EEI).

    La tripulación pasará 10 días en el espacio probando los sistemas de la nave espacial mientras orbita la luna antes de regresar a casa.

    Una misión exitosa pondrá a la NASA en el camino para llevar a dos humanos a la superficie lunar en la misión Artemis IV, actualmente prevista para 2028. De cara al futuro, la NASA planea construir una base lunar en la superficie de la Luna donde los astronautas podrán vivir y trabajar durante períodos prolongados, de forma similar a como operan actualmente en la ISS.

    Cómo ver

    La NASA tiene previsto el lanzamiento de la misión Artemis II desde el Centro Espacial Kennedy a las 18:24 (hora del este) del miércoles 1 de abril.

    La transmisión en directo de las operaciones de carga de combustible comenzará a las 7:45 a. m. (hora del este) del miércoles en el canal de YouTube de la NASA , que también cubrirá los preparativos y el lanzamiento. La cobertura completa del lanzamiento en NASA+ comenzará a las 12:50 p. m. (hora del este) del miércoles. Podrás ver la misma transmisión en directo en la cuenta de NASA X, así como en Facebook y Twitch. El reproductor de vídeo integrado en la parte superior de esta página mostrará la misma señal.

    Es posible que algún problema técnico o las condiciones meteorológicas alteren el calendario de lanzamiento. Les informaremos en cuanto tengamos novedades.

    Qué esperar

    La transmisión en directo mostrará a los miembros de la tripulación dirigiéndose al cohete, vistas desde el interior y el exterior de la cápsula Orion, y comentarios que explicarán todo lo que está sucediendo. Varias cámaras seguirán al cohete SLS mientras asciende al espacio, y las comunicaciones entre la tripulación y el centro de control de la misión también se transmitirán en directo.