Categoría: Tendencias Digitales

  • Android 17 trae consigo la reasignación de controles a nivel de sistema, lo cual es un gran alivio.

    Android 17 trae consigo la reasignación de controles a nivel de sistema, lo cual es un gran alivio.

    Si alguna vez has conectado un mando a tu teléfono Android, te has metido en un juego y enseguida te has equivocado al pulsar un botón porque la disposición de los botones no te resultaba cómoda, no eres el único. Android lleva años siendo compatible con una gran variedad de mandos , lo cual es genial por su flexibilidad, pero no siempre por su precisión. La memoria muscular es muy resistente. Con Android 17 , Google por fin soluciona este problema.

    Finalmente, tu pulgar tiene voz y voto en el asunto.

    Android 17 introduce la reasignación de controles a nivel del sistema, y ​​es exactamente lo que parece. Ahora puedes modificar la configuración de tu control a nivel del sistema. Esto significa que tus preferencias se mantienen, sin importar a qué juego estés jugando. Con el nuevo menú de configuración del control de juegos, puedes reasignar botones, gatillos e incluso joysticks. Así que, si presionar un joystick te resulta incómodo (porque suele serlo), puedes asignar esa acción a un botón frontal más accesible. Y lo mejor de todo es que tu configuración se guarda en el dispositivo.

    Esto no se trata solo de comodidad; también representa un gran avance en accesibilidad. No todos interactúan con un mando de la misma manera, y la posibilidad de reasignar los controles puede hacer que los juegos sean mucho más cómodos y, en algunos casos, incluso jugables. Además, resuelve la clásica confusión entre plataformas. Cambiar entre consolas, PC y dispositivos móviles suele implicar reacostumbrar los dedos a diferentes configuraciones de controles. Con la reasignación de controles, puedes disfrutar de una experiencia familiar dondequiera que juegues.

    Dónde encontrarlo (y quién lo recibe)

    Antes de que te apresures a probarlo, hay un pequeño detalle. Esta función actualmente solo está disponible en la versión beta de Android 17 , específicamente en la Beta 2 y posteriores . Por lo tanto, necesitarás un dispositivo compatible inscrito en el programa beta para acceder a ella. Una vez dentro, aquí te explicamos cómo encontrarla:

    • Para controladores con cable:
      Dirígete a Ajustes > Sistema > Mando de juegos y, a continuación, selecciona tu dispositivo conectado.
    • Para controladores Bluetooth:
      Ve a Ajustes > Dispositivos conectados , pulsa el menú que aparece junto a tu mando y abre la configuración del mando de juego .

    En su interior, encontrarás dos secciones principales. Una para los botones, como los botones frontales y los gatillos, y otra para los controles direccionales, como los joysticks y la cruceta. Puedes intercambiar las funciones a tu gusto, ya sea reasignando un botón de salto en un juego de plataformas o ajustando los controles de la cámara en un juego 3D. Dado que aún está en fase beta, presenta algunos fallos. Por ejemplo, los iconos de los botones en pantalla (glifos) podrían no coincidir siempre con tu mando. Afortunadamente, la reasignación de botones funciona correctamente, aunque la visualización sea algo confusa. Y, por supuesto, es posible que haya cambios antes del lanzamiento final.

    Puede que no sea la función más llamativa de Android, pero es una de esas actualizaciones que marcan la diferencia en cuanto la usas. Elimina las dificultades, te da control y hace que los juegos móviles se sientan un poco más pulidos. Sin duda, es el tipo de función que te hace preguntarte por qué no estaba disponible desde el principio.

  • Los nuevos ASUS Zenbook A14 y Zenbook A16 se lanzan con chips Snapdragon de la serie X2 y pantallas OLED.

    Los nuevos ASUS Zenbook A14 y Zenbook A16 se lanzan con chips Snapdragon de la serie X2 y pantallas OLED.

    ASUS ha lanzado oficialmente sus nuevos Zenbook A14 y Zenbook A16 en EE. UU., ampliando su última línea de PC Copilot+ con dos portátiles delgados y ligeros construidos en torno a la plataforma Snapdragon X2 de Qualcomm.

    El Zenbook A16 es el modelo estrella de la última serie A, y ASUS lo presenta como el portátil con procesador Snapdragon más rápido del mercado. Por su parte, el A14 es un portátil más compacto con especificaciones y características similares a las de su hermano mayor.

    Zenbook A16: Líder en tamaño y rendimiento.

    El nuevo Zenbook A16 incorpora el procesador Snapdragon X2 Elite Extreme de Qualcomm, con un rendimiento NNPU de hasta 80 TOPS. ASUS presenta este modelo como un potente portátil con procesador Snapdragon, que incluye una pantalla ASUS Lumina OLED de 16 pulgadas con resolución 3K y una frecuencia de actualización de 120 Hz.

    También incluye seis altavoces, hasta 48 GB de memoria LPDDR5X, 1 TB de almacenamiento SSD PCIe 4.0, Wi-Fi 7, Bluetooth 5.4, una cámara FHD IR, HDMI 2.1, dos puertos USB 4 Tipo-C, USB-A, conector para auriculares y lector de tarjetas SD. ASUS recupera la construcción Ceraluminum para brindar una sensación premium al Zenbook A16, que pesa alrededor de 1,2 kg (2,65 lb).

    Este modelo tendrá un precio inicial de 1.699,99 dólares en Estados Unidos y estará disponible para su compra a través de Best Buy y la tienda oficial de la marca a mediados del segundo trimestre de 2026.

    Zenbook A14: Más ligero y más económico.

    El Zenbook A14 es la opción más portátil de las dos. Asus afirma que pesa tan solo 0,98 kg (2,18 libras) y que utiliza la plataforma Snapdragon X2 Elite con una NPU de hasta 80 TOPS, además de prometer más de 33 horas de autonomía y una carga del 50 % en 30 minutos. En Estados Unidos, su precio inicial es de 1349,99 dólares y ya está disponible en Best Buy y en la tienda online de Asus.

    Asus también está apostando fuerte por su marca Ceraluminum para ambos equipos, describiéndola como un material propio que combina la sensación de la cerámica con la durabilidad del aluminio. La compañía afirma que este lenguaje de diseño se extiende ahora a toda la familia Zenbook.

  • La IA VOID de Netflix elimina objetos conservando el movimiento del mundo real.

    La IA VOID de Netflix elimina objetos conservando el movimiento del mundo real.

    Netflix está presentando una herramienta de vídeo con inteligencia artificial que va más allá de la simple limpieza. Su sistema, llamado VOID, recorta elementos de las grabaciones manteniendo el resto de la imagen de forma coherente.

    Esto supone un punto de inflexión en la edición de vídeo con IA. Las herramientas existentes pueden borrar elementos no deseados, pero a menudo dejan tras de sí movimientos poco naturales, como objetos flotando o acciones que se detienen sin motivo aparente. VOID se centra en lo que ocurre después de la edición, reconstruyendo la secuencia para que el resultado siga una relación de causa y efecto creíble.

    La investigación demuestra que el modelo puede ajustar las interacciones en respuesta a los cambios, de modo que si se elimina un objeto de apoyo, los elementos restantes reaccionan de forma natural en lugar de congelarse o presentar fallos. En efecto, reescribe la lógica física de una toma para adaptarla a la nueva configuración.

    Para los editores y los estudios, esto implica correcciones más limpias en la postproducción sin romper la inmersión, especialmente en tomas donde interactúan múltiples elementos.

    Cómo VOID reescribe un disparo

    VOID trata las ediciones como reacciones en cadena. Traza un mapa de lo que podría verse afectado una vez que se elimina algo y luego reconstruye la secuencia para que la acción siga siendo lógica.

    El modelo comienza identificando las regiones afectadas, incluyendo aquellas donde podrían cambiar las sombras, las colisiones o el soporte. A continuación, crea un mapa estructurado de esos cambios y genera una nueva versión del metraje que los refleja. Una segunda pasada de refinamiento suaviza el movimiento y evita que los objetos se deformen al seguir las trayectorias actualizadas.

    Por qué es importante la edición que tiene en cuenta la física.

    Lo que destaca es cómo VOID maneja la relación causa-efecto. El modelo fue entrenado con miles de secuencias simuladas, lo que le ayuda a comprender cómo responden los objetos cuando cambian las condiciones.

    En un ejemplo, al eliminar parte de una cadena de dominós, no solo se borran las fichas, sino que se detiene la reacción por completo, ya que no queda nada que permita que el movimiento continúe. En otro caso, al eliminar a una persona que interactúa con objetos, la escena no se congela; el comportamiento restante continúa como se espera.

    VOID aplica reglas aprendidas sobre causa y efecto en lugar de copiar patrones de grabaciones anteriores.

    ¿Qué ver a continuación?

    VOID sigue siendo un sistema en fase de investigación, cuyos detalles se comparten en un artículo de arXiv en lugar de un lanzamiento comercial. Aún no hay un plazo definido para que este tipo de edición llegue a herramientas de consumo o software profesional.

    Aun así, la dirección es clara. A medida que se expanden los flujos de trabajo de vídeo con IA, las herramientas que comprenden las interacciones físicas cobrarán mayor importancia para las ediciones de alta calidad, especialmente en cine y televisión, donde las pequeñas inconsistencias rompen rápidamente la inmersión.

    El siguiente paso consiste en escalar a escenarios más complejos. Esto incluye configuraciones más densas, más objetos y secuencias más largas donde se superponen múltiples interacciones. Si este progreso se mantiene, la edición con reconocimiento de la física podría impulsar las herramientas de vídeo hacia la reconstrucción completa de secuencias, que resista un análisis más detallado.

  • Higgsfield apuesta por las series generadas por IA con un impulso a las producciones originales elegidas por los espectadores.

    Higgsfield apuesta fuerte por el contenido episódico de larga duración como el futuro del entretenimiento con IA , y da su primer paso en esa dirección con una nueva iniciativa de producciones originales. La plataforma, centrada en los creadores, está lanzando una serie de episodios piloto generados por IA y permite a los espectadores decidir qué se producirá a continuación, con el objetivo de transformar la forma en que se desarrollan y financian las series.

    ¿Qué está lanzando Higgsfield?

    Higgsfield estrenó hoy su primer episodio piloto, Arena Zero, marcando el lanzamiento de Higgsfield Original Series , una nueva plataforma de streaming para series generadas por IA . Dirigido por el cineasta Aitore Zholdaskali, el proyecto de ciencia ficción se generó utilizando la herramienta " Soul Cinema " de la compañía, con un equipo de cuatro personas que creó más de 5000 elementos para construir sus personajes y entornos.

    Junto con Arena Zero, la plataforma presenta varios proyectos piloto, como Spit & Glow, Bucket List, Mother Trucker y Dinoforce. En lugar de depender de la toma de decisiones tradicional de los estudios, Higgsfield está implementando un modelo colaborativo para dar luz verde al contenido. Los espectadores podrán ver estos pilotos, votar por ellos e influir directamente en cuáles se convertirán en series completas.

    La compañía también planea abrir un plazo de presentación de propuestas, permitiendo a los creadores presentar sus propios episodios piloto. Los conceptos seleccionados recibirán financiación y promoción, con distribución a través de Higgsfield Original Series y plataformas sociales.

    ¿Por qué es importante esto para los creadores y el entretenimiento con IA?

    El modelo de Higgsfield busca acortar el camino desde la idea hasta la pantalla, reduciendo al mismo tiempo los riesgos asociados a la producción de contenido. Al generar interés en la audiencia antes de comprometerse con un desarrollo a gran escala, la plataforma evalúa la demanda antes de lanzar un proyecto.

    La compañía afirma que el contenido generado por IA en su plataforma ya ha superado los 4.000 millones de visualizaciones, lo que sugiere que existe una fuerte demanda de este tipo de contenido.

    Además de la nueva plataforma y los proyectos piloto, se está introduciendo un marco de licencias de imagen basado en IA, que permitirá a los influencers mantener el control sobre cómo se utilizan sus identidades digitales, al tiempo que les ofrece nuevas formas de obtener ingresos.

  • Primeros logros destacados de la misión lunar Artemis II… hasta el momento.

    Tras haber orbitado la Luna en un histórico sobrevuelo de nuestro vecino más cercano, la tripulación de Artemis II emprende ahora el camino de regreso a la Tierra.

    Victor Glover, Reid Wiseman y Christina Koch de la NASA, junto con Jeremy Hansen de la Agencia Espacial Canadiense, despegaron a bordo de la nave espacial Orion desde el Centro Espacial Kennedy el 1 de abril, impulsados ​​al espacio por el poderoso cohete SLS.

    La misión está prevista para durar 10 días y culminará con un amerizaje frente a las costas de California.

    La misión Artemis II está probando los sistemas de la nave Orion como preparación para un alunizaje tripulado en la misión Artemis IV, prevista actualmente para 2028. Artemis III, que podría tener lugar el próximo año, pondrá a prueba un procedimiento de acoplamiento crucial que allanará el camino para el alunizaje de Artemis IV.

    Dado que la misión se está desarrollando según lo previsto hasta el momento —salvo algunos problemas con el inodoro de la nave espacial— y que la tripulación ya está de regreso a casa, este es un buen momento para compartir algunos de los récords establecidos por la misión Artemis II hasta la fecha.

    1 – La mayor distancia jamás alcanzada por humanos desde la Tierra : El lunes, la tripulación de Artemis II llegó a una distancia récord de 252.756 millas (406.771 km) de la Tierra antes de emprender el viaje de regreso. El récord anterior era de 248.655 millas (400.171 km), establecido por el Apolo 13 en abril de 1970.

      2 – Primeros humanos más allá de la órbita terrestre baja en más de 50 años : Nadie ha viajado una distancia tan grande desde el Apolo 17 allá por 1972.

      3 – Primer vuelo tripulado del cohete SLS y la nave espacial Orion : Esta es la primera vez que los humanos han volado en el cohete Space Launch System (SLS) y la nave espacial Orion de la NASA, que son clave para el éxito del programa Artemis de la NASA, que busca construir una base lunar permanente en la superficie lunar y también lograr el primer vuelo humano a Marte.

      4 – Primera misión lunar tripulada del programa Artemis : Artemis I consistió en un vuelo no tripulado del SLS y la nave Orion, que también visitaron la Luna antes de regresar a la Tierra . Esto significa que Artemis II es la primera misión tripulada de la era Artemis.

      5 – Primera mujer en viajar al espacio profundo : Como parte de la tripulación de Artemis II, Christina Koch se ha convertido en la primera mujer en abandonar la órbita terrestre baja.

      6 – Primer astronauta negro en viajar al espacio profundo : De manera similar, Victor Glover se ha convertido en la primera persona de color en alcanzar la distancia lunar.

      7 – Primer no estadounidense en viajar a la región lunar : Jeremy Hansen, de nacionalidad canadiense, se ha convertido en el primer astronauta no estadounidense en participar en una misión lunar.

      8 – Primera vez que una tripulación de cuatro personas viaja a la Luna : Las 10 misiones Apolo con destino a la Luna contaban con tres tripulantes, mientras que la misión Artemis II involucra a cuatro astronautas.

      Con estos emocionantes logros ya en el punto de mira, el programa Artemis no ha hecho más que empezar y promete muchos más hitos históricos en el futuro.

    1. Una filtración de Intel predice un potente chip Serpent Lake con la potencia de Nvidia RTX.

      Una filtración de Intel predice un potente chip Serpent Lake con la potencia de Nvidia RTX.

      La creciente colaboración entre Intel y Nvidia podría dar un giro emocionante en unos años. Una reciente filtración del informante Jaykihn (a través de wccftech.com ) afirma que el próximo chipset Serpent Lake de Intel podría cambiar radicalmente las capacidades de los procesadores para portátiles al integrar directamente en el chip los gráficos RTX de Nvidia.

      Serpent Lake hace referencia al supuesto chip híbrido de Intel que podría combinar la arquitectura de CPU Titan Lake con los chiplets gráficos RTX Rubin de Nvidia (basados ​​en la tecnología de fabricación de 3 nm de TSMC).

      ¿Qué es exactamente el chip Serpent Lake de Intel?

      En cuanto a la CPU, el diseño incluye ocho núcleos de alto rendimiento y dieciséis de eficiencia, derivados de las arquitecturas Griffin Cove y Golden Eagle de Intel. Sin embargo, en lo que respecta a las GPU, la compañía podría sustituir sus propios gráficos Arc por la tecnología RTX .

      Esto no significa que Intel vaya a abandonar por completo sus gráficos Arc; se trata simplemente de una decisión específica del producto que podría hacer que el chip Serpent Lake destaque. La configuración de memoria parece igualmente ambiciosa, ya que el chip podría admitir 15 canales de memoria LPDDR6 , lo que mejoraría directamente el cuello de botella del ancho de banda.

      La filtración también confirma el nombre de la arquitectura de núcleo P de próxima generación de Intel: Copper Shark.

      Para poner las cosas en perspectiva, las tarjetas gráficas RTX siempre han estado integradas en tarjetas gráficas independientes que consumen mucha energía, son bastante grandes y caras.

      La GPU integrada podría cambiar las reglas del juego para Intel.

      La integración directa de uno de estos componentes en el chip de la CPU podría resultar en una comunicación más rápida entre los dos componentes cruciales, una reducción significativa del consumo de energía y, lo que es más importante, un rendimiento de GPU de nivel de escritorio en un sistema en chip delgado y ligero que funciona de manera eficiente en computadoras portátiles.

      Pero aquí viene la parte aburrida. Serpent Lake no llegará de inmediato. La hoja de ruta de Intel contempla varias iteraciones de chips, incluyendo Nova Lake en 2026 , seguido de Razer Lake y Titan Lake, antes del lanzamiento de Serpent Lake entre 2028 y 2029.

      Para entonces, el módulo de GPU podría basarse en la arquitectura Rubin o Rubin-Next de Nvidia, convirtiéndose así en la primera GPU de clase RTX en aparecer en un chip que no sea de Nvidia. Aún no está claro si la integración del módulo de GPU de Nvidia en el chip Serpent Lake de Intel resultará en un aumento de precio.

      Lo que está claro, sin embargo, es que ofrecería un rendimiento de juegos e inteligencia artificial al nivel de una GPU dedicada en portátiles de gama alta, sin el volumen que supone llevar una tarjeta gráfica dedicada.

    2. La nueva aplicación gratuita de dictado de Google es la alternativa a Willow que estabas esperando.

      La nueva aplicación gratuita de dictado de Google es la alternativa a Willow que estabas esperando.

      Google acaba de lanzar hoy una nueva aplicación para iOS sin anuncio oficial. La aplicación, descubierta inicialmente por 9to5Google , se llama Google AI Edge Eloquent . Se trata de una herramienta de dictado por voz que funciona sin conexión a internet, transcribe tu voz en tiempo real, elimina automáticamente las palabras de relleno y genera un texto limpio y pulido. Google Eloquent es completamente gratuita, sin suscripción ni límite de uso.

      ¿Cómo funciona Google AI Edge Eloquent?

      Solo tienes que abrir la aplicación, pulsar grabar y empezar a hablar. Una onda sonora en directo registra tu voz mientras aparece una transcripción en tiempo real en la pantalla. Cuando dejes de hablar, la aplicación procesará todo automáticamente.

      Las muletillas como “eh” y “ah” desaparecen, las correcciones a mitad de frase se suavizan y lo que queda es un texto limpio y legible copiado directamente al portapapeles. Cuatro herramientas de transformación de texto te brindan un mayor control:

      • Puntos clave : resume tu dictado en sus ideas principales en forma de viñetas.
      • Formal : reescribe la transcripción en un tono más profesional.
      • Breve : condensa lo esencial.
      • Largo : lo expande cuando necesitas más detalles.

      También hay una pestaña de Historial que almacena todas las transcripciones anteriores junto con estadísticas de uso, como el número total de palabras y la velocidad de palabras por minuto.

      ¿La aplicación Google Eloquent almacena tus datos de voz?

      A diferencia de la mayoría de las aplicaciones de dictado gratuitas , Google AI Edge Eloquent te permite mantener tus datos de voz completamente privados. Un interruptor en la esquina superior te permite alternar entre dos modos. En el modo totalmente sin conexión, todo el audio permanece en tu dispositivo y se procesa localmente mediante modelos de reconocimiento de voz basados ​​en Gemma . No se envía nada a un servidor.

      En el modo nube, el reconocimiento de voz se inicia en el dispositivo, pero los modelos Gemini se encargan de la limpieza del texto en la nube. Para quienes trabajan en entornos donde la privacidad es un aspecto importante o simplemente no se sienten cómodos subiendo datos de voz de forma remota, la opción totalmente local resulta muy útil.

      La aplicación también incluye un diccionario de vocabulario personal donde puedes añadir nombres, términos técnicos y jerga para mejorar la precisión. Además, puedes iniciar sesión con tu cuenta de Google para que la aplicación extraiga automáticamente las palabras más usadas de tus mensajes recientes de Gmail.

      Google AI Edge Eloquent es una de las mejores alternativas gratuitas a las aplicaciones de dictado de pago en 2026.

      Los dos rivales más destacados, Wispr Flow y Willow, cuestan 15 dólares al mes. Ambos se basan en la nube y enrutan el audio a través de servidores remotos. Por su parte, SuperWhisper gestiona todo localmente para mayor privacidad, pero cuesta 85 dólares al año. Eloquent ofrece un precio inferior al de los tres, a la vez que proporciona lo que los usuarios realmente desean: una salida de texto limpia y automática sin necesidad de edición manual.

      Dicho esto, Eloquent, la aplicación de IA de Google para dictar textos, tiene una limitación que debes conocer. Wispr Flow, Willow y SuperWhisper funcionan en Mac, Windows e iOS, permitiéndote dictar directamente en cualquier aplicación. En cambio, Eloquent, por ahora, solo está disponible para iOS. Se menciona una versión para Android en la ficha de la App Store , pero aún no se ha lanzado en Google Play.

      Para los usuarios ocasionales o para quienes pagan una suscripción mensual a una aplicación de dictado simplemente porque no existía una alternativa gratuita y fiable, esto lo cambia todo. Puede que no destrone a Wispr Flow o Willow para los usuarios empresariales que necesitan compatibilidad multiplataforma, pero para todos los demás, Google acaba de presentar un argumento convincente.