Blog

  • Google Translate pronto podría ayudarte a captar matices con traducciones alternativas

    Google Translate pronto podría ayudarte a captar matices con traducciones alternativas

    Tras implementar las nuevas funciones de traducción con Gemini para el Traductor de Google el mes pasado, Google parece estar preparando una nueva función que permitirá a los usuarios solicitar traducciones alternativas. Esta función podría ofrecer a los usuarios múltiples opciones de traducción en lugar de un único resultado, lo que resultaría útil en diversas situaciones.

    Esta función, aún en desarrollo, fue descubierta por primera vez por Android Authority mientras revisaba la última versión de Google Translate para Android (versión 10.0.36.855137688.3). Aunque aún no está disponible para los usuarios finales, la publicación logró habilitarla al tiempo que intentaba revelar otra función inédita que ofrecería a los usuarios información contextual y les permitiría hacer preguntas adicionales.

    Una vez implementado, los usuarios verán un nuevo botón "Mostrar alternativas" debajo del resultado traducido, como se muestra en las capturas de pantalla adjuntas. Al pulsar este botón, se muestran tres traducciones alternativas ligeramente diferentes.

    Actualmente, Google Translate presenta un único resultado, lo que permite a los usuarios reformular manualmente la entrada si el resultado no suena bien. Un selector de alternativas integrado podría reducir esta fricción y facilitar el ajuste de las traducciones sin tener que empezar de cero.

    Por qué son importantes las traducciones alternativas

    Este enfoque podría ser especialmente útil para idiomas con matices sutiles, donde la elección de una palabra puede cambiar el significado o el tono. Por ejemplo, los honoríficos japoneses, las frases en francés o las expresiones idiomáticas en muchos idiomas suelen requerir una redacción precisa para transmitir la intención correctamente.

    Al ofrecer alternativas, Google Translate podría ayudar a los usuarios a evitar frases incómodas o imprecisas y darles más control sobre la interpretación de sus traducciones. Esta función parece formar parte de un esfuerzo más amplio de Google para que el Traductor sea más interactivo y contextual mediante IA .

    Aún no hay fecha oficial de lanzamiento para esta función, y podría permanecer en pruebas durante un tiempo. Sin embargo, si se lanza al público, podría ser una de las actualizaciones más importantes del Traductor de Google en años.

    La publicación Google Translate pronto podría ayudarte a capturar matices con traducciones alternativas apareció primero en Digital Trends .

  • Un nuevo informe arroja luz sobre cómo Gemini encaja en la renovación de Siri de Apple

    Tras meses de especulación, Apple finalmente confirmó su colaboración con Google para la tan esperada renovación de Siri. Sin embargo, el anuncio ofreció pocos detalles, limitándose a indicar que la versión mejorada de Siri se basará en Gemini y que las funciones de IA "seguirán funcionando en dispositivos Apple y en Private Cloud Compute, manteniendo los estándares de privacidad líderes en la industria de Apple". Un nuevo informe ha revelado detalles adicionales sobre las posibles implicaciones de esta colaboración.

    Según The Information (vía 9to5Mac ), Apple utilizará los modelos Gemini de Google para entrenar los modelos Apple Foundation de próxima generación y tendrá la opción de adaptar el modelo Gemini para que responda como prefiera. El informe añade que el sistema de Apple basado en Gemini podría no incluir la marca Google, ya que una persona involucrada en el proyecto ha confirmado que el prototipo actual no menciona ni a Google ni a Gemini en sus respuestas.

    La información también señala que Apple pretende que Siri, con tecnología Gemini, ofrezca respuestas más completas a las consultas de los usuarios, en lugar de mostrar enlaces, y que ofrezca mejor apoyo emocional. Siri ha tenido dificultades históricamente en este aspecto, pero la nueva versión «ofrecerá respuestas conversacionales más completas, como ChatGPT y Gemini».

    La renovación de Siri de Apple podría implementarse por etapas a partir de esta primavera

    Por último, el informe aclara el calendario de lanzamiento de las funciones mejoradas de Siri y Gemini con Apple Intelligence. Indica que algunas funciones estarán disponibles esta primavera, mientras que otras, como la capacidad de Siri para recordar conversaciones pasadas o sugerencias proactivas como pedir a los usuarios que salgan temprano para evitar el tráfico al recogerlos en el aeropuerto en su Calendario de Apple, se anunciarán en la WWDC de junio.

    Apple aún no ha publicado un calendario detallado de lanzamientos para la actualización de Siri. Se espera más información en los próximos meses, mientras la compañía se prepara para presentar su próxima ronda de actualizaciones de software.

    Un nuevo informe arroja luz sobre cómo Gemini encaja en la renovación de Siri de Apple apareció primero en Digital Trends .

  • Windows 11 26H1 incorpora características de 25H2, pero aún no las tendrás disponibles

    Windows 11 26H1 incorpora características de 25H2, pero aún no las tendrás disponibles

    Microsoft está probando Windows 11 26H1 con la compilación Insider Preview 28000, que incorpora muchas de las características útiles que vimos en las versiones de desarrollo, beta y estable de compilaciones anteriores. Si bien esta versión incluye algunas novedades, no se trata de una actualización de funciones habitual de Windows (vía PCWorld ).

    Por ejemplo, el Explorador de archivos cuenta con un modo oscuro más uniforme. Todos los diálogos de la interfaz, incluidos los de copiar, mover, reemplazar, errores y la barra de progreso, ahora se integran perfectamente con el tema.

    Pequeños ajustes de funciones, importante trabajo preliminar para Windows en Arm

    El área de inicio del Explorador tiene nuevas opciones al pasar el mouse sobre ella, incluidas “Abrir ubicación de archivo” o “Preguntar a Copilot”, según la región en la que se encuentre el usuario. Hay una experiencia de búsqueda de Configuración rediseñada que ofrece mejores recomendaciones al buscar dentro de la configuración de Windows.

    Windows 11 26H1 facilita arrastrar y compartir archivos dentro del Explorador de archivos (y entre otras aplicaciones), presenta una página de configuración de Dispositivos móviles renovada en la aplicación Configuración para administrar teléfonos inteligentes conectados y una Experiencia de pantalla completa de Xbox mejorada que ofrece una experiencia inmersiva más similar a la de una consola.

    Finalmente, Windows Studio Effects ahora admite cámaras web USB externas; puedes activar la función en la sección Configuración.

    Si bien estos son cambios menores, el objetivo principal de Windows 11 26H1 es preparar el sistema operativo para una nueva generación de dispositivos Windows-on-Arm con los chipsets Snapdragon X2 y X2 Elite (inicialmente exclusivos de estos chips). Se basa en una nueva plataforma Windows con nombre en código "Bromine".

    Las primeras PC con Windows 11 26H1 estarán disponibles en primavera (dentro de unos meses). Sin embargo, otras PC con chips Intel o AMD seguirán con Windows 11 25H2 por ahora y podrían recibir la próxima actualización importante para consumidores en otoño de 2026. De ahora en adelante, Microsoft se encargará de todo el desarrollo de funciones en 25H2.

    La publicación Windows 11 26H1 incorpora características de 25H2, pero aún no las obtendrá apareció primero en Digital Trends .

  • NBC Sports pronto usará IA para poner a tus atletas favoritos al frente y al centro durante las transmisiones en vivo

    NBC Sports está recurriendo a la IA para brindar a los espectadores móviles mayor control sobre cómo ven deportes en vivo. La emisora ​​ha presentado un nuevo sistema de seguimiento de jugadores, diseñado para que los aficionados puedan seguir la acción y seguir a sus atletas favoritos durante los eventos en vivo, ofreciendo una experiencia de visualización más personalizada.

    Según Nikkei Asia (vía The Verge ), el sistema funciona con viztrick AiDi, una tecnología desarrollada por la cadena japonesa Nippon Television Network que utiliza reconocimiento facial para rastrear a los jugadores. Si bien la herramienta ya se ha utilizado en Japón, esta es la primera vez que otra emisora ​​la implementará. Según se informa, NBC Sports planea comenzar a implementarla en la cobertura de eventos en vivo seleccionados a finales de este año.

    El sistema AiDi de viztrick puede identificar y rastrear a jugadores individuales en tiempo real, lo que permite a los espectadores tocar a un atleta en la pantalla y seguir sus movimientos durante la transmisión. Nippon TV utilizaba anteriormente esta tecnología para añadir superposiciones que mostraban los nombres y las estadísticas de los jugadores, pero NBC Sports está adoptando un enfoque diferente.

    Convertir transmisiones horizontales en transmisiones verticales

    En lugar de añadir superposiciones a la transmisión principal, NBC Sports planea crear nuevas opciones de visualización para dispositivos móviles. Para ello, extraerá imágenes de un atleta seleccionado de una transmisión horizontal estándar y las reencuadrará en un formato vertical optimizado para smartphones . De hecho, esto ofrecería a los espectadores la opción de ver el partido completo como siempre en la aplicación de NBC Sports o cambiar a una vista vertical generada por IA centrada en un atleta específico.

    Tim Canary, vicepresidente sénior de ingeniería de NBC Sports, explicó cómo la tecnología lo hace posible: «Buscábamos la herramienta ideal para la transmisión de deportes en vivo que recortara automáticamente a los atletas a una relación de aspecto de 9:16 con seguimiento automático. AiDi es esa herramienta… AiDi fue diseñado y desarrollado por locutores, por lo que resuelve los desafíos específicos que enfrentamos a diario. Cambia fácilmente entre el modo IA y el modo manual. Esto es especialmente útil cuando la escena cambia de un plano general a uno cerrado. Si la IA no puede capturar al atleta correcto al instante durante un cambio de cámara, se puede volver a rastrearlo fácilmente manualmente con AiDi. Nunca se pierde al atleta que se está rastreando, lo cual es un detalle muy importante para nuestra cobertura en vivo».

    NBC Sports aún no ha confirmado qué deportes o eventos serán compatibles con esta función cuando se lance a finales de este año. Sin embargo, la emisora ​​tiene previsto cubrir los Juegos Olímpicos de Invierno de 2026, que podrían servir como un escaparate destacado para la nueva tecnología.

    La publicación NBC Sports pronto usará inteligencia artificial para poner a tus atletas favoritos al frente y al centro durante las transmisiones en vivo apareció primero en Digital Trends .

  • La filtración de las gafas inteligentes Samsung XR dice que podrían verse dos versiones

    Las gafas inteligentes Samsung XR de Samsung empiezan a parecer un par, no un solo producto. Una nueva filtración de GalaxyClub apunta a dos versiones de las "Gafas Galaxy", denominadas SM-O200P y SM-O200J.

    Esto es importante porque una división de modelos puede cambiar lo que realmente compres. También puede decidir qué versión llegará primero a tu país. Por ahora, la filtración no explica qué las diferencia.

    Aparecen algunas especificaciones poco fiables. La ficha técnica menciona una cámara de 12 MP con enfoque automático, además de wifi y Bluetooth, y sin conexión celular integrada. Se dice que una variante, la SM-O200P, también incluye lentes de transición que se oscurecen con luz intensa. Con el Galaxy XR ya a la venta, Samsung ha demostrado que puede financiar y distribuir gafas inteligentes a gran escala.

    Dos números de modelo, una gran incógnita

    Lo que está claro es el seguimiento. El SM-O200P y el SM-O200J existen como modelos distintos, lo que sugiere que Samsung está probando más de una configuración.

    Lo que no está claro es cuál usarías para elegir. No se describen el peso, el ajuste, el tipo de lente más allá del detalle de transición ni las diferencias en la cámara o el sensor, ni tampoco las especificaciones de la batería ni su compatibilidad con el teléfono en el día a día.

    Hasta que esa brecha se cierre, “dos versiones” es más una advertencia que una promesa.

    La lista de especificaciones preliminares está tomando forma

    La cámara es la especificación principal. Un sensor de 12 MP con enfoque automático da la impresión de que Samsung espera un uso real , no una foto novedosa ocasional. Esto también plantea la pregunta obvia: cómo gestiona los controles de grabación y las señales visibles en público, algo que la filtración no aborda.

    La conectividad también te indica qué tipo de producto es. Con Wi-Fi y Bluetooth, y sin cobertura celular, las gafas parecen diseñadas para apoyarse en tu teléfono en lugar de ser completamente independientes.

    El detalle de la lente de transición es la pista más representativa del estilo de vida. Insinúa uso en exteriores, no solo en demostraciones en interiores, pero hasta ahora solo está vinculado al modelo P.

    Cuándo es posible que realmente los veas

    El calendario aún es impreciso. La filtración apunta a una ventana en 2026 y sugiere un enfoque inicial en EE. UU. y Corea del Sur, dejando otras regiones abiertas.

    Si te interesa, lo más práctico es estar atento a dos novedades. Primero, Samsung aclarará qué cambian realmente los SM-O200P y SM-O200J, especialmente la comodidad y las lentes. Segundo, detalles sobre el comportamiento de la cámara y la señalización de privacidad, ya que esto determinará si se sienten cómodos en el día a día. Si estás interesado en el mercado, consulta…

    La filtración de las gafas inteligentes Samsung XR dice que podrías ver dos versiones apareció primero en Digital Trends .

  • Cómo ver el amerizaje de la tripulación 11 de SpaceX un mes antes

    Se ha convertido en una misión inusual para la Crew-11 de SpaceX. En lugar de permanecer en la Estación Espacial Internacional (EEI) durante toda su misión, los cuatro miembros de la tripulación regresarán a casa un mes antes debido a un problema médico de uno de los astronautas.

    La tripulación 11 partió de la EEI el miércoles por la tarde y está previsto que americe en la madrugada del jueves. Continúe leyendo para obtener más información sobre cómo verlo.

    Para mantener la privacidad, la NASA se ha negado a revelar tanto la identidad del astronauta como el problema médico que está en el centro del regreso anticipado.

    El director de la NASA, Jared Isaacman, se limitó a decir que se trata de una "condición médica grave" y que fue él quien decidió interrumpir la misión. La NASA añadió que el estado del astronauta es "estable".

    La tripulación 11 está compuesta por los estadounidenses Michael Fincke y Zena Cardman, junto con la japonesa Kimiya Yui y el ruso Oleg Platonov. Los cuatro viajeros espaciales llegaron a la estación espacial en agosto del año pasado y, hasta la semana pasada, tenían previsto permanecer allí hasta febrero.

    Los cuatro aparecieron ante las cámaras el lunes durante una ceremonia de cambio de mando a bordo de la ISS.

    Ahora están a bordo de una nave SpaceX Crew Dragon, preparándose para el reingreso a la atmósfera de la Tierra en las próximas horas.

    Cómo ver

    La NASA transmitirá en vivo los últimos 90 minutos del viaje de alta velocidad de la tripulación 11 a casa.

    La cobertura comenzará a las 2:15 a. m. ET del jueves y podrá verla en NASA+ y en el canal de YouTube de la agencia . También puede verla a través del reproductor integrado en la parte superior de esta página.

    La transmisión seguirá el progreso de la Crew Dragon en su regreso a tierra firme. También podrás escuchar las comunicaciones en vivo entre la tripulación y el Control de Misión.

    El amerizaje está previsto para las 3:41 a. m. ET (hora del este) frente a la costa de California. Toda la tripulación será transportada de regreso a tierra para realizar revisiones completas, y un astronauta en particular recibirá atención especial.

    La salida anticipada de la Crew-11 deja solo tres personas a bordo de la EEI: un astronauta de la NASA y dos cosmonautas de Roscosmos. Se espera que la Crew-12 de SpaceX llegue a mediados de febrero, momento en el que la tripulación aumentará a siete, la cifra habitual.

    La publicación Cómo ver el amerizaje de la tripulación 11 de SpaceX un mes antes apareció primero en Digital Trends .

  • El impulso de los juegos de realidad virtual de Meta se está reduciendo y lo sentirás

    Meta ha comenzado a recortar más de 1.000 puestos en Reality Labs, y las consecuencias están afectando a los equipos que crearon algunos de los juegos más importantes de VR.

    Meta también está desviando su inversión y atención de las apuestas más caras del metaverso hacia el hardware de IA y las experiencias móviles. Si tienes un visor Quest , este cambio puede traducirse en menos lanzamientos de prestigio, mayores esperas entre nuevos lanzamientos y menos claridad sobre qué financiará Meta próximamente. Es un gran cambio respecto a la época en que Meta consideraba los juegos destacados como una razón para invertir en su plataforma.

    Reality Labs sigue siendo la plataforma líder para el trabajo en VR y realidad mixta, pero cada vez se le exige más con menos. Los despidos son otra señal de que Meta quiere un presupuesto más ajustado y pagos más rápidos.

    Los cierres afectan a los juegos reales

    Los recortes no se limitan a un organigrama. Meta ha cerrado los estudios responsables de Resident Evil 4 on Quest y Marvel's Deadpool VR, una decisión que demuestra la rapidez con la que la compañía está recortando el desarrollo interno de juegos.

    Bloomberg informó que los despidos en Reality Labs superarían los 1.000 puestos de trabajo, ya que Meta está reorganizando sus recursos. Engadget también mencionó un memorando interno del director de tecnología, Andrew Bosworth, que priorizaba los wearables, incluyendo sus gafas inteligentes Ray-Ban con inteligencia artificial. En resumen, parece que Meta está reasignando talento y presupuesto a productos que cree que pueden escalar antes.

    Por qué esto es importante para los propietarios de Quest

    Cuando el propietario de una plataforma reduce sus equipos de juegos, las consecuencias se notan en su catálogo . Menos estudios internos suelen implicar menos exclusivas creadas para destacar las nuevas características del hardware y una mayor dependencia de desarrolladores externos que necesitan una sólida justificación comercial para mantenerse en la realidad virtual.

    El dinero es el punto clave. Reality Labs ha perdido más de 70 000 millones de dólares desde 2020 y aún no ha obtenido beneficios. Esas pérdidas sostenidas dificultan justificar presupuestos grandes y arriesgados para videojuegos, incluso cuando los resultados son aclamados por la crítica.

    Engadget también señaló que Meta no tiene prevista una secuela de Quest 3 próximamente. Esto ralentiza el ciclo habitual donde el nuevo hardware y los nuevos juegos se refuerzan mutuamente.

    ¿Qué ver a continuación?

    Meta afirma que la realidad virtual sigue formando parte del plan, pero los juegos de realidad virtual ya no son la prioridad. Se esperan más versiones, actualizaciones y lanzamientos más pequeños, con menos apuestas masivas que requieran años de personal.

    La señal más clara será cómo Meta hable de los juegos en torno a sus próximos anuncios de hardware. Si las demos se centran en las funciones y la utilidad de la IA en lugar de en los nuevos títulos importantes, sabrás dónde cree la compañía que está el próximo crecimiento. Hasta entonces, compra hardware nuevo por lo que puedes jugar ahora, no por lo que pueda llegar más adelante.

    Elimpulso de los juegos de realidad virtual en Meta se está reduciendo y lo sentirás apareció primero en Digital Trends .