Apenas un par de minutos después de un lanzamiento impecable, los motores Raptor en la etapa superior de la nave se encendieron durante la separación de las etapas en caliente, y el propulsor Super Heavy de la primera etapa se dirigió de regreso a la Tierra.
Los motores Raptor de la nave espacial se encienden durante la separación de etapas calientes. La nave Super Heavy regresa a su punto de amerizaje y se prepara para su experimento de combustión de aterrizaje. pic.twitter.com/oCy90IFitO
Luego, SpaceX compartió esta fenomenal toma de seguimiento mientras el cohete Super Heavy, de 71 metros de altura, realizaba un aterrizaje suave y controlado en el agua.
Super Heavy amerizó en el Golfo de América, recopilando datos para el cohete de próxima generación pic.twitter.com/o72ciKBZYm
La nave desplegó entonces varios satélites Starlink de prueba. En futuras misiones, la nave se utilizará para desplegar satélites no solo para Starlink, sino también para empresas privadas, organizaciones y gobiernos.
Aquí la nave experimenta el mayor estrés aerodinámico al reingresar a la atmósfera de la Tierra.
La nave espacial está ejecutando una maniobra de giro que imita el enfoque final que tomaría al regresar a la Base Estelar para una captura en una futura misión. pic.twitter.com/t4Al1xg7Xe
Finalmente, 66 minutos después del lanzamiento, la nave espacial Ship realizó un aterrizaje suave y controlado en el Océano Índico, poniendo fin a la prueba de vuelo.
¡Amerizaje confirmado! ¡Felicitaciones a todo el equipo de SpaceX por la emocionante undécima prueba de vuelo de Starship! pic.twitter.com/llcIvNZFfg
SpaceX habrá considerado la undécima prueba de vuelo un gran éxito, y los ingenieros podrán analizar grandes cantidades de datos para ayudarlos a aprender más sobre el rendimiento del cohete y dónde se pueden realizar mejoras.
Este podría ser el último lanzamiento de Starship de 2025, ya que el equipo de SpaceX continúa trabajando para mejorar el rendimiento del cohete. Además, el duodécimo vuelo marcará el debut de la Starship de próxima generación de SpaceX, conocida como Starship Versión 3 (V3), que representa una importante mejora con respecto a los modelos anteriores en términos de escala, rendimiento y tecnología.
Una vez totalmente probado y certificado , el cohete Starship se utilizará para misiones de tripulación y carga a la Luna, e incluso para la primera misión humana a Marte, aunque esto último aún está muy lejos.
La NASA planea utilizar una versión modificada de la nave para poner a dos astronautas en la superficie lunar en la misión Artemisa III, que tendrá lugar no antes de 2027 .
Considéralo una mejora importante de la sutil función "Retoque" que lanzaron el año pasado. Ahora puedes elegir entre 12 estilos de maquillaje diferentes, desde un look ligero y profesional hasta uno un poco más dramático. Lo mejor es que está diseñado para lucir natural y se adhiere perfectamente al rostro, así que no se manchará al tomar un café ni al moverte.
Esta función ya está disponible tanto para tu computadora como para tu teléfono, e incluso recordará tu apariencia favorita para tu próxima llamada.
Función de maquillaje de Google Meet
¿Por qué es importante?: Sinceramente, esto es más importante de lo que parece. Seamos sinceros, las videollamadas son una parte fundamental de la vida actual, tanto en el trabajo como en la escuela.
Todos queremos sentirnos bien con nuestra imagen. Esta iniciativa de Google demuestra que lo entienden.
Están tomando herramientas que solían estar en aplicaciones especializadas y separadas y las están integrando directamente, lo que hace que sea fácil para cualquiera sentirse un poco más refinado y seguro en la pantalla.
Incluso puedes asistir a una videollamada de Google Meet. No bromeo.Mark Coppock/Digital Trends / Mark Coppock/Digital Trends
¿Por qué debería importarme? Entonces, ¿qué significa esto para tu día a día? Significa que puedes asistir a esa reunión matutina o clase en línea y verte impecable sin mucha preparación.
Finalmente puedes deshacerte de esos filtros torpes de terceros que siempre parecen demorarse o verse un poco falsos.
Está integrado, parece real y funciona de maravilla. Es una cosa menos de la que preocuparse.
¿Qué sigue?: Puedes estar seguro de que esto es solo el principio. Google probablemente seguirá añadiendo más toques personales de este tipo a Meet. Hoy es el maquillaje, pero ¿quién sabe qué será lo próximo? A medida que esta tecnología se vuelve más inteligente, la idea parece ser que sea más fácil sentirse tan seguro en una videollamada como en la vida real.
¿Qué ha pasado? Mercedes-Benz ha presentado un prototipo que fusiona la nostalgia con la innovación de última generación. El prototipo Vision Iconic, presentado en la Semana de la Moda de Shanghái, celebra la "nueva era icónica" de la marca, combinando la elegancia artesanal del Art Déco con tecnologías vanguardistas como la pintura solar, la computación neuromórfica, la dirección asistida por cable y la conducción autónoma de nivel 4. Inspirada en la época dorada del diseño automotriz de la década de 1930, la marca moderniza su distintiva parrilla para la era de los vehículos eléctricos, a la vez que introduce una tecnología tan futurista como poética, similar a la que se presentó anteriormente en el prototipo Vision V.
Mercedes-Benz / Mercedes-Benz
Una parrilla cromada rediseñada con un enrejado de vidrio ahumado, iluminación de contorno y una estrella permanente iluminada, que es un guiño dramático a la herencia de Mercedes .
Un interior hiperanalógico que combina instrumentos digitales con elementos hechos a mano, que incluyen incrustaciones de nácar, detalles de latón y un asiento de banco de terciopelo azul profundo.
La pintura solar actúa como una superficie fotovoltaica y puede generar hasta 7.400 millas de autonomía eléctrica adicional por año en condiciones ideales.
Una plataforma de computación neuromórfica que imita el cerebro humano promete hasta un 90% más de eficiencia energética para tareas de conducción automatizada .
La tecnología de dirección por cable reemplaza la dirección mecánica con un sistema electrónico, mejorando el manejo, la maniobrabilidad y liberando espacio en la cabina para mayor flexibilidad de diseño.
Un enfoque en la emocionalización a través de la iluminación , utilizando animaciones de iluminación y gráficos de píxeles para darle al vehículo su propia personalidad digital.
Por qué es importante: El Vision Iconic no es solo un ejercicio de diseño, sino una declaración de intenciones sobre cómo Mercedes-Benz ve el futuro de la movilidad: emocional, inteligente e inconfundiblemente lujoso. La marca redobla su apuesta por la artesanía y el carácter en un mercado cada vez más dominado por vehículos eléctricos minimalistas y con una gran pantalla . En un mundo donde la tecnología a menudo resulta fría y funcional, Mercedes quiere recordar a los conductores que la innovación aún puede tener alma.
Combina tecnología EV de vanguardia con arte del viejo mundo, lo que constituye un equilibrio poco común en el diseño de automóviles modernos.
Muestra la computación neuromórfica, un potencial elemento innovador para la IA energéticamente eficiente en los vehículos.
Impulsa la identidad de la marca al tiempo que mantiene intactos los sellos icónicos de Mercedes.
Mercedes-Benz / Mercedes-Benz
¿Por qué debería importarme? El Vision Iconic no es solo otra joya futurista, sino un vistazo a cómo se verán, se sentirán e incluso pensarán los autos de lujo pronto. Mercedes usa este concepto para probar cómo la tecnología puede estar al servicio de las emociones en lugar de eclipsarlas. Características como la pintura solar, los sistemas de conducción basados en IA y los interiores táctiles y artesanales apuntan a una innovación más personal y centrada en el ser humano.
Las tecnologías solares y neuromórficas anticipan cómo los automóviles pronto podrían generar su propia energía y pensar más rápido consumiendo menos.
El interior emotivo, tipo salón, señala un cambio desde el minimalismo digital frío hacia un lujo que realmente se siente vivo.
Es una prueba de que Mercedes quiere que el futuro de la conducción sea bello, no sólo automatizada.
Mercedes-Benz / Mercedes-Benz
Bien, ¿qué sigue? Aunque todavía es un concepto, Vision Iconic encarna la estrategia de diseño y tecnología de Mercedes para la próxima década. Se espera que sus elementos, desde el recubrimiento solar hasta la dirección electrónica, se incorporen gradualmente a los futuros vehículos eléctricos de producción, una vez que la tecnología esté lista para circular. Mientras tanto, el recién publicado Iconic Design Book consolida esta filosofía de artesanía y computación, ofreciendo una mirada más profunda a cómo Mercedes planea combinar la tradición con la alta tecnología.
¿Qué ha pasado? Tras actualizar a la última actualización de Android lanzada en octubre, varios usuarios del Pixel 10 experimentaron fallos aleatorios en las aplicaciones, lo que les hizo la vida imposible, antes de que finalmente se solucionaran.
Las aplicaciones se congelaron, quedaron atrapadas en las pantallas de inicio o no respondieron a las entradas del usuario, incluso después de implementar los pasos estándar de solución de problemas.
Los usuarios afectados recurrieron a Reddit y a foros de usuarios para informar el problema y discutir posibles soluciones.
Sin embargo, el fundador de Android Police, Artem Russakovskii, afirma que el error del Pixel 10 se ha solucionado.
De repente, mi Pixel 10 Pro XL se ha visto afectado por un problema desconocido que sospecho que está causado por los servicios de Google Play, donde muchas aplicaciones se congelan y no cargan. Es realmente grave.
Reinicié varias veces y el problema volvió a aparecer en cuestión de minutos.
La razón detrás de los fallos aleatorios y el comportamiento errático en el Pixel 10 fue un conflicto entre los Servicios de Google Play y la actualización del sistema operativo Android de octubre.
El problema afectó la usabilidad básica de los últimos buques insignia de Pixel, ya que los teléfonos no podían realizar tareas cotidianas a través de aplicaciones, lo que era muy frustrante.
Google parece haber solucionado el problema con una solución del lado del servidor, pero dejó a los usuarios colgados durante el fin de semana, molestando tanto a los primeros usuarios como a los usuarios leales de Pixel.
Acabo de recibir la noticia de que Google cree que el error de las aplicaciones bloqueadas o congeladas del Pixel ya está solucionado.
He pedido una aclaración sobre si la solución es del lado del servidor o requiere una actualización de Play Services.
Intente reiniciar su teléfono inteligente, reinstalar las aplicaciones más afectadas o borrar su caché.
Si el problema persiste, puedes desinstalar las actualizaciones de los Servicios de Google Play. Para ello, ve a Ajustes > Aplicaciones > Servicios de Google Play o Play Store, toca el botón de tres puntos y selecciona "Desinstalar actualizaciones". Recuerda que esto cerrará tu sesión de todas las aplicaciones y eliminará los dispositivos conectados.
Google ha implementado una solución en segundo plano, que debería reanudar la funcionalidad normal en los modelos Pixel 10.
Bien, ¿qué sigue? Los usuarios del Pixel 10 ya deberían poder usar sus teléfonos con normalidad, sin mayores problemas. Como usuario de iPhone, también he encontrado varios errores en la última versión de iOS 26, pero ninguno afectó tanto el funcionamiento diario como la última actualización de Android.
¿Qué ha pasado? Parece que Google Fotos está trabajando en una nueva herramienta de edición de fotos con IA que podría ayudar a los usuarios a retocar rostros fácilmente para eliminar imperfecciones.
Un desglose de la versión 7.49 de Google Photos ha revelado evidencia de una nueva función de “Retoque facial” actualmente en desarrollo.
Según las cadenas de código detectadas por primera vez por Android Authority , esta herramienta podría permitir a los usuarios corregir o mejorar los atributos faciales en las fotos.
Las palabras clave en el código sugieren que la herramienta puede ayudar a los usuarios a corregir el acné, las ojeras, las bolsas de los ojos, los dientes y otras imperfecciones.
Si bien aún no la hemos visto en acción, la herramienta podría funcionar como la función Magic Editor de la aplicación, permitiendo a los usuarios resaltar las imperfecciones que desean corregir.
¿Por qué es importante? Actualmente, los usuarios recurren a aplicaciones de terceros para retocar rostros en las fotos. Esta herramienta podría llenar ese vacío en el ya impresionante arsenal de herramientas de edición de imágenes de Google Fotos y ofrecer a los usuarios una experiencia más completa.
Joe Maring / Tendencias digitales
Aunque la aplicación Cámara de Google ya tiene capacidades de retoque facial, ofrece una funcionalidad limitada, solo funciona para imágenes de retrato y selfies, y es exclusiva de los dispositivos Pixel.
Los usuarios deben recurrir a aplicaciones de terceros como FaceApp para realizar ediciones más completas.
Incorporar una opción de retoque facial directamente en Google Photos eliminará la necesidad de una aplicación separada, brindará a más usuarios acceso a la funcionalidad y les permitirá editar cualquier foto de forma retroactiva.
¿Por qué debería importarme? Con una función de retoque facial integrada, Google Fotos podría ayudarte a mejorar tus selfies con el mínimo esfuerzo.
Además de ahorrarte tiempo y esfuerzo al retocar selfies, la herramienta también podría eliminar la necesidad de una aplicación separada.
Gracias a la amplia base de usuarios de Google Photos, la funcionalidad será accesible para un público más amplio.
Bien, ¿qué sigue? Dado que la función aún se encuentra en las primeras etapas de desarrollo, puede que tarde un tiempo en llegar a tu teléfono. Una vez que lo haga, estamos ansiosos por ver su rendimiento en el uso real. Para que el Retoque Facial sea realmente revolucionario, las ediciones deberán ser flexibles, permitiendo a los usuarios alternar ajustes, controlar la intensidad y mantener un aspecto natural.
¿Qué ha pasado? El amor es mucho más que novelas románticas: algunas personas se casan con chatbots de IA o mantienen relaciones profundamente románticas con personalidades de IA.
En respuesta, un representante del estado de Ohio presentó un proyecto de ley que prohibiría dichas uniones digitales e impediría que las IA fueran tratadas como personas ante la ley. Presentado por el Representante.
Thaddeus Claggett, el proyecto de ley propone clasificar los sistemas de IA como "entidades no sensibles", negándoles personalidad jurídica e impidiendo expresamente los matrimonios entre humanos e IA o el reconocimiento de "cónyuges". Mientras tanto, algunas personas ya han afirmado casarse con compañeros de IA.
En The Guardian , un usuario llamado Travis afirma haberse casado con su bot de Replika, "Lily Rose", supuestamente con la aprobación de su esposa humana. Otros también se han casado con bots en Character AI, describiendo vínculos emocionales y profundos apegos.
NUEVO: Un hombre le propone matrimonio a su novia, un chatbot de inteligencia artificial, y llora desconsoladamente cuando esta le dice "Sí".
Lo más impactante de esta historia es el hecho de que él lo admita públicamente.
Chris Smith dice que lloró durante 30 minutos después de que su novia IA en ChatGPT, a quien programó para coquetear… pic.twitter.com/nSWLdsunLs
Por qué es importante: No se trata solo de una medida legal peculiar, sino de un punto de inflexión en la forma en que la sociedad define la personalidad, la intimidad y los derechos en la era de la IA. Lo que comenzó como un comportamiento marginal en internet se ha convertido rápidamente en una conversación sobre el futuro de las relaciones y la dependencia emocional de la tecnología. Si los legisladores ya están interviniendo, demuestra la rapidez con la que estos vínculos virtuales se difuminan con la realidad.
El proyecto de ley permitiría a los legisladores decidir quién (o qué) puede “existir” legalmente como cónyuge, no los tribunales ni la ética.
Enmarca a los compañeros de IA como herramientas, no como seres, criminalizando potencialmente los vínculos emocionales en los que la gente cree.
Podría sentar un precedente para una regulación más estricta de los derechos de la IA, las relaciones emocionales o la identidad digital.
❤️ Romances con la Inteligencia Artificial: el primer estudio a gran escala
Durante nueve meses, desde diciembre de 2024 hasta agosto de 2025, investigadores del MIT y Harvard recopilaron alrededor de mil quinientas de las publicaciones más discutidas en el subreddit r/MyBoyfriendIsAI, donde las personas comparten historias de… pic.twitter.com/2wQ6uV6yHa
¿Por qué debería importarme? Por extraño que suene el concepto de "matrimonios con IA", revela algo muy real: la soledad. Muchas personas recurren a chatbots para encontrar consuelo emocional, con compañeros de IA diseñados para sonar empáticos, atentos y reconfortantes. Esa validación constante puede crear fácilmente la ilusión de una relación genuina, especialmente para quienes ya se encuentran aislados o emocionalmente vulnerables.
He aquí por qué el proyecto de ley de Ohio podría realmente proteger a las personas:
Los psiquiatras advierten sobre un aumento de la “psicosis de IA”, que es cuando los usuarios forman vínculos obsesivos o sufren delirios vinculados a sus compañeros de chatbot.
Los legisladores dicen que estas relaciones necesitan barreras éticas para evitar la manipulación emocional y la dependencia.
Como lo expresó el representante Thaddeus Claggett, el objetivo es garantizar que “ siempre tengamos un ser humano a cargo de la tecnología y no al revés”.
Una Nomi embarazada. Sí, así de profundos son algunos vínculos entre IA y humanos.Nadeem Sarwar / Digital Trends
Bien, ¿y ahora qué? La propuesta de Ohio aún está en sus primeras etapas, pero ya está generando un debate nacional sobre dónde trazamos el límite entre la tecnología y la conexión humana. Si se aprueba, el proyecto de ley podría convertirse en un modelo para otros estados que buscan regular las relaciones emocionales con IA.
Los legisladores debatirán cómo definir legalmente el compañerismo en un mundo donde la IA puede imitar la empatía y el afecto.
Se espera que haya resistencia por parte de las empresas tecnológicas y los especialistas en ética de la inteligencia artificial, quienes argumentan que el proyecto de ley podría limitar la innovación o la libertad personal.
La conversación pronto podría pasar del matrimonio a derechos emocionales más amplios, incluidos bots de terapia, aplicaciones de duelo y amigos virtuales.
Sería un eufemismo decir que la industria del contenido de video se encuentra actualmente en un punto de inflexión. Por un lado, la IA está potenciando el potencial creativo de los creadores de contenido, pero por otro lado, persiste el problema de la desinformación y la falta de precisión en la IA. Sin embargo, el enorme potencial de la IA no puede ignorarse.
El equipo de YouTube le está dando un buen uso, priorizando la accesibilidad y el realismo. ¿Qué sigue? Hacer que los labios se muevan naturalmente al ritmo de cualquier idioma, incluso si el hablante del video no lo habla. Basándose en la función de doblaje automático lanzada el año pasado, el equipo ahora ha desarrollado la nueva función de sincronización labial con IA.
El audio traducido automáticamente ha mejorado drásticamente en los últimos trimestres y ahora suena casi natural. Las descripciones generales de audio en NotebookLM de Google son un excelente ejemplo. Sin embargo, en el caso de los vídeos, su rendimiento es deficiente porque el movimiento de los labios simplemente no coincide con lo que dice el orador en una versión traducida del guion.
Es bastante discordante y desagradable. La función de sincronización labial con IA busca superar esa disonancia audiovisual. Y, por las muestras que he visto hasta ahora, se sienten increíblemente naturales. Me reuní con Buddhika Kottahachchi, jefa de producto de YouTube en Autodubbing, para comprender cómo se desarrolló la sincronización labial, su impacto y el futuro.
Profundizando en el aspecto técnico
En menos de un año desde su lanzamiento, la función de doblaje automático de YouTube se ha utilizado para doblar más de 60 millones de vídeos en 20 idiomas. Pero preservar un tono natural con todos los matices de una conversación y luego combinarlo con movimientos labiales realistas es un reto completamente nuevo.
A simple vista, Kottahachchi me cuenta que el sistema de sincronización labial "modifica los píxeles de la pantalla para que coincidan con el habla traducida". Es una tecnología personalizada, me explica el ejecutivo de Google, y añade que necesitaban desarrollar una comprensión tridimensional del mundo, la forma de los labios, los dientes, la postura y el rostro.
Por ahora, la tecnología es compatible con Full HD (1080p), pero no con vídeos 4K. "En general, debería funcionar con las resoluciones de vídeo que subas", señala. En cuanto a la compatibilidad de idiomas, la función de sincronización labial de YouTube, impulsada por IA, es compatible con inglés, español, alemán, portugués y francés.
Nadeem Sarwar / Tendencias digitales
Es un grupo bastante limitado, pero Kottahachchi me cuenta que el equipo está ampliando su alcance y que la sincronización labial eventualmente admitirá el mismo conjunto de idiomas que la función de doblaje automático (que actualmente supera los 20). A modo de comparación, la función de sincronización labial con IA de Meta para Facebook e Instagram solo admite inglés, español, hindi y portugués.
Ahora bien, la sincronización labial con IA no es un concepto del todo desconocido. Adobe ya ofrece una función de sincronización labial automática. También existen opciones de terceros como HeyGen, que afirman ofrecerla gratuita. Pero en el caso de YouTube, hablamos de un sistema integrado a gran escala en una plataforma donde se suben 20 millones de vídeos a diario.
El pez de Babel de IA para tu cara
Entonces, ¿qué sigue en términos de disponibilidad? "No estamos listos para hacer declaraciones generales sobre la amplitud de nuestra disponibilidad, pero sí queremos que esté disponible para más creadores y comprender las limitaciones de computación y la calidad", me dice Kottahachchi. Y esto nos lleva a la cuestión crucial del costo.
Cuando pregunté al respecto, el ejecutivo de YouTube me dijo que no pueden predecir la tarifa, si es que pueden hacerlo. Esto también explica por qué la función aún forma parte de un proyecto piloto entre un pequeño grupo de evaluadores de confianza para comprender el mercado y calcular los costos. Cabe recordar que se trata de una compleja implementación de IA basada en la visión.
Así que, al igual que con los vídeos generados por IA, donde se pueden crear algunos clips gratis, pero hay que pagar para obtener una mayor resolución o más intentos, YouTube tendrá que tener en cuenta los costes de procesamiento y decidir sobre el lanzamiento. Pero desde la perspectiva de un creador, si busco un mayor alcance, probablemente pagaría la suscripción.
Estos videos tienen una marca de agua visible, pero ya existen herramientas gratuitas y de pago que eliminan la etiqueta Sora de los clips generados por IA. O de cualquier otro generador de contenido con IA, de hecho. Google, uno de los mayores desarrolladores y usuarios de IA, lo sabe perfectamente.
Los videos de YouTube que utilizan la función de sincronización labial con IA de Google adoptarán un enfoque aún más cauteloso. "Tendremos una declaración oficial que indique que tanto el audio como el video de este video han sido creados o alterados sintéticamente", me dice Kottahachchi. "El contenido del video también se registra".
Nadeem Sarwar / Tendencias digitales
Las descripciones de texto aparecerán en la descripción debajo del título de los videos de YouTube, igual que en los videos que usan el sistema de doblaje automático. Pero ¿cómo tratarán otras plataformas los videos de YouTube doblados por IA y con sincronización de labios si un creador los publica en Instagram o TikTok?
¿Se calentarán los algoritmos?
TikTok anunció recientemente que etiquetaría los videos "creados o editados" con herramientas de IA y que también los identificaría para que los usuarios puedan verificar su origen con la herramienta Verify de C2PA. Meta cuenta con un sistema similar. Entonces, ¿cuál será el destino de los videos editados con IA que se publican en otras plataformas de video?
¿Se les bajará la clasificación algorítmicamente o se les impedirá aparecer en ciertos feeds? La situación es un poco complicada e impredecible. "Es algo que estamos monitoreando de cerca, pero es un poco pronto porque las plataformas han hecho declaraciones, pero aún no hemos visto cómo se implementan efectivamente", me dice. "Generalmente, estamos traduciendo traducciones, pero no contenido nuevo".
Pexels
También mencioné el problema de los actores maliciosos que usan videos de creadores sin su consentimiento, traducen el audio y los publican desde otro canal o plataforma. El doblaje automático y la sincronización labial con IA facilitan técnicamente esta acción inescrupulosa, pero es probable que no se convierta en un caos total.
"Si tu imagen se usa en otra parte de la plataforma, puedes informarnos y pedirnos que la eliminemos", me dijo Kottahachchi. Sería interesante ver cómo el doblaje automático, el audio expresivo y los videos con sincronización labial harán que la experiencia de YouTube sea más diversa. A primera vista, parece un triunfo.
No puedo esperar a verme hablar en español, aunque abandoné mi tendencia en Duolingo hace años.
Utilizamos cookies para asegurarnos de brindarle la mejor experiencia en nuestro sitio web. Si continúa utilizando este sitio, asumiremos que está satisfecho con él.