Como si el desplazamiento infinito no fuera ya suficiente, TikTok ha añadido discretamente un minijuego de emojis oculto en los mensajes directos. El minijuego ya está disponible y funciona tanto en mensajes individuales como en chats grupales. Esto significa que la aplicación ahora tiene un truco más para mantener a los usuarios enganchados incluso cuando ya han terminado de ver vídeos.
Y, sinceramente, es exactamente el tipo de función que cabría esperar de una plataforma que lleva años dominando el arte de convertir "solo cinco minutos más" en una hora.
Nadeem Sarwar / Tendencias Digitales
¿En qué consiste el juego y por qué deberías tener cuidado?
El juego comienza cuando envías un emoji en un chat. Si tocas ese emoji, se convierte en parte del juego y flota por la pantalla para darte un impulso de velocidad mientras intentas rebotar hacia arriba sobre una pila de caimanes.
El objetivo es escalar lo más alto posible evitando a los caimanes esqueleto, algunos de los cuales desaparecen tras un aterrizaje. Así que todo se reduce a reflejos rápidos y al caos suficiente para que quieras volver a intentarlo. TikTok también muestra tu puntuación y la de tu oponente en la esquina superior derecha. Esto lo convierte en una pequeña competición ligera en lugar de un simple truco sin importancia.
TikTokUnsplash
Es muy acorde con la marca.
TikTok explicó a TechCrunch que lanzó esta función oculta para hacer la mensajería más divertida y añadir un toque competitivo a los mensajes directos. No es la primera vez que vemos algo así. Instagram añadió su propio juego de mensajes directos con emojis ocultos hace dos años, y Meta también ha estado experimentando con juegos dentro de los chats de Threads .
En teoría, se trata simplemente de un inofensivo minijuego de DM. Pero en la práctica, es un gancho más para captar la atención en una plataforma que ya era muy buena monopolizándola.
Land Rover recupera el nombre Freelander, pero ya no se trata de un único SUV. La nueva gama Freelander EV operará como marca independiente, con seis modelos previstos para los próximos cinco años, y el primero llegará a China a finales de este año.
Esto se materializa a través de su empresa conjunta con Chery, y representa un impulso más decidido en el segmento de vehículos eléctricos premium. En lugar de basarse en modelos tradicionales, está desarrollando una gama completa diseñada para un lanzamiento rápido y para satisfacer las expectativas actuales.
China se sitúa en el centro de todo, con una nueva sede en Shanghái y mejoras en la fábrica ya en marcha para respaldar la producción a gran escala. El Freelander original lideró en su momento el segmento de los SUV en Europa, pero esta versión se está rediseñando como un competidor eléctrico global dirigido a un público diferente.
Seis vehículos eléctricos en un plazo muy ajustado.
El plan de lanzamiento establece un ritmo ambicioso. Se prevé el lanzamiento de seis vehículos en un plazo de cinco años, lo que ejerce presión sobre la ejecución desde el primer lanzamiento.
Freelander
Se espera que el primer modelo se lance en China en la segunda mitad de este año. Para satisfacer la demanda, la empresa conjunta está invirtiendo alrededor de 3 mil millones de yuanes en su planta de Changshu, modernizando las líneas de producción para poder gestionar el volumen.
No se trata de una entrada cautelosa, sino de una ofensiva a gran escala en un mercado de vehículos eléctricos saturado, donde la velocidad es tan importante como la trayectoria de la marca. La compañía también está reestructurando su modelo de venta, orientando a los concesionarios hacia un modelo de franquicia más ágil y centrado en el servicio. Ya se han firmado acuerdos con más de 60 concesionarios, con el objetivo de alcanzar los 100 para 2026.
El conjunto de tecnologías indica intenciones serias
La nueva gama se apoya en gran medida en socios consolidados para la tecnología central. El primer vehículo incluirá el sistema de conducción Qiankun de Huawei y un sistema LiDAR de 896 canales, lo que lo sitúa firmemente en la categoría de sistemas avanzados de asistencia al conductor.
Freelander
El rendimiento de la batería es otro aspecto clave. CATL suministra un paquete capaz de carga ultrarrápida de 6C, lo que debería traducirse en tiempos de carga más cortos si los resultados en condiciones reales se confirman.
En su interior, el chip Snapdragon 8397 de Qualcomm impulsará los sistemas del vehículo, marcando su debut en esta gama. Este enfoque demuestra una clara decisión de integrar tecnología probada en lugar de desarrollar todo desde cero.
El prototipo Concept 97 conserva el perfil cuadrado de un SUV que recuerda al modelo original, pero se basa en la nueva plataforma iMax. Esta arquitectura admite configuraciones tanto totalmente eléctricas como de autonomía extendida, lo que le brinda a la marca flexibilidad para diferentes usos.
¿Qué ver a continuación?
La ejecución determinará el resultado. El primer lanzamiento, previsto para finales de este año, demostrará si la marca puede cumplir sus promesas, especialmente con la entrada de hardware avanzado en un segmento altamente competitivo.
También se está produciendo un cambio más amplio. Al centrar las operaciones en Shanghái y desarrollar la estrategia en torno a alianzas locales, esta se alinea más con el ecosistema de vehículos eléctricos de China que con las plataformas globales más antiguas.
A largo plazo, la ambición se extiende más allá de China. Los líderes han señalado la competencia global que se prevé para los próximos cinco a diez años, lo que eleva las expectativas en cuanto a calidad, fiabilidad e identidad de marca.
Por ahora, el siguiente paso es sencillo. Presten mucha atención al primer lanzamiento, porque marcará la pauta para todo lo que venga después.
Vids, la herramienta de vídeo con inteligencia artificial de Google Workspace , acaba de recibir una actualización bastante generosa y está claro que ahora te facilita mucho el trabajo. Con herramientas de edición más inteligentes, una automatización más fluida y una mayor atención al detalle, crear un vídeo con aspecto profesional resulta ahora sorprendentemente sencillo.
¿Qué novedades hay en Vids?
Avatares Dirigibles: Ahora puedes insertar avatares en tus escenas y darles instrucciones . ¿Quieres que un presentador coja el teléfono, señale un gráfico de ventas o muestre una demostración de producto? Solo tienes que escribirlo. Lo mejor es que su rostro y voz se mantienen consistentes, así que tu vídeo no parecerá un collage caótico de clips inconexos. Es fluido, intencionado y, me atrevo a decir, incluso demasiado fácil.
Avatares personalizados: Si los avatares predeterminados no te convencen, puedes crear los tuyos desde cero. Experimenta con su apariencia, cambia su atuendo, el fondo y, en definitiva, define su estilo. Por ejemplo, podrías usar el mismo avatar para presentar los resultados trimestrales en un entorno de oficina formal y luego cambiar a un fondo alegre y divertido para mostrar un producto, sin perder su identidad.
Google
Integración con Veo 3.1: Esta función es realmente divertida. Puedes generar videoclips cortos dentro de Vids simplemente escribiendo una frase o subiendo una imagen. Algo como "una toma cinematográfica con dron de una playa al atardecer" se convierte en un clip real en segundos. Recibes 10 generaciones gratuitas de 8 segundos cada mes, lo que parece mucho hasta que empiezas a experimentar y de repente deseas tener más.
Exportación directa a YouTube: Una vez que tu video esté listo, puedes enviarlo directamente a YouTube desde Vids. Es rápido, sencillo y elimina una de esas pequeñas pero muy molestas situaciones del proceso.
Avatar directo en videos todavíaGoogle
Grabación de pantalla mediante extensión de Chrome: También existe una grabadora de pantalla integrada que funciona a través de una extensión de Chrome . Puedes capturar tu pantalla junto con tu voz o incluso la cámara, lo que resulta perfecto para tutoriales rápidos, demostraciones o guías paso a paso. Por ejemplo, si estás explicando cómo funciona una función o guiando a alguien a través de una herramienta, puedes grabarlo al instante sin necesidad de buscar software adicional. Es sencillo y, lo que es más importante, funciona cuando lo necesitas.
Lo que realmente pienso sobre estos nuevos trucos
Google tiene un historial sólido con la IA. Rara vez lanza un producto a medio terminar, y con Vids, ese mismo enfoque es evidente. Estas funciones reducen la fricción en la creación de videos . Tareas que normalmente requerirían varias herramientas, algunos intentos y bastante paciencia ahora parecen mucho más sencillas. En teoría, todo suena muy prometedor. Desde generar clips hasta dirigir avatares y pulir el resultado final, gran parte del trabajo pesado y repetitivo parece estar resuelto automáticamente.
Avatares de dibujos animados en vídeosde Google
Dicho esto, me gustaría dedicarle el tiempo necesario para ver sus puntos fuertes y débiles, porque ahí es donde reside la clave. Por ahora, sin embargo, parece que Google está impulsando Vids en la dirección correcta. Si esta es la trayectoria, probablemente estemos ante una herramienta de vídeo mucho más potente y útil, y no solo otra función de IA que suena impresionante pero que pierde efectividad en el uso diario.
DC ha lanzado un nuevo tráiler de la película de Supergirl , y si esperabas algo totalmente novedoso, bueno… modera tus expectativas. La película, protagonizada por Milly Alcock (House of the Dragon) como Kara Zor-El, incluye barras espaciales, traumas emocionales y un perro en peligro. Supergirl se estrena en cines el 26 de junio de 2026, dirigida por Craig Gillespie (Yo, Tonya) con guion de Ana Nogueira (Crónicas Vampíricas).
Krypto recibe un disparo y Supergirl se desata en una batalla campal: aquí tienes el análisis del tráiler.
El nuevo tráiler no pierde el tiempo en exponer su premisa, y el material original es fundamental. Supergirl es una adaptación en imagen real del aclamado cómic de 2022 , Supergirl: Woman of Tomorrow , de Tom King y la artista Bilquis Evely. La trama reproduce fielmente el cómic, con Supergirl (Kara) viajando por el espacio en busca de venganza, acompañada por Krypto, su fiel perro.
Kara Zor-El, interpretada por Alcock, se cruza con Ruthye (Eve Ridley), una chica alienígena que busca vengarse de Krem de las Colinas Amarillas (Matthias Schoenaerts), un malvado pirata asesino que mató a su padre. Su primer encuentro con Krem no sale bien, ya que este dispara a Krypto con un dardo envenenado, dejándole al querido superperro solo tres días de vida a menos que Kara encuentre el antídoto.
Sí, básicamente es una situación al estilo John Wick. Krypto no solo está ahí para brindar apoyo emocional; es el detonante emocional. Alguien lastimó al perro, y ahora toda la galaxia está a punto de arrepentirse. Kara y Ruthye se unen, viajan entre planetas, se enfrentan a piratas espaciales y se cruzan con Lobo, interpretado por Jason Momoa: un cazarrecompensas ruidoso, temerario y que monta en motocicleta, que no aparecía en el cómic original, pero que, sinceramente, parece la incorporación más divertida de la historia.
corriente continua
El reparto se completa con David Krumholtz como Zor-El, el padre de Kara, Emily Beecham como su madre, Alura In-Ze, y un cameo de David Corenswet, que regresa como Superman/Kal-El. El tráiler promete mucho. La escala es impresionante, el ambiente es enérgico y Alcock claramente tiene el talento para llevar adelante una película como esta. Pero una vez que la emoción inicial disminuye un poco, surge una pregunta inquietante.
Espera, ¿esto es otra vez Guardianes de la Galaxia?
Aquí es donde la cosa se pone un poco incómoda. Si bien el tráiler se ve bien, no parece nuevo.
Supergirl es la primera gran película del Universo DC que James Gunn no dirige. El problema es que parece la primera película del UCM que Gunn sí dirigió. Desde el principio, la atmósfera recuerda a Guardianes de la Galaxia. Por lo tanto, la visión de Gillespie para Kara Zor-El se parece menos a la exploración de nuevos horizontes del Universo DC y más a una recopilación de los mejores éxitos del catálogo anterior de Gunn.
corriente continua
Empecemos por lo obvio: Supergirl se pavonea con una gabardina y auriculares naranjas, cargando con el peso emocional de un planeta natal perdido. ¿Les suena familiar? ¡Star-Lord llamó y quiere recuperar su arco argumental! Ambos protagonistas están emocionalmente marcados por tragedias infantiles: la destrucción de Krypton para Kara, la muerte de su madre para Peter Quill, y ambos lo sobrellevan siendo la persona más genial en cualquier bar de mala muerte alienígena en el que se encuentren.
Luego están los mundos alienígenas en sí. Tenemos la ambientación espacial destartalada, bares alienígenas iluminados con neón, mundos desordenados que parecen vertederos y una banda sonora que parece sacada de la lista de reproducción retro de alguien. La estética tiene ese mismo encanto desordenado que hizo que Guardianes de la Galaxia fuera tan especial en 2014.
DC Comics / DC Comics
Curiosamente, lo que se está perdiendo poco a poco es lo que hizo que Supergirl: Mujer del Mañana fuera tan impactante visualmente en los cómics. El arte de Bilquis Evely tenía una energía nítida y angulosa, y la audaz paleta de colores de Matheus Lopes, con naranjas vibrantes, verdes azulados, dorados enfermizos y rosas intensos, le daba un aspecto único. La película hace un guiño a esa paleta, pero la mantiene apagada y sombría. Visualmente, termina pareciendo más una secuela de Guardianes de la Galaxia que una adaptación de uno de los cómics más bellos de la última década.
También está el tema del compañero animal creado por CGI, porque, al parecer, ninguna aventura espacial está completa sin uno. Rocket tuvo su momento. Ahora le toca a Krypto. La incorporación del personaje de Lobo solo intensifica la energía de Guardianes de la Galaxia. Una tripulación variopinta, una dinámica de familia elegida, un animal creado por CGI en el centro emocional; es una fórmula que funcionó de maravilla para Gunn en 2014. Usarla de nuevo tan pronto en su carrera en el Universo DC es un poco arriesgado.
Y sí, toda esa premisa de "ir hasta los confines del mundo para salvar a tu perro" es, sin duda, John Wick en el espacio. ¡Y es divertido! Pero es una diversión prestada.
Tal vez nos sorprenda cuando Supergirl finalmente aterrice.
Para ser justos, esto es solo un tráiler. Y los tráileres son muy buenos para transmitir sensaciones, no profundidad. Supergirl no llega a los cines hasta el 26 de junio, así que aún hay tiempo de sobra para que defina una identidad que vaya más allá de lo que pueden captar los montajes de dos minutos.
Gillespie es un director genuinamente creativo con un historial de películas que rompen con las expectativas ( Yo, Tonya es el ejemplo más claro), y Alcock tiene el carisma necesario para que Kara se sienta única. La base de una gran película está presente, sin duda, porque el cómic en el que se inspira es sólido. Y a veces, los ingredientes familiares pueden dar como resultado un gran producto final si la ejecución es la correcta. Así que esperemos que la película completa nos muestre algo que el tráiler no se atrevió a mostrar.
Durante mucho tiempo, los sistemas de IA han sido tratados como cajas negras selladas, especialmente en áreas como el reconocimiento facial y la conducción autónoma. Sin embargo, nuevas investigaciones sugieren que la protección no es tan sólida como se creía.
Un equipo liderado por KAIST demuestra que los sistemas de IA pueden ser sometidos a ingeniería inversa de forma remota utilizando las emisiones que se producen durante su funcionamiento normal, sin intrusión directa. En cambio, este método se basa en la escucha.
Utilizando una pequeña antena, los investigadores captaron débiles rastros electromagnéticos de las GPU y reconstruyeron el diseño del sistema. Aunque parezca un truco de ladrón, los resultados son fiables y las implicaciones para la seguridad son inmediatas.
Cómo funciona el canal lateral
El sistema, llamado ModelSpy, recopila la actividad electromagnética producida mientras las GPU gestionan las cargas de trabajo de IA. Estas señales son sutiles, pero siguen patrones relacionados con la forma en que está organizada la arquitectura.
Mediante el análisis de esos patrones, el equipo dedujo detalles clave, como la configuración de las capas y la elección de parámetros. Las pruebas demostraron que las estructuras centrales podían identificarse con una precisión de hasta el 97,6 por ciento.
Lo que resulta inquietante es la configuración. La antena cabe dentro de una bolsa y no requiere acceso físico. Funcionó a una distancia de hasta seis metros, incluso a través de paredes, con varios tipos de GPU. El propio cálculo se convierte en un canal secundario, exponiendo el diseño del sistema sin una brecha de seguridad tradicional.
Por qué esto cambia la seguridad de la IA
Esto lleva la seguridad de la IA a un terreno menos conocido. La mayoría de las defensas se centran en las vulnerabilidades de software o el acceso a la red. ModelSpy, en cambio, apunta a los subproductos físicos del cálculo.
Incluso los sistemas aislados podrían filtrar información confidencial si no se controlan las emisiones de hardware. Para las empresas, esa arquitectura suele ser propiedad intelectual fundamental, lo que convierte esto en un riesgo empresarial directo.
El trabajo plantea esto como un desafío ciberfísico, donde la defensa de la IA ahora implica tanto medidas de seguridad digitales como el entorno circundante, lo que eleva el listón de lo que realmente significa la protección.
¿Cómo son las defensas ahora?
El equipo también describió formas de reducir el riesgo, incluyendo la adición de ruido electromagnético y el ajuste de la forma en que se ejecutan los cálculos para que los patrones sean más difíciles de interpretar.
Estas correcciones sugieren un cambio más profundo. Garantizar la seguridad de la IA podría requerir ajustes a nivel de hardware, no solo actualizaciones de software, lo que complica su implementación para las industrias que ya utilizan sistemas existentes.
La investigación fue reconocida en una importante conferencia de seguridad, lo que demuestra la seriedad con la que se está tomando esta amenaza. La próxima vulnerabilidad podría no implicar una intrusión, sino simplemente observar lo que los sistemas revelan involuntariamente.
Las gafas inteligentes siempre han tenido un problema fundamental para personas como yo. Se veían geniales en las demostraciones, sonaban futuristas en los comunicados de prensa y, por lo general, venían con el mismo inconveniente silencioso. Si ya usas gafas todos los días, se espera que te adaptes a ellas. Esto significaba añadir lentes graduadas más adelante, conformarse con un ajuste que no era del todo correcto o tratar todo el asunto como una novedad en lugar de algo que realmente usarías durante el día.
Esto es lo que hace que el último anuncio de Meta sea aún más emocionante. La compañía acaba de presentar sus primeras gafas con IA optimizadas para lentes graduadas, las Ray-Ban Meta Blayzer Optics (Gen 2) y las Ray-Ban Meta Scriber Optics (Gen 2) , diseñadas específicamente para personas que usan gafas graduadas durante todo el día.
Meta afirma que admiten casi todas las recetas, que su precio inicial en EE. UU. es de 499 dólares y que estarán disponibles en ópticas a partir del 14 de abril.
Para mí, es la primera vez que la historia de las gafas de Meta me ha parecido menos una moda pasajera y más algo con lo que realmente podría convivir.
Meta
Los usuarios de medicamentos recetados no tienen que hacer trabajo adicional.
Miles de millones de personas en todo el mundo usan gafas o lentes de contacto para corregir su visión, y Meta señala que muchos propietarios de Ray-Ban Meta y Oakley ya añaden lentes graduadas a sus modelos. Sin embargo, «se pueden añadir posteriormente» no es lo mismo que «están diseñadas a medida desde el principio».
La nueva apuesta por las gafas graduadas se percibe como una decisión más meditada. Meta afirma que estos nuevos modelos se diseñaron para ofrecer comodidad durante todo el día e incluyen características como bisagras de sobreextensión, plaquetas nasales intercambiables y puntas de las patillas ajustables por el óptico. Puede que esto suene a jerga técnica, pero si usas gafas a diario, son detalles que marcan la diferencia entre llevarlas puestas durante las próximas ocho horas o tener que guardarlas en el estuche a los 20 minutos.
Un delicado equilibrio entre "dispositivo" y "gafas".
Meta
Meta no se limita a lanzar dos nuevos estilos de montura y dar por terminado el asunto. Su objetivo es que las gafas con IA se perciban como una categoría normal de gafas, en lugar de un dispositivo de nicho para los primeros usuarios. Estas nuevas monturas optimizadas para lentes graduadas no son las únicas, ya que Meta también anunció más opciones de monturas y lentes para las gafas Ray-Ban Meta y Oakley Meta.
También incluye nuevas funciones de software, como el seguimiento nutricional manos libres, resúmenes y recuperación de mensajes de WhatsApp mediante Meta AI, y compatibilidad con escritura neuronal a mano, ahora también disponible para iMessage. Todo esto hace que estas nuevas gafas resulten más naturales para el uso diario. La tecnología en sí es solo una parte de la historia. El verdadero avance se produce cuando no es necesario adaptarse al hardware.
Y si ya usas gafas graduadas, ese umbral es aún más alto. Un reloj inteligente puede ser opcional. Las gafas no.
Meta
Este es el primer movimiento de las gafas Meta que se siente realmente práctico.
Básicamente, por eso creo que estas nuevas gafas Meta son más importantes de lo que parecen sobre el papel. La publicidad habitual de los dispositivos portátiles se centra en las funciones, la inteligencia artificial, las cámaras y la comodidad. Pero para quienes usamos gafas graduadas, como yo, la primera pregunta es si realmente querría llevarlas puestas todo el día en lugar de mis gafas normales.
Y, para variar, Meta parece estar respondiendo directamente a esa pregunta.
Sí, las preocupaciones persisten, y las gafas inteligentes siguen teniendo problemas de privacidad y un precio elevado. Además, aún no han demostrado que sus funciones de IA sean lo suficientemente útiles como para justificar su incorporación a la rutina diaria. Sin embargo, este lanzamiento elimina una barrera mucho más fundamental de lo que se suele pensar.
Y para alguien que ya tiene gafas Wayfarer graduadas y sabe la gran diferencia que supone un ajuste adecuado, las nuevas gafas con IA de Meta resultan de repente mucho más atractivas.
Justo cuando parecía que la IA se había instalado discretamente en teléfonos y portátiles, ahora también llega al salpicadero de tu coche. En un movimiento que resulta a la vez inevitable y un tanto surrealista, ChatGPT se está implementando oficialmente en Apple CarPlay .
ChatGPT ya está disponible en CarPlay.
El modo de voz que ya conoces, ahora disponible para usarlo en cualquier lugar.
El anuncio oficial de OpenAI integra el modo de voz del chatbot directamente en la experiencia de conducción. Y sí, esto significa que las conversaciones informales con la IA mientras se está atascado en el tráfico ahora son una realidad.
¿Cómo funciona ChatGPT en CarPlay?
Esta integración llega con la última actualización de iOS 26.4 , que abrió discretamente la puerta a las aplicaciones de terceros basadas en voz dentro de CarPlay. Con la versión más reciente de la aplicación ChatGPT instalada, los usuarios ahora pueden acceder a la IA directamente desde la pantalla de infoentretenimiento de su automóvil.
Manzana
Pero aquí está la clave: este no es el ChatGPT que la mayoría conoce. No tiene interfaz de texto, ni respuestas que se desplacen, y definitivamente no hay párrafos que leer en el panel de control. Todo está diseñado para funcionar mediante voz, para evitar distracciones al volante.
Modo de voz de ChatGPTNadeem Sarwar / Digital Trends
Una vez iniciada, la experiencia se asemeja más a una llamada que a una aplicación. El sistema muestra indicadores básicos como "escuchando" o "hablando", mientras que las conversaciones se desarrollan completamente por audio. Puedes hacer preguntas, obtener explicaciones rápidas o incluso redactar mensajes, todo sin apenas tocar la pantalla. Sin embargo, aún no es totalmente manos libres. A diferencia de Siri, no admite la activación por palabra clave, por lo que los usuarios todavía deben tocar la aplicación para iniciar una sesión. Es un pequeño inconveniente, pero demuestra claramente que se trata de la primera versión de una idea más ambiciosa.
Por qué esto es más importante de lo que parece
A primera vista, esto podría parecer una simple actualización de funciones. Pero en realidad supone un cambio bastante significativo para el ecosistema de Apple. Durante años, CarPlay ha estado estrictamente controlado, con Siri como la interfaz de voz principal (y casi exclusiva). Al permitir herramientas de IA de terceros como ChatGPT en CarPlay, Apple está abriendo el coche como el próximo gran espacio informático.
Por supuesto, esta primera versión es claramente cautelosa. Los controles limitados, la falta de una integración profunda del sistema y el fuerte enfoque en la interacción exclusivamente por voz indican que la seguridad es la máxima prioridad. Pero también se siente como un anticipo de algo mucho más grande. Y si este es el comienzo, no es difícil imaginar un futuro donde tu trayecto diario se convierta en tu sesión de chat más productiva del día.
Utilizamos cookies para asegurarnos de brindarle la mejor experiencia en nuestro sitio web. Si continúa utilizando este sitio, asumiremos que está satisfecho con él.