Blog

  • Elon Musk confirma una importante reestructuración del paquete de conducción autónoma total de Tesla

    Tesla cambiará su función de conducción autónoma total (FSD) en los automóviles nuevos a un modelo basado en suscripción a partir del 14 de febrero de 2026, confirmó el CEO de la compañía, Elon Musk, en X.

    Según Bloomberg , cualquier persona que compre un Tesla nuevo a partir del 14 de febrero deberá pagar 99 dólares al mes para acceder a la FSD. Actualmente, la conducción autónoma completa (supervisada) cuesta 8000 dólares adicionales, y el sitio web de Tesla afirma que «su coche podrá conducirse solo prácticamente a cualquier lugar con una mínima intervención del conductor».

    Para algunos conductores de Tesla, la suscripción de $99 al mes podría ser más rentable en comparación con el costo inicial de $8,000. Tendrías que conducir tu vehículo FSD durante seis años y medio para acumular $8,000 en costos de suscripción.

    La página oficial de FSD de Tesla explica que necesitas un vehículo compatible para usar el modo de conducción manos libres. Tu Tesla deberá tener la versión 3.0 o superior de la computadora de conducción autónoma completa, además de piloto automático básico o piloto automático mejorado, para suscribirte al FSD (supervisado).

    También se indica: "Puedes consultar la configuración del Piloto Automático desde la pantalla táctil de tu vehículo seleccionando Controles > Software > Información Adicional del Vehículo. También puedes consultar la configuración en la app de Tesla seleccionando Vehículo > Especificaciones y Garantía".

    La FSD se vuelve más accesible

    Mush no ha proporcionado un motivo para el cambio a un modelo solo por suscripción para el paquete de conducción autónoma más avanzado de Tesla, pero sí reduce la barrera de entrada.

    Como ya no necesitarás desembolsar $8,000 por adelantado, casi puedes pagar la suscripción según el uso y, si no te convence después de unos meses, puedes cancelar la función, mientras que tu Model 3 , Model Y o Cybertruck con tracción en las cuatro ruedas seguirá funcionando normalmente.

    Si compra un Model S, Model X o la variante Cyberbeast del Cybertruck, el FSD viene incluido en el precio del vehículo.

    Las suscripciones FSD están disponibles para los propietarios de vehículos elegibles en los Estados Unidos, Canadá, México, Puerto Rico, Australia y Nueva Zelanda.

    Y si optas por la suscripción FSD, querrás probar el modo de conducción Mad Max de Tesla .

    La publicación Elon Musk confirma una importante reestructuración del paquete de conducción autónoma total de Tesla apareció primero en Digital Trends .

  • Tu pantalla de bloqueo Galaxy ahora tiene cientos de animaciones de desbloqueo de Samsung

    Samsung lleva la personalización de la pantalla de bloqueo un paso más allá en los teléfonos Galaxy. Una nueva actualización de LockStar amplía las animaciones de desbloqueo de Samsung, ofreciéndote una forma rápida de que tu teléfono se sienta diferente cada vez que lo desbloqueas. Es simple y se nota al instante.

    Las notas de la Galaxy Store para LockStar 8.5.00.8 destacan la incorporación de efectos de "Animación de desbloqueo" y compatibilidad con One UI 8.5, además de algunas mejoras de calidad de vida. Hay una pega: Samsung no especifica qué modelos incluyen todas las funciones ni cuándo estarán disponibles en todos los modelos.

    Las animaciones de desbloqueo ocupan un lugar central

    El cambio más destacado es el nuevo menú de efectos de desbloqueo dentro de LockStar, con cientos de animaciones para elegir. Es mucha más variedad de la que la mayoría de la gente espera de una modificación de la pantalla de bloqueo .

    El mismo número de versión indica el requisito de One UI 8.5. Las propias notas de Samsung confirman la existencia de la función, pero no confirman un número exacto ni si la lista completa es idéntica en todos los dispositivos.

    No es sólo un placer para la vista

    Esta actualización también mejora la usabilidad diaria. LockStar 8.5.00.8 añade el control manual del brillo de Always On Display para los modelos AOD de pantalla completa. Si su pantalla brilla demasiado en una habitación oscura, esta es la solución que realmente necesitará.

    Samsung también menciona una nueva función de "Texto" para teléfonos con One UI 8.0 o superior, que permite añadir texto personalizado a la pantalla de bloqueo. Además, soluciona un problema con el efecto de la huella dactilar y ajusta el redondeo de las esquinas de los widgets; pequeños cambios que pueden mejorar la apariencia de la pantalla de bloqueo.

    Cómo probarlo ahora

    Para comprobarlo, abre la Galaxy Store y actualiza LockStar a la versión 8.5.00.8. Luego, ve a LockStar y busca la opción "Desbloquear animación". Navega y elige una que te guste ver a diario.

    Si instalas la actualización y no ves todos los controles de animación, es probable que tu versión de One UI sea el problema. Busca One UI 8.5 en tu modelo y vuelve a visitar LockStar una vez que tu teléfono esté actualizado.

    La pantalla de bloqueo de tu Galaxy acaba de recibir cientos de animaciones de desbloqueo de Samsung apareció primero en Digital Trends .

  • Finalmente puedes desinstalar Microsoft Copilot en Windows 11, pero hay una trampa

    Finalmente puedes desinstalar Microsoft Copilot en Windows 11, pero hay una trampa

    Microsoft finalmente permite que algunos usuarios eliminen Copilot de Windows , pero la letra pequeña deja claro que no es la solución definitiva que muchos esperaban. Tras integrar Copilot en Windows 11 , Microsoft ha introducido una nueva opción en una compilación reciente de Windows 11 Insider Preview que permite desinstalarlo por completo.

    El problema es que solo funciona en situaciones muy específicas, y la mayoría de los usuarios habituales no cumplen los requisitos. Hasta ahora, Copilot podía desactivarse u ocultarse, pero no eliminarse por completo. Esto cambia con una nueva configuración de directiva de grupo llamada RemoveMicrosoftCopilotApp, que aparece en las últimas versiones de Insider en los canales para desarrolladores y beta.

    Esta política permite a los administradores de TI desinstalar Copilot de los dispositivos administrados con versiones Enterprise, Pro o EDU de Windows. Si usa un equipo de trabajo o escuela administrado por una organización y su administrador está dispuesto a ayudarle, Copilot finalmente podrá eliminarse del sistema.

    Por qué desinstalar Copilot es más difícil de lo que parece

    Según TechRadar , la política incluye varias condiciones. En primer lugar, tanto la aplicación gratuita Microsoft Copilot como la de pago Microsoft 365 Copilot deben estar instaladas en el sistema, y ​​el usuario no debe haber instalado la aplicación Microsoft Copilot. Si solo tiene la versión gratuita y no es suscriptor de pago de Copilot, la opción no funcionará.

    En segundo lugar, la aplicación Copilot no debe haberse iniciado en los últimos 28 días, lo cual es un requisito sorprendentemente alto, ya que Copilot está configurado para iniciarse automáticamente al iniciar sesión por defecto. Esto significa que los usuarios tendrían que desactivarla en Aplicaciones de Inicio y evitar abrirla durante casi un mes.

    Los administradores aún pueden intentar eliminar la aplicación Microsoft Copilot a través del Editor de políticas de grupo, yendo a Configuración de usuario > Plantillas administrativas > Windows AI > Eliminar aplicación Microsoft Copilot.

    Aun así, la desinstalación solo se realiza una vez. Microsoft afirma que los usuarios pueden reinstalar Copilot más adelante si lo desean, y algunas funciones relacionadas con Copilot podrían seguir vinculadas a los servicios de Windows y Microsoft 365.

    Curiosamente, algunos usuarios llevaban tiempo queriendo esto. En marzo de 2025, un error eliminó accidentalmente Copilot para algunos usuarios, y la reacción en línea fue curiosamente positiva. Así que, si no te gusta Copilot y usas un dispositivo de trabajo administrado, por fin tienes una salida.

    La publicación Finalmente puedes desinstalar Microsoft Copilot en Windows 11, pero hay una trampa apareció primero en Digital Trends .

  • Veo de Google ahora es mejor creando videos para tus redes sociales

    Veo, la impresionante herramienta de generación de videos de Google DeepMind, acaba de recibir una actualización que ofrece una función muy esperada. La herramienta ahora admite la salida de video vertical nativa, lo que la hace ideal para crear contenido para Instagram Reels, YouTube Shorts y TikTok .

    En su anuncio, Google señala que Veo ahora permite a los usuarios generar videos con una relación de aspecto de 9:16, eliminando la necesidad de recortar o reencuadrar clips para plataformas verticales. Para crear videos en formato vertical, solo es necesario subir una imagen vertical y Veo mantendrá la relación de aspecto y la orientación. La actualización también mejora las funciones de "Ingredientes para Video" de la herramienta, lo que permite crear videos más expresivos y creativos, incluso con indicaciones sencillas.

    La consistencia de identidad también se ha mejorado en la última versión de Veo 3.1, y los personajes generados ahora se ven iguales incluso cuando cambia el entorno. Google afirma que esto facilita a los creadores crear una narrativa completa "al hacer que el mismo personaje aparezca en múltiples escenas". Además, la herramienta ahora mantiene la integridad del entorno y los objetos que lo componen, y permite a los usuarios reutilizar objetos, fondos o texturas en diferentes escenas.

    Los creadores ahora pueden mejorar la resolución de sus videos a 1080p y 4K

    Google añade que Veo ahora también permite combinar diferentes elementos, como personajes, objetos, texturas y fondos estilizados, para crear vídeos más cohesivos. Para los creadores que necesitan clips de alta resolución para sus proyectos, la herramienta también es compatible con el escalado a 1080p y 4K.

    La actualización ya está disponible y los usuarios pueden probar el modo retrato y las mejoras de Ingredientes para Video en la app Gemini . Estas funciones también estarán disponibles en Flow, la API de Gemini, Vertex AI y Google Vids. Sin embargo, las opciones de escalado a 1080p y 4K están actualmente limitadas a Flow, la API de Gemini y Vertex AI.

    La publicación Veo de Google ahora es mejor al crear videos para tus feeds sociales apareció primero en Digital Trends .

  • Los científicos están enseñando a las pantallas OLED a brillar de forma más inteligente

    Los científicos están enseñando a las pantallas OLED a brillar de forma más inteligente

    ¿Conoces ese momento molesto cuando sales a la calle en un día soleado, sacas el teléfono y de repente no ves nada en la pantalla? Entrecierras los ojos, subes el brillo al máximo y ves cómo se desploma el porcentaje de batería en tiempo real. Es un problema que todos enfrentamos. Pues bien, un equipo de investigadores en Corea del Sur podría haberlo solucionado definitivamente, y lo han logrado sin convertir nuestros elegantes teléfonos en voluminosos ladrillos.

    Un grupo del KAIST, dirigido por el profesor Seunghyup Yoo, acaba de publicar unos hallazgos impresionantes en Nature Communications. En resumen, han descubierto una manera de hacer que las pantallas OLED (las que se encuentran en la mayoría de los teléfonos y televisores de alta gama actuales) sean significativamente más brillantes. ¿Y lo mejor? No tuvieron que sacrificar ese aspecto ultrafino y plano que tanto nos gusta.

    Esto es lo que pasa con los OLED actuales

    En realidad, son algo ineficientes. Nos encantan porque los colores resaltan y los negros son súper profundos, pero tienen un defecto oculto. Al parecer, casi el 80 % de la luz que generan estas pantallas nunca llega a los ojos. Queda atrapada en las capas de la pantalla, rebota y, finalmente, se convierte en calor. Por eso, el teléfono se calienta al ver videos de alta resolución, y es un gran desperdicio de batería.

    Anteriormente, los ingenieros intentaban solucionar esto colocando pequeñas lentes sobre los píxeles para facilitar la salida de la luz. Es como poner una lupa sobre una bombilla. Funciona, pero presenta problemas. Las lentes o bien engrosaban demasiado la pantalla (nadie quiere un televisor con baches) o bien afectaban la calidad de la imagen al desenfocar los píxeles.

    El equipo de KAIST adoptó un enfoque completamente diferente. En lugar de tratar la fuente de luz como algo infinito y teórico, rediseñaron la estructura de la pantalla basándose en el tamaño finito y real de los píxeles. Crearon esta nueva estructura "casi plana" que funciona como esas antiguas y voluminosas lentes, pero se mantiene increíblemente delgada. Dirige eficazmente la luz directamente hacia ti sin que se disperse lateralmente ni opaque la imagen.

    Para nosotros, los usuarios habituales, esto es enorme.

    Esto significa que los teléfonos del futuro podrían duplicar su brillo sin gastar batería adicional. O, al revés: podrías mantener el mismo brillo actual, pero consumir mucha menos energía, lo que significa que tu teléfono podría durar un día entero de uso intensivo. Además, dado que la luz atrapada genera calor y este daña los dispositivos electrónicos, estas nuevas pantallas deberían durar más antes de degradarse o sufrir ese temido "quemado".

    Los investigadores también afirman que esta tecnología no es solo para los OLED actuales . También podría funcionar con dispositivos de nueva generación como los puntos cuánticos. Parece que finalmente estamos dejando atrás la era de elegir entre una batería duradera o una pantalla que realmente podamos ver.

    La publicación Los científicos están enseñando a las pantallas OLED cómo brillar de forma más inteligente apareció primero en Digital Trends .

  • Un estudio revela que los chatbots de IA aún tienen dificultades para transmitir noticias con precisión

    Un estudio revela que los chatbots de IA aún tienen dificultades para transmitir noticias con precisión

    Un experimento de un mes de duración ha suscitado nuevas preocupaciones sobre la fiabilidad de las herramientas de IA generativa como fuentes de noticias, tras descubrirse que el chatbot Gemini de Google inventaba medios de comunicación completos y publicaba noticias falsas. Los hallazgos fueron publicados inicialmente por The Conversation , la entidad que llevó a cabo la investigación.

    El experimento fue dirigido por un profesor de periodismo especializado en informática, quien probó siete sistemas de IA generativa durante cuatro semanas. Cada día, se pidió a las herramientas que enumeraran y resumieran los cinco acontecimientos noticiosos más importantes de Quebec, los clasificaran por importancia y proporcionaran enlaces directos a los artículos como fuentes. Entre los sistemas probados se encontraban Gemini de Google, ChatGPT de OpenAI, Claude, Copilot, Grok, DeepSeek y Aria.

    El fallo más notable fue el de Gemini, que inventó un medio de comunicación ficticio ( examplefictif.ca ) e informó falsamente sobre una huelga de conductores de autobuses escolares en Quebec en septiembre de 2025. En realidad, la interrupción se debió a la retirada de los autobuses Lion Electric debido a un problema técnico. Este no fue un caso aislado. En las 839 respuestas recopiladas durante el experimento, los sistemas de IA citaron regularmente fuentes ficticias, proporcionaron URL incorrectas o incompletas, o tergiversaron la información real.

    Los hallazgos son importantes porque un número cada vez mayor de personas ya utilizan chatbots de IA para las noticias.

    Según el Informe de Noticias Digitales del Instituto Reuters, el seis por ciento de los canadienses dependieron de la IA generativa como fuente de noticias en 2024. Cuando estas herramientas distorsionan los hechos, distorsionan los informes o inventan conclusiones, corren el riesgo de difundir información errónea, en particular cuando sus respuestas se presentan con confianza y sin descargos de responsabilidad claros.

    Para los usuarios, los riesgos son prácticos e inmediatos. Solo el 37 % de las respuestas incluía una URL de origen completa y legítima. Si bien los resúmenes fueron totalmente precisos en menos de la mitad de los casos, muchos solo fueron parcialmente correctos o sutilmente engañosos. En algunos casos, las herramientas de IA añadieron "conclusiones generativas" sin fundamento , afirmando que las historias habían "reavivado debates" o "resaltado tensiones" que nunca fueron mencionadas por fuentes humanas. Estas adiciones pueden parecer reveladoras, pero pueden crear narrativas que simplemente no existen.

    Los errores no se limitaron a la fabricación

    Algunas herramientas distorsionaron historias reales, como informar erróneamente sobre el trato a los solicitantes de asilo o identificar incorrectamente a los ganadores de grandes eventos deportivos. Otras cometieron errores factuales básicos en datos de encuestas o circunstancias personales. En conjunto, estos problemas sugieren que la IA generativa aún tiene dificultades para distinguir entre resumir noticias e inventar contexto.

    De cara al futuro, las preocupaciones planteadas por The Conversation coinciden con un análisis más amplio del sector. Un informe reciente de 22 medios de comunicación de servicio público reveló que casi la mitad de las respuestas a noticias generadas por IA contenían problemas significativos, desde problemas de origen hasta imprecisiones importantes. A medida que las herramientas de IA se integran cada vez más en los hábitos de búsqueda e información diaria, los hallazgos ponen de manifiesto una clara advertencia: en lo que respecta a las noticias, la IA generativa debe considerarse, en el mejor de los casos, un punto de partida, no una fuente fiable de información.

    Un estudio revela que los chatbots con inteligencia artificial aún tienen dificultades para transmitir las noticias con precisión apareció primero en Digital Trends .

  • La filtración de la aplicación de Google nos da una idea de cómo es la vida con gafas inteligentes y controles útiles

    La filtración de la aplicación de Google nos da una idea de cómo es la vida con gafas inteligentes y controles útiles

    Antes del lanzamiento de las gafas inteligentes de Google , un usuario de Reddit parece haber accedido a la aplicación complementaria de las Gafas, aún inédita, a través de una versión preliminar de Android Studio (a la que también accedió el equipo de Android Authority ). Si bien la aplicación no se puede configurar sin las gafas, sus cadenas de interfaz y configuración nos dan una idea bastante clara de lo que Google está desarrollando.

    El nombre del paquete APK en cuestión es "com.google.android.glasses.companion". Se trata de una aplicación que ayuda a los usuarios a conectar las Google Glasses a su smartphone Android . La aplicación se abre en una pantalla de bienvenida con el mensaje "Bienvenido a una nueva forma de ver el mundo", seguido de "Configura tus gafas ahora o descubre tus próximas gafas en la Google Store".

    Dentro de la aplicación filtrada que impulsa las gafas inteligentes de Google

    La siguiente pantalla solicita al usuario que se coloque las gafas y las mantenga cerca de su teléfono durante el emparejamiento. Después, deberá deslizar el interruptor de encendido en la patilla derecha de las gafas para que el LED del dispositivo parpadee en azul (indicando que está en modo de emparejamiento) y, a continuación, ponerse las gafas.

    Si bien estos son los pasos de la configuración inicial, la publicación también revela algunas características clave de la aplicación complementaria de Glasses. Por ejemplo, la aplicación podría incluir una opción para pausar las notificaciones al detectar una conversación. Además, podría incluir una opción para silenciar las alertas entrantes durante un tiempo determinado.

    Según se informa, Google está trabajando en tres tipos de gafas inteligentes que se lanzarán en los próximos años, pero no todas incluirán una pantalla o funciones basadas en Gemini.

    Para dichos dispositivos, la aplicación complementaria incluye un modo de solo audio (que también podría estar disponible en modelos con pantalla integrada) y un mensaje que dice: "Sus anteojos no son elegibles para usar Gemini".

    La aplicación también indica que uno de los tres modelos podría ser capaz de grabar vídeos en resolución 3K, junto con un sistema de seguridad que impide a los usuarios bloquear el indicador de grabación (similar al de las gafas Ray-Ban Meta ).

    Si bien la aplicación complementaria no revela ninguna característica innovadora, un nuevo diseño de gafas ni un cronograma de lanzamiento, sí indica que Google se toma en serio el brindar una experiencia de gafas inteligentes práctica, real y sin distracciones para sus usuarios.

    La filtración de la aplicación de Google nos da una idea de cómo es la vida con gafas inteligentes y controles significativos apareció primero en Digital Trends .