Blog

  • El nuevo software espía Landfall utilizó imágenes para hackear teléfonos Samsung Galaxy durante casi un año.

    El nuevo software espía Landfall utilizó imágenes para hackear teléfonos Samsung Galaxy durante casi un año.

    ¿Qué ha ocurrido? Investigadores de seguridad de Unit 42, de Palo Alto Networks, han descubierto una campaña de spyware para Android llamada Landfall. El malware explotaba una vulnerabilidad de día cero en los teléfonos Samsung Galaxy que podía activarse mediante una imagen maliciosa enviada al teléfono, y parece haber sido utilizado en una campaña de espionaje dirigida.

    • La vulnerabilidad, registrada como CVE-2025-21042, se escondía dentro de la biblioteca de procesamiento de imágenes de Samsung, lo que permitía a los atacantes infectar dispositivos con un único archivo de imagen malicioso.
    • La vulnerabilidad se explotaba sin necesidad de hacer clic, es decir, las víctimas no tenían que abrir ni pulsar nada. La infección podía producirse al recibir una imagen .DNG maliciosa a través de aplicaciones de mensajería como WhatsApp .
    • Samsung solucionó el problema en abril de 2025, pero el software espía ya había estado activo desde julio de 2024, funcionando silenciosamente durante casi un año antes de ser descubierto.
    • La campaña se dirigió principalmente a los modelos Samsung Galaxy S22, S23, S24 y plegables como el Z Fold 4 y el Z Flip 4, con versiones de Android desde la 13 hasta la 15.

    Esto es importante porque: aunque Samsung solucionó la vulnerabilidad en abril, las campañas de spyware dirigidas pueden durar meses . Los investigadores lo describen como un ataque de precisión contra personas específicas, más propio de la vigilancia que de un delito masivo.

    • Las víctimas se encontraban principalmente en Oriente Medio y el Norte de África, incluyendo Irán, Irak, Turquía y Marruecos, lo que sugiere motivos geopolíticos o relacionados con estados.
    • El malware se distribuyó a través de una red de servidores vinculados a dominios previamente asociados con el grupo de vigilancia Stealth Falcon, aunque los investigadores no han confirmado exactamente quién está detrás de ello.
    • La Unidad 42 afirma que el diseño y la infraestructura del software espía sugieren que los autores intelectuales de Landfall son proveedores profesionales de vigilancia, y no ciberdelincuentes.

    ¿Por qué debería importarme? Para los usuarios comunes, esto demuestra que el software espía moderno no siempre requiere un clic descuidado; incluso recibir el archivo incorrecto podría activar una vulnerabilidad.

    • Una vez instalada, Landfall podía grabar audio, activar la cámara, recopilar mensajes, contactos y registros de llamadas, y rastrear la ubicación en tiempo real.

    Bien, ¿y ahora qué? Aunque Samsung lanzó parches para solucionar esta vulnerabilidad, los investigadores advierten que podrían existir otras vulnerabilidades no divulgadas. Si tienes un dispositivo Galaxy de los mencionados anteriormente o usas Android 13-15, esto es lo que puedes hacer:

    • Asegúrate de que tu teléfono Samsung esté completamente actualizado.
    • Evita abrir imágenes o archivos de remitentes desconocidos, incluso en aplicaciones de mensajería comunes como WhatsApp.
    • Esté atento a anomalías: un consumo inesperado de batería, sobrecalentamiento o uso desconocido de datos en segundo plano podrían indicar una vulneración.

    Las vulnerabilidades como Landfall son bastante difíciles de detectar antes de que se produzcan. Por eso, los fabricantes de teléfonos están reforzando la seguridad móvil: Apple está ampliando su Modo de Bloqueo y Google está probando la detección de amenazas en tiempo real para usuarios de Android .

  • La herramienta Opal AI de Google para crear aplicaciones sin código ya está disponible para todos.

    La herramienta Opal AI de Google para crear aplicaciones sin código ya está disponible para todos.

    ¿Qué ha pasado? A medida que crece la tendencia del vibecoding , Google está expandiendo Opal a más de 160 países , abriendo el acceso a una herramienta que permite a cualquiera crear miniaplicaciones sin escribir una sola línea de código.

    • Este creador de aplicaciones de IA sin código permite a los usuarios crear aplicaciones personalizadas con tecnología de IA simplemente describiendo lo que desean.
    • Se conecta con herramientas como Google Sheets, Drive, Cloud y BigQuery, lo que permite a los usuarios automatizar la investigación, crear flujos de trabajo de contenido o analizar datos con sencillos flujos de trabajo de arrastrar y soltar.
    • Google afirma que la expansión responde a la enorme demanda de los primeros usuarios, que han estado utilizando Opal para todo, desde automatizar tareas rutinarias hasta crear prototipos de nuevas ideas de IA en cuestión de minutos.

    Esto es importante porque: Opal supone un gran avance hacia la IA para todos, no solo para los desarrolladores, al hacer que la creación de IA sea tan sencilla como usar una barra de búsqueda. Los usuarios pueden crear flujos de trabajo de varios pasos que gestionan procesos complejos automáticamente. Algunos ejemplos iniciales incluyen:

    • Aplicaciones de investigación que extraen datos de la web, los analizan y exportan los resultados a Hojas de cálculo de Google.
    • Herramientas de análisis de datos que generan informes y perspectivas al instante.
    • Flujos de trabajo automatizados para boletines informativos semanales, revisiones de contratos o incluso planificación de comidas.

    ¿Por qué debería importarme? Para individuos y equipos pequeños, Opal es un atajo creativo para automatizar el trabajo, probar ideas y lanzar herramientas sin un equipo de ingeniería.

    • Los creadores y especialistas en marketing pueden usar Opal para la generación de contenido, como la producción de entradas de blog, guiones publicitarios y elementos visuales, todo a partir de un único concepto de producto.
    • La herramienta es bastante útil para crear miniaplicaciones como tutores de idiomas, generadores de cuestionarios y planificadores de viajes personalizados.
    • Para Google, es una forma inteligente de mantener a los usuarios vinculados a sus herramientas, desde Apps hasta Sheets y Drive, al garantizar que los flujos de trabajo diarios se realicen a través de ellas.

    Bien, ¿y ahora qué? Cualquier persona en las regiones compatibles puede visitar el sitio web para probar la herramienta . Google planea agregar próximamente más plantillas, una integración más profunda del modelo Gemini y nuevas integraciones con Workspace.

  • YouTube no está roto, es tu bloqueador de anuncios el que está fallando.

    YouTube no está roto, es tu bloqueador de anuncios el que está fallando.

    ¿Qué ha pasado? Alrededor de la medianoche de hoy, los reportes en Downdetector aumentaron drásticamente, sugiriendo una posible caída de YouTube, pero a las 6:00 a. m., el número de reportes se disparó a miles. ¿La sorpresa? YouTube no estaba realmente fuera de servicio. En cambio, los nuevos usuarios comenzaron a ver páginas en blanco, cargas infinitas y fallos de carga al usar bloqueadores de anuncios. Varios reportes de usuarios en Reddit indican que YouTube está tomando medidas más estrictas que nunca contra las extensiones de bloqueo de anuncios.

    • Los sitios de seguimiento de interrupciones registraron un gran aumento en los informes de "sitio caído" , pero las métricas de tráfico mostraron un uso normal para las sesiones sin bloqueadores de anuncios.
    • La interrupción parece estar relacionada con una nueva comprobación anti-bloqueadores de anuncios de YouTube : los usuarios que han iniciado sesión con ciertas extensiones habilitadas ven bloqueada la reproducción o no pueden cargar elementos clave de la interfaz de usuario.
    • Están surgiendo soluciones alternativas , y los usuarios sugieren que cambiar de navegador, desactivar los bloqueadores, cerrar sesión o borrar la caché parecen restablecer el acceso en algunos casos.

    Por qué es importante: Esto no es solo un error, sino una muestra de cómo las grandes plataformas como YouTube están reforzando el control sobre el bloqueo de anuncios. Para los usuarios, este cambio implica que la experiencia de navegación dependerá menos de la configuración de extensiones y más de ver anuncios, suscribirse a YouTube Premium o cambiar de servicio. Esto plantea interrogantes sobre la personalización del navegador, el control del usuario y cuánta fricción estás dispuesto a tolerar en tu acceso gratuito al contenido.

    Por otro lado, para los desarrolladores de extensiones y los navegadores rivales, esto supone un nuevo frente en la lucha constante por bloquear anuncios. Si YouTube continúa implementando scripts de detección y restricciones de reproducción, la próxima generación de herramientas para navegadores tendrá que esforzarse más, y los usuarios podrían tener menos opciones fluidas en el futuro.

    ¿Por qué debería importarme? Si usas habitualmente un bloqueador de anuncios en YouTube , los cambios de hoy podrían afectar tu experiencia de maneras inesperadas, desde pantallas en negro hasta fallos de carga. Lo que antes era una experiencia fluida y sin anuncios ahora podría tener condiciones.

    • Es posible que necesites desactivar o añadir a la lista blanca tu bloqueador de anuncios para poder acceder a los vídeos con normalidad.
    • Esta represión aumenta la presión para suscribirse a planes sin anuncios como YouTube Premium si se desea una visualización sin interrupciones.
    • Las extensiones del navegador que utilizas para una navegación más limpia pueden sufrir una reducción de su fiabilidad, lo que afectará tanto a los anuncios como al rendimiento general.

    Bien, ¿y ahora qué? Es importante estar atentos a la implementación generalizada de estas medidas. Si YouTube las extiende más allá de los usuarios registrados o a las aplicaciones móviles y de TV, el problema podría generalizarse. Mientras tanto, puedes probar algunas de estas soluciones alternativas:

    • Prueba el modo incógnito/privado o un perfil de navegador nuevo, ya que en la mayoría de los casos, tus bloqueadores o extensiones están marcados en tu configuración habitual.
    • Considera usar un navegador alternativo con bloqueo de anuncios integrado (como Brave ) o cambiar a un navegador menos afectado por los sistemas de detección de bloqueadores de YouTube.
    • Si estás viendo la televisión o una pantalla inteligente, comprueba si aparecen anuncios, ya que las versiones para móviles o aplicaciones podrían no tener todavía las mismas restricciones .

    De cara al futuro, es probable que los desarrolladores de bloqueadores de anuncios respondan con actualizaciones, pero por ahora, la dinámica de poder ha cambiado claramente: YouTube está jugando duro.

  • Musk elige el 1 de abril de 2026, el Día de los Inocentes, para la presentación del Tesla Roadster.

    Musk elige el 1 de abril de 2026, el Día de los Inocentes, para la presentación del Tesla Roadster.

    Qué sucedió: Después de años de anticipación y múltiples retrasos, el CEO de Tesla, Elon Musk, finalmente ha fijado una fecha para la presentación de la versión de producción del Tesla Roadster de segunda generación: el 1 de abril de 2026 .

    • El anuncio se produjo durante la junta anual de accionistas de Tesla el jueves, coincidiendo con el casi noveno aniversario de que Musk revelara por primera vez sus planes para el superdeportivo eléctrico de alto rendimiento.
    • Al más puro estilo Musk, la fecha fue elegida con una buena dosis de ironía. «Elegí el Día de los Inocentes porque me permite negarlo», bromeó, añadiendo: «Podría decir que estaba bromeando si resulta ser más tarde».
    • El nuevo calendario llega apenas una semana después de que Musk apareciera en el podcast de Joe Rogan, donde sugirió que el Roadster podría debutar a finales de 2025.
    • El director ejecutivo reiteró que el próximo modelo “será muy diferente de lo que se mostró anteriormente”, prometiendo lo que él llamó “la demostración más emocionante, funcione o no, jamás realizada de ningún producto”.

    ¿Por qué es importante?: El Roadster de próxima generación ha sido uno de los vehículos más esquivos en la historia de Tesla, un proyecto que ha llegado a simbolizar tanto la audaz ambición de la compañía como la lucha de Musk con los plazos de entrega.

    • Presentado originalmente en 2017, el Roadster fue promocionado como el automóvil de producción más rápido del mundo, capaz de alcanzar de 0 a 60 mph en menos de dos segundos.
    • Desde entonces, Musk ha insinuado la inclusión de propulsores de gas frío diseñados por SpaceX, lo que ha generado especulaciones de que el automóvil podría incluso alcanzar capacidades de vuelo limitadas; una hazaña de ingeniería que, de concretarse, podría redefinir la innovación automotriz.

    ¿Por qué debería importarme?: Para los fanáticos de Tesla y los entusiastas de los vehículos eléctricos, el Roadster representa la cima de la visión de rendimiento y diseño de Musk.

    • Los compradores que realizaron la reserva, algunos de los cuales pagaron 250.000 dólares por la edición “Founders Series”, llevan más de siete años esperando la entrega.
    • Uno de esos primeros partidarios fue el CEO de OpenAI, Sam Altman, quien recientemente compartió su intento fallido de cancelar su reserva y obtener un reembolso, lo que provocó una breve disputa con Musk en X (anteriormente Twitter).
    • Musk respondió que el reembolso de Altman se había procesado en 24 horas, añadiendo una pulla de que “es propio de ti” omitir esa parte.

    ¿Qué sigue?: Musk dijo que la producción probablemente comenzará entre 12 y 18 meses después de la presentación en 2026, lo que sitúa el lanzamiento del Roadster entre mediados de 2027 y principios de 2028.

    Mientras Tesla trabaja para finalizar su tan prometido superdeportivo, el mundo estará atento, no solo para ver si Musk cumple esta vez, sino también para ver si el Roadster realmente estará a la altura de las expectativas como el coche que redefine lo que es posible en rendimiento eléctrico.

  • Los AirPods Pro son geniales, pero modifico estas configuraciones ocultas para sacarles aún más partido.

    Los AirPods Pro son geniales, pero modifico estas configuraciones ocultas para sacarles aún más partido.

    Hace unas semanas, dejé de usar mis fieles auriculares Sony y me pasé a los AirPods Pro de tercera generación . Las promesas de Apple de un gran salto en la calidad de audio y la cancelación de ruido eran bastante tentadoras, y unos días después, me encontré haciendo cola fuera de la tienda para conseguir los míos.

    No diría que son la perfección auditiva. La falta de un ecualizador dedicado me resulta bastante limitante, sobre todo cuando auriculares mucho más económicos ofrecen esa comodidad. Me dije a mí mismo que compré los nuevos AirPods Pro no por sus prestaciones de audiófilo, sino por su excelencia en general.

    Cumplen con lo prometido en cuanto a eficiencia, ofreciendo una experiencia fantástica desde el primer momento. Pero tras usar los AirPods Pro 3 durante más de un mes, descubrí que la experiencia puede mejorarse aún más dedicando solo unos minutos a personalizarla ajustando algunas opciones. Resulta sorprendente que Apple haya ocultado estos controles ( Ajustes > Accesibilidad > Audio y vídeo ) para acceder a ellos.

    Personalizándolos de verdad para tus oídos

    Como mencioné antes, los AirPods Pro no ofrecen la misma gama completa de ajustes de frecuencia que un ecualizador. Y la poca flexibilidad que ofrecen no es de fácil acceso. Les pregunté a media docena de amigos que usan AirPods si sabían cómo personalizar la calidad de audio de los auriculares, y no tenían ni idea.

    La mayoría comentó que los AirPods Pro suenan bien en su estado natural, por lo que nunca sintieron la necesidad de ecualizadores predefinidos. Apple tampoco los anuncia, así que muchos usuarios simplemente lo desconocen. Actualmente, muchas marcas ofrecen preajustes de ecualización personalizados, como Graves, Clásica, Jazz, etc., donde las frecuencias se ajustan para obtener el mejor sonido de un género específico.

    En los AirPods Pro, no se dispone de esa flexibilidad. En su lugar, se puede elegir entre Brillo, Tono Equilibrado y Rango Vocal. Estos ajustes son bastante intuitivos. Y lo que es más importante, se puede ajustar la intensidad de cada preajuste de audio en estos niveles.

    Estos ajustes producen una diferencia perceptible en la experiencia auditiva. Al escuchar Kaminh de Jony & Emin, se aprecia claramente una mejora en la claridad de la voz al pasar del preajuste Equilibrado al Rango Vocal, especialmente cuando está configurado en nivel Moderado o Fuerte.

    Por el contrario, si escuchas pistas instrumentales con un tempo lento y bajos delicados, la mejor experiencia se obtiene al activar el preajuste Brillante, pero con el nivel Bajo. Aumentar la intensidad dificulta la claridad instrumental, por ejemplo, en Lost but Won de Hans Zimmer.

    El enfoque principal se centra en los ajustes de frecuencias medias y altas, lo que significa que las voces y los instrumentos de percusión serán los más beneficiados. Si prefieres pistas con graves potentes, mantén el perfil Equilibrado en nivel Bajo. Pero estos ajustes no solo sirven para escuchar música.

    También puedes aplicarlos a las llamadas. Si usas los AirPods Pro principalmente para llamadas, el ajuste preestablecido de Rango Vocal en Alto mejora notablemente la claridad de las llamadas de voz y video, ya que prioriza el audio del interlocutor y reduce el ruido ambiental.

    La pieza final del rompecabezas es la configuración de audio personalizada. Este es el nivel más profundo de personalización que ofrece Apple, ya que tiene en cuenta la capacidad auditiva natural de cada persona.

    Si ya te has sometido a una prueba de audición, aquí puedes subir un audiograma y personalizar el sonido según tus necesidades. También puedes omitir el audiograma y escuchar dos versiones de una melodía de prueba para elegir la que más te guste.

    Los AirPods Pro ajustarán el perfil de sonido automáticamente según si prefieres un sonido más suave o una mayor claridad instrumental. Ten en cuenta que, al configurar el audio personalizado, se desactivan las opciones de ajuste de auriculares.

    Control profundo sobre la transparencia

    Los AirPods Pro destacan por su cancelación de ruido y su transparencia. Durante mucho tiempo, usé el modo predeterminado, cambiando entre los distintos modos con una pulsación prolongada en el auricular. Sin embargo, la calidad del sonido ambiente depende en gran medida del entorno. En resumen, no existe una solución universal.

    Empecé a escribir este artículo sentado en una cafetería abarrotada del aeropuerto y terminé la segunda mitad en un asiento del avión, justo al lado del motor. El modo de cancelación de ruido hizo un trabajo fantástico al ahogar el ruido del motor, dejando solo un zumbido constante.

    Pero mientras estaba sentado en la cafetería, también me preocupaba mucho perderme anuncios cruciales, ya que mi vuelo ya estaba retrasado y seguía posponiéndose hasta que pasaron más de nueve horas de su hora de salida prevista.

    Aquí es donde entran en juego las opciones de personalización del Modo Transparencia. De hecho, hay muchas, cada una adaptada a un nivel de ruido ambiental y una situación acústica únicos. La primera es la Amplificación .

    En términos más sencillos, realza ciertas frecuencias que llegan al canal auditivo. Esto resulta útil en situaciones donde no se puede prescindir del silencio absoluto que ofrece la cancelación activa de ruido, pero tampoco se quiere perder señales sonoras importantes, como los anuncios por micrófono.

    En pocas palabras, esto sirve para situaciones en las que se quiere enmascarar el ruido ambiental con un poco de música, asegurándose al mismo tiempo de que ciertos sonidos, especialmente los que provienen de la distancia, se capturen correctamente incluso después de que se bloquee su trayectoria de entrada directa.

    En el extremo opuesto se encuentra otro control deslizante llamado Reducción de Ruido Ambiental . Este utiliza un método más drástico para permitir el paso de todo el conjunto de frecuencias de ruido externo. Funciona mejor cuando se ajusta al máximo y el control deslizante de la aplicación se encuentra aproximadamente a la mitad.

    De este modo, puedes lograr aislar el ruido exterior sin dejar de percibir señales sonoras importantes. En pocas palabras, es la cancelación de ruido. Incluso puedes elegir el grado de transparencia.

    El modo "Oscuro" silencia los ruidos inmediatos, pero permite percibir las frecuencias lejanas. Es una forma mucho más sutil y silenciosa de percibir el entorno, y es mi preferida. El modo "Brillante" hace que todas las frecuencias del entorno entren en el canal auditivo, lo que puede resultar abrumador. Ambos sistemas funcionan de maravilla.

    Aunque me sumergí en un estado de concentración absoluta mientras escuchaba música persa, pude oír con claridad las alertas del intercomunicador y los anuncios del vuelo. Además, puedes ajustar el enfoque de transparencia y elegir si el AirPod Pro izquierdo o el derecho deja pasar más sonido ambiente.

    Tras pasar varias semanas atrapado en autobuses abarrotados, cafés con música folk a todo volumen y mercados bulliciosos, me he dado cuenta de que los AirPods Pro ofrecen más flexibilidad de la que uno esperaría. Y si tomas algunas precauciones adicionales, te depararán algunas gratas sorpresas.

  • Amazon cuenta con una nueva herramienta de IA que puede traducir libros de Kindle.

    Amazon cuenta con una nueva herramienta de IA que puede traducir libros de Kindle.

    ¿Qué ha pasado? Amazon ha lanzado Kindle Translate , una función con inteligencia artificial que permite a los autores publicar sus libros al instante en nuevos idiomas. Así, los escritores ya no tendrán que contratar a un traductor ni esperar a que se realicen las correcciones. La herramienta está actualmente en fase beta para los usuarios de Kindle Direct Publishing (KDP) y, por ahora, admite traducciones entre inglés y español, así como de alemán a inglés.

    • Los autores pueden subir sus libros, elegir un idioma de destino, revisar la traducción, fijar el precio y publicarlos en pocos días.
    • Los libros Kindle traducidos con esta herramienta podrán optar a KDP Select y Kindle Unlimited .
    • Amazon afirma que todas las traducciones serán revisadas automáticamente por IA para comprobar su precisión antes de su publicación.
    • Cada libro traducido mostrará una etiqueta de “Kindle Translate” para que los lectores sepan que se trata de una traducción realizada con IA.

    Esto es importante porque: hasta ahora, menos del 5 % de los títulos en Amazon estaban disponibles en más de un idioma. Kindle Translate soluciona este problema al hacer que el proceso de traducción sea rápido, gratuito e integrado directamente en la plataforma.

    • Ahora los autores pueden llegar a nuevas audiencias sin pagar por traducciones manuales.
    • Los lectores tienen acceso a más libros Kindle en su idioma preferido.
    • El servicio es gratuito, lo que iguala las condiciones para los autores independientes que antes tenían dificultades para costear traducciones fiables.

    ¿Por qué es importante? Esta medida podría cambiar la forma en que los libros viajan a través de las fronteras.

    • Para autores y lectores, esto abre un alcance y acceso global.
    • También es una oportunidad para que los autores amplíen su número de lectores y sus regalías sin esfuerzo adicional.
    • Para la industria, este movimiento señala cómo la IA está transformando silenciosamente el trabajo creativo, desde la escritura hasta la traducción y la publicación.

    Bien, ¿y ahora qué? La función se está implementando gradualmente, comenzando con los autores de KDP en EE. UU.

    • Los autores que utilizan KDP deben revisar sus paneles de control para ver si hay invitaciones o avisos de suscripción a Kindle Translate.
    • Amazon afirma que pronto se añadirán más opciones de idioma.
    • Si eres lector, mantente atento a la insignia de Kindle Translate en los nuevos títulos.

  • Cuando tu cantante favorito es en realidad una serie de algoritmos

    Cuando tu cantante favorito es en realidad una serie de algoritmos

    ¿Qué pasó?: Esto es increíble. Existe una cantante generada por IA llamada Xania Monet que se convirtió en la primera artista artificial en aparecer en varias listas de éxitos de Billboard. Estamos hablando de millones de oyentes.

    • Pero esta es la verdadera historia: “Xania” no es solo un programa informático .
    • La persona detrás de la IA es una mujer de 31 años de Misisipi llamada Telisha “Nikki” Jones. Lo más sorprendente es que no es cantante en el sentido tradicional. Es poeta y aprendió a usar la IA por su cuenta hace apenas cuatro meses.
    • Ella toma sus poemas originales, que son súper personales y emotivos (especialmente aquellos inspirados en la pérdida de su padre cuando era niña), y utiliza inteligencia artificial para convertirlos en estas conmovedoras canciones.
    • Su gran éxito, "¿Cómo se suponía que debía saberlo?", arrasó en la radio y le acaba de conseguir un contrato multimillonario.

    ¿Por qué es importante?: Esto se siente como un verdadero punto de inflexión. Es uno de los primeros grandes ejemplos de la IA como herramienta o aliada, no solo como sustituto del ser humano.

    • La propia Jones afirma que ve la IA como su “herramienta e instrumento”. Es lo que le permite expresar sus emociones y sus palabras al mundo en forma de música.
    • La compañía que la contrató básicamente dijo que este es el futuro. Es una forma de derribar todas las viejas barreras en la industria musical.
    • Con la IA, no importa la edad que tengas, tu aspecto ni si tienes los contactos adecuados.

    ¿Por qué debería importarme?: Es oficial: la IA ya no es solo para fanáticos de la tecnología en un laboratorio; está llegando a todos los públicos .

    • Toda esta historia trastoca por completo tu idea de lo que significan "talento" y "autenticidad". ¿Es arte de verdad si la persona no lo canta físicamente?
    • También demuestra que esta tecnología no tiene por qué limitarse a automatizar empleos. De hecho, puede abrir puertas a personas que quizás nunca hubieran tenido una oportunidad.
    • Pero al mismo tiempo, sin duda está alimentando ese gran debate: muchos artistas, como Kehlani, están comprensiblemente preocupados porque este tipo de cosas representan una amenaza para la verdadera expresión creativa .

    ¿Qué sigue?: Jones dice que esto es solo el comienzo.

    • Su plan es seguir desarrollando a Xania Monet como avatar y símbolo de empoderamiento.
    • Puedes tener la absoluta certeza de que todas las grandes discográficas están siguiendo esta situación muy de cerca. Esto podría, sinceramente, redefinir lo que significa hacer —y sentir— música.