Blog

  • Netflix está a punto de parecerse más a las redes sociales con la llegada de un feed vertical.

    Netflix está a punto de parecerse más a las redes sociales con la llegada de un feed vertical.

    Tu aplicación de Netflix está a punto de renovarse para las redes sociales. El gigante del streaming confirmó en su informe de resultados del primer trimestre de 2026 a los accionistas que una aplicación móvil rediseñada con un feed de descubrimiento de vídeos vertical llegará a finales de abril. «Este rediseño reflejará mejor nuestra creciente oferta de entretenimiento y facilitará a los suscriptores la interacción cuando y como quieran», se lee en el informe.

    ¿Cómo utiliza Netflix el vídeo vertical para ayudarte a encontrar tu próxima película o serie para ver?

    Netflix probó una versión preliminar de esta función a principios de 2025 , pero su implementación fue limitada. Durante la fase beta, el feed vertical de descubrimiento de videos mostraba clips y tráileres desplazables de series y películas de Netflix directamente en la pantalla de inicio de la aplicación.

    Puedes tocar un clip para empezar a verlo directamente, añadir un título a tu lista de seguimiento o compartirlo con alguien. Esta función está disponible en todos los planes de suscripción y abarca contenido de diversos géneros, no solo comedia como la antigua sección Fast Laughs de Netflix.

    El vídeo vertical de formato corto se está convirtiendo rápidamente en la herramienta preferida de la industria del streaming para mantenerte enganchado al móvil. Y Netflix no es la única que implementa la transmisión de vídeo vertical. Disney+ lanzó recientemente Verts , una transmisión vertical con clips de películas y series que se puede deslizar en su aplicación móvil. Peacock fue aún más allá, añadiendo retransmisiones verticales de la NBA con inteligencia artificial y una sección llamada Your Bravoverse guiada por un avatar digital de Andy Cohen.

    ¿Qué otras novedades hay ahora mismo en Netflix?

    Además del contenido vertical, la plataforma de streaming también lanza Netflix Playground, una aplicación de juegos independiente diseñada para niños de hasta 8 años. Su uso es gratuito con tu suscripción actual a Netflix y no contiene anuncios ni compras dentro de la aplicación.

    Los juegos con Peppa Pig, Elmo y otros personajes conocidos están disponibles al instante, incluso sin conexión a internet. Playground ya está disponible en Estados Unidos, Canadá, Reino Unido, Australia, Filipinas y Nueva Zelanda, y su lanzamiento mundial está previsto para el 28 de abril.

  • Los exclusivos coches Signature Edition de Tesla vienen con una trampa de reventa.

    Los exclusivos coches Signature Edition de Tesla vienen con una trampa de reventa.

    Tesla está imponiendo límites inusuales a algunos de sus coches más caros. Los compradores invitados a adquirir los modelos Signature Edition S y X deben comprometerse a no revenderlos durante el primer año, y las consecuencias económicas por incumplir este acuerdo podrían ser graves.

    El acuerdo permite a Tesla reclamar 50.000 dólares en concepto de daños y perjuicios, o el importe total de la reventa, lo que sea mayor. También le da a la empresa la posibilidad de intervenir antes de que se cierre la venta, ya sea recomprando el vehículo bajo condiciones preestablecidas o intentando impedir la transferencia de titularidad.

    Esto es importante porque Tesla está vendiendo estos autos como una verdadera despedida. Planea fabricar 250 sedanes Model S Signature Edition y 100 SUV Model X, todos en color Rojo Granate con detalles dorados, tapicería de Alcantara blanca y placas numeradas. Con un precio de 159.420 dólares cada uno, el paquete parece diseñado para atraer a compradores que valoran la exclusividad como parte de su atractivo.

    Las restricciones van más allá

    Las condiciones de Tesla no solo prohíben la reventa, sino que también impiden que los propietarios intenten vender el vehículo durante el primer año posterior a la entrega. Si alguien necesita deshacerse del coche antes de tiempo, Tesla exige una notificación por escrito y una oportunidad razonable para recomprarlo.

    El proceso de recompra tiene condiciones. Tesla partiría del precio de compra original, deduciría 25 centavos por cada milla recorrida, consideraría el desgaste y restaría lo que considere necesario para que el auto cumpla con sus estándares de vehículo usado. Incluso si Tesla se niega a comprarlo, cualquier venta a un tercero requiere aprobación por escrito.

    Este no es el primer intento

    Tesla intentó una estrategia similar para evitar la reventa especulativa con el lanzamiento de la Cybertruck a finales de 2023. Esa política generó críticas y finalmente desapareció a medida que mejoró la oferta y las primas de reventa disminuyeron.

    En esta ocasión, el argumento de la escasez es más sólido, ya que solo se planean 350 de estos vehículos.

    Eso no hace que la política parezca menos agresiva, pero sí explica por qué Tesla está intentando controlar el mercado de reventa anticipada.

    ¿Qué sucede después?

    La cuestión más importante es si Tesla hará cumplir realmente el acuerdo. El lenguaje contractual puede parecer estricto sobre el papel, pero la amenaza más real podría ser perder el acceso a futuras compras exclusivas por invitación, en lugar de una batalla legal pública.

    Para los compradores, esto convierte la Signature Edition en algo más que una despedida de alto precio. También es una prueba de cuánto control cree Tesla que puede mantener después de la venta y cuánto están dispuestos a aceptar los coleccionistas a cambio de la exclusividad.

  • Este gorro convierte tus pensamientos en texto, y es el accesorio menos molesto que he visto en años.

    Este gorro convierte tus pensamientos en texto, y es el accesorio menos molesto que he visto en años.

    Un nuevo dispositivo portátil con la apariencia de un gorro sencillo podría cambiar pronto la forma en que las personas interactúan con las computadoras. Desarrollado por la empresa emergente Sabi, de Silicon Valley, el prototipo utiliza tecnología de interfaz cerebro-computadora (BCI) para convertir el habla interna del usuario en texto, permitiéndole, en la práctica, "escribir" con sus pensamientos.

    Según un informe de WIRED , el dispositivo está diseñado para ser uno de los dispositivos portátiles de tecnología cerebral menos intrusivos hasta la fecha, evitando el aspecto voluminoso y futurista de muchos auriculares experimentales. En cambio, se integra con la ropa cotidiana, lo que lo hace más práctico para el uso diario.

    Un dispositivo portátil que escucha tus pensamientos.

    El gorro funciona mediante electroencefalografía (EEG), un método no invasivo que registra las señales eléctricas del cerebro a través del cuero cabelludo. A diferencia de los sistemas basados ​​en implantes, como los que están desarrollando empresas como Neuralink, el método de Sabi no requiere cirugía.

    El objetivo es detectar el «lenguaje interno» —las palabras que la gente piensa pero no pronuncia— y convertirlas en texto en un dispositivo conectado. De tener éxito, esto permitiría a los usuarios comunicarse o controlar dispositivos sin hablar ni escribir.

    Para mejorar la precisión, el gorro incluye decenas de miles de sensores en miniatura, muchos más que los dispositivos EEG tradicionales. Esta detección de alta densidad está diseñada para capturar señales neuronales más detalladas, lo que ayuda al sistema a interpretar mejor los pensamientos del usuario.

    Por qué este enfoque es importante

    Las interfaces cerebro-computadora no son nuevas, pero la mayoría de los sistemas existentes se dividen en dos categorías: implantes invasivos o hardware externo voluminoso. Ambos enfoques han limitado su adopción generalizada debido a los riesgos médicos, el costo o las dificultades de uso.

    El gorro de Sabi se distingue por su enfoque en la comodidad y la accesibilidad. El dispositivo está diseñado para funcionar de inmediato sin necesidad de calibración diaria, lo cual ha sido una limitación importante para muchos sistemas BCI.

    Los primeros objetivos apuntan a velocidades de escritura de alrededor de 30 palabras por minuto, con la posibilidad de mejorar a medida que los usuarios se familiaricen con el sistema.

    Esto podría abrir nuevas posibilidades de uso, desde herramientas de accesibilidad para personas con discapacidad hasta informática manos libres para usuarios cotidianos.

    Los desafíos de leer la mente

    A pesar de su potencial, la tecnología se enfrenta a importantes obstáculos. Las señales cerebrales varían mucho entre individuos, e incluso un mismo pensamiento puede producir patrones neuronales ligeramente diferentes cada vez.

    Para abordar este problema, Sabi está desarrollando un modelo de IA a gran escala entrenado con miles de horas de datos cerebrales recopilados de voluntarios. El objetivo es identificar patrones que correspondan al habla interna de diferentes usuarios.

    Sin embargo, los expertos advierten que la "lectura de la mente" sigue siendo un concepto complejo y a menudo exagerado. Los sistemas actuales pueden decodificar patrones o comandos limitados, pero traducir el pensamiento continuo y natural a texto sigue siendo un desafío en constante evolución.

    Privacidad y cuestiones éticas

    Una de las mayores preocupaciones en torno a esta tecnología es la privacidad. Los datos neuronales son profundamente personales y podrían revelar pensamientos, intenciones y patrones cognitivos.

    Sabi afirma que está abordando este problema cifrando los datos y colaborando con expertos en neuroseguridad para garantizar un manejo seguro. Sin embargo, es probable que el debate sobre los derechos de los datos cerebrales y su uso ético se intensifique a medida que estos dispositivos se acerquen a su comercialización.

    ¿Qué sigue?

    La empresa tiene previsto lanzar la primera versión para el consumidor del gorro, y una variante con gorra, a finales de 2026.

    De tener éxito, el dispositivo podría representar un cambio hacia interfaces cerebro-computadora más sutiles y cotidianas que se integren a la perfección en la vida diaria.

    Por ahora, la idea de escribir con el pensamiento puede parecer futurista. Pero con dispositivos como este gorro, ese futuro empieza a verse mucho más accesible y menos intrusivo.

  • No esperaba que los vídeos de comida me ayudaran con mi dieta, pero podrían hacerlo.

    No esperaba que los vídeos de comida me ayudaran con mi dieta, pero podrían hacerlo.

    Un nuevo estudio dirigido por investigadores de la Universidad de Bristol ha descubierto que las personas que intentan resistir los antojos de comida podrían estar utilizando contenido de redes sociales con imágenes de comidas apetitosas como sustituto de comerlas realmente. Los hallazgos cuestionan la creencia arraigada de que la exposición a imágenes de comida tentadora conduce a comer en exceso.

    La investigación, realizada en colaboración con la Escuela de Administración de la Universidad de Buffalo, exploró cómo la interacción visual con contenido alimentario influye en los hábitos alimenticios. A través de tres experimentos con 840 participantes de entre 19 y 77 años, los investigadores combinaron encuestas en línea con un estudio de laboratorio controlado para examinar cómo responden las personas a los medios de comunicación relacionados con la comida.

    La exposición visual puede reducir el consumo real.

    En uno de los experimentos, se mostraron a los participantes vídeos cortos, al estilo de las redes sociales, con postres de chocolate tanto altos como bajos en calorías. Las personas a dieta dedicaron aproximadamente un 30 % más de tiempo a ver opciones indulgentes en comparación con las personas que no estaban a dieta.

    Sin embargo, cuando posteriormente tuvieron acceso a chocolate real, el mismo grupo consumió significativamente menos que aquellos que no estaban a dieta. Esto sugiere que interactuar visualmente con la comida puede reducir el deseo de consumirla en la realidad.

    La autora principal, Esther Kang, explicó que este comportamiento refleja una forma de “búsqueda digital”, en la que las personas utilizan contenido visual para satisfacer antojos sin consumirlos físicamente. En lugar de provocar atracones, las imágenes pueden actuar como un sustituto psicológico.

    El papel de la “saciedad intermodal”

    Un segundo experimento reforzó estos hallazgos. Los participantes fueron expuestos a videos de alimentos poco saludables como pizza, hamburguesas y papas fritas, junto con opciones más saludables como ensaladas y batidos. Las personas a dieta mostraron nuevamente una clara preferencia por ver alimentos altos en calorías, dedicando hasta un 50 % más de tiempo a este tipo de contenido.

    A pesar de esto, el aumento de la exposición no se tradujo en un mayor consumo. Los investigadores atribuyen esto a un concepto conocido como saciedad intermodal, en el que el cerebro satisface parcialmente los antojos a través de experiencias sensoriales como la vista, en lugar del gusto.

    El coautor Arun Lakshmanan señaló que el consumo visual puede, en algunos casos, reducir las ganas de comer, ofreciendo una perspectiva diferente sobre cómo el contenido digital influye en el comportamiento.

    Por qué estos hallazgos son importantes

    Los resultados son significativos dada la magnitud de las dietas y los esfuerzos para controlar el peso a nivel mundial. El estudio destaca que alrededor del 60 % de las mujeres y el 40 % de los hombres en Estados Unidos intentan activamente controlar su peso, lo que contribuye a una industria global de pérdida de peso valorada en más de 250 mil millones de dólares.

    Tradicionalmente, se ha considerado que la exposición a la publicidad y las imágenes de alimentos influye en los hábitos alimenticios poco saludables. Sin embargo, esta investigación sugiere que la relación entre el contenido visual y el consumo es más compleja.

    Para las personas que intentan controlar su dieta, las redes sociales podrían servir como una herramienta accesible y de bajo costo para ayudar a regular los antojos sin necesidad de evitar estrictamente el contenido tentador.

    Qué significa esto para los usuarios cotidianos

    Para los usuarios cotidianos, los resultados sugieren que navegar por contenido relacionado con la comida no siempre es contraproducente. En algunos casos, podría ayudar a reducir la probabilidad de comer en exceso, especialmente para quienes intentan controlar conscientemente sus hábitos alimenticios.

    Sin embargo, los investigadores advierten que la exposición visual no sustituye por completo la alimentación y no debe considerarse una solución aislada. Su eficacia puede variar según los hábitos individuales, el autocontrol y el contexto.

    ¿Qué sigue?

    Los investigadores planean explorar cómo se aplican estos hallazgos a diferentes tipos de contenido alimentario y plataformas digitales. Futuros estudios también podrían examinar cuánto duran los efectos de la saciedad visual y si se observan patrones similares en entornos reales, más allá de los experimentos controlados.

    A medida que los medios digitales siguen moldeando el comportamiento cotidiano, el estudio plantea nuevas preguntas sobre cómo actividades aparentemente pasivas, como ver vídeos de comida, pueden influir en la toma de decisiones de maneras sutiles pero significativas.

  • Este próximo teléfono convertirá tus fotos en vídeos más rápido y sin los fallos habituales de la IA.

    Honor se prepara para lanzar la serie Honor 600 la próxima semana, y si bien las especificaciones de hardware parecen prometedoras, el software podría ser la verdadera estrella. Partiendo de la base establecida por la serie Honor 400 , sobre la cual los usuarios generaron más de 13,4 millones de segundos de video con IA , Honor presentará una versión mejorada de su función de conversión de imagen a video con IA en los próximos dispositivos.

    Inteligencia artificial integrada en el dispositivo para una mayor privacidad y velocidad.

    Honor Image to Video 2.0 utiliza un modelo unificado de generación de video multimodal que se ejecuta completamente en el dispositivo. A diferencia de las herramientas basadas en la nube, que pueden ser lentas o generar preocupaciones sobre la privacidad, este motor procesa todo localmente. Además, Honor afirma que el flujo de trabajo es bastante sencillo, lo que facilita que los usuarios comiencen a usarlo.

    Con esta función, podrás proporcionar a la IA entre una y tres imágenes de referencia y usar comandos en lenguaje natural para describir la escena. Puedes dictar acciones específicas o dejar que la IA complete los espacios en blanco entre un fotograma inicial y uno final. La función generará un clip de entre 3 y 8 segundos que, según se informa, se verá menos como una presentación de diapositivas y más como un video producido profesionalmente.

    Cómo Honor está solucionando los fallos técnicos

    Uno de los mayores obstáculos para el vídeo generativo es la coherencia visual. La IA suele cometer errores al intentar renderizar objetos desde diferentes ángulos, lo que provoca distorsiones o fallos. Honor afirma haber solucionado este problema con la construcción de sujetos desde múltiples ángulos. Al comprender la estructura 3D de un sujeto a partir de imágenes 2D, el modelo mantiene la coherencia incluso durante movimientos de cámara complejos.

    Para principiantes, la serie Honor 600 también ofrecerá plantillas para técnicas cinematográficas profesionales, como el zoom de Hitchcock, el efecto de tiempo bala y los efectos de transformación del mundo. Y para garantizar que la herramienta no quede oculta en la configuración, los dispositivos contarán con un botón físico dedicado para la IA.

    A tan solo una semana de su presentación, Honor está posicionando claramente la serie 600 como un estudio de producción portátil, en lugar de un simple teléfono insignia asequible. Aún está por verse cómo se comporta en la práctica la función actualizada de conversión de imagen a video con IA 2.0.

  • Canva ahora se integra con tus aplicaciones de trabajo para que puedas hacer más sin salir de la plataforma.

    Canva ahora se integra con tus aplicaciones de trabajo para que puedas hacer más sin salir de la plataforma.

    Además de presentar un nuevo flujo de trabajo de diseño conversacional impulsado por IA , Canva anunció hoy que se expande más allá del diseño con integraciones que buscan ayudar a los usuarios a acceder a información de herramientas de productividad de uso común sin salir de la plataforma. La actualización Canva AI 2.0 se centra en reducir la necesidad de cambiar entre aplicaciones al crear y administrar proyectos.

    Extraer datos de las aplicaciones conectadas

    Gracias a los nuevos conectores, los usuarios pueden vincular Canva con servicios como Slack, Gmail, Google Drive, Google Calendar, Zoom y Notion. Esto permite que su inteligencia artificial extraiga información contextual de conversaciones, archivos y agendas para generar contenido relevante.

    Por ejemplo, los usuarios pueden convertir transcripciones de reuniones en resúmenes, hilos de correo electrónico en documentos estructurados o generar boletines informativos basados ​​en la actividad del equipo en Slack. Los conectores buscan simplificar la transferencia de información entre aplicaciones y garantizar que no se pierda nada importante en el proceso. Al mantener todo en una única interfaz, la plataforma también busca optimizar los flujos de trabajo y ahorrar tiempo.

    Otras herramientas de IA ya ofrecen funcionalidades similares, capaces de extraer contexto de documentos y conversaciones en aplicaciones conectadas. Sin embargo, el enfoque de Canva integra esta función directamente en la creación de contenido, permitiendo a los usuarios actuar en función de esa información sin salir de la plataforma.

    El contenido se mantiene coherente y estructurado en todas las tareas.

    Canva también incorpora una función de investigación web integrada, que permite a los usuarios recopilar y estructurar información de toda la web directamente en sus proyectos. Además, una nueva función de «Inteligencia de marca» garantiza que todo lo que el usuario genere se ajuste al estilo, el tono y la identidad visual de su marca, reduciendo la necesidad de ediciones manuales.

    Además, la nueva función "Hojas de cálculo con IA" permite generar hojas de cálculo estructuradas con datos relevantes, desde cronogramas de proyectos hasta calendarios de contenido. Estas hojas vienen prellenadas y formateadas, listas para usar sin necesidad de configuración. En conjunto, estas funciones buscan transformar Canva de una simple herramienta de diseño a un espacio de trabajo más unificado, donde la creación de contenido, los datos y el contexto están conectados en lugar de estar dispersos en varias aplicaciones.

    Canva AI 2.0 se lanza hoy como una versión preliminar para investigación, disponible para el primer millón de usuarios que la descubrieron en la página principal de Canva. La compañía afirma que el acceso se ampliará a más usuarios en las próximas semanas.

  • Esta IA permite que los coches autónomos “recuerden” los trayectos anteriores para planificar rutas más seguras.

    Esta IA permite que los coches autónomos “recuerden” los trayectos anteriores para planificar rutas más seguras.

    Uno de los mayores problemas de los sistemas de conducción autónoma es que, si bien pueden ver perfectamente la carretera, toman decisiones precipitadas a corto plazo en el caótico tráfico urbano. Los sistemas avanzados tienen dificultades para adaptarse a situaciones viales complejas y cambiantes. Sin embargo, un nuevo estudio sostiene que estos vehículos no necesitan mejor visión, sino mejor memoria.

    En el artículo revisado por pares KEPT (Knowledge-Enhanced Prediction of Trajectories from Consecutive Driving Frames with Vision-Language Models) , investigadores de la Universidad de Tongji y colaboradores desarrollaron un sistema que ayuda a los vehículos autónomos a "recordar" escenas de conducción pasadas antes de elegir qué hacer a continuación.

    ¿Cómo funciona esta nueva tecnología de conducción autónoma?

    El método, llamado KEPT, utiliza vídeo de la cámara frontal, lo compara con una amplia biblioteca de grabaciones de conducción reales anteriores y predice una trayectoria a corto plazo más segura basándose tanto en la escena actual como en ejemplos recuperados del pasado. La idea principal es bastante intuitiva. En lugar de pedirle a un modelo de IA que reaccione a cada situación como si nunca hubiera visto nada parecido, KEPT le permite recordar momentos similares de conducción previa.

    Estos ejemplos se introducen en un modelo de lenguaje visual como parte de un proceso de razonamiento estructurado. Esto es importante, ya que los investigadores afirman que, de lo contrario, los modelos de lenguaje visual complejos pueden generar ilusiones, ignorar las limitaciones físicas o sugerir movimientos que parecen plausibles en teoría, pero que no son adecuados para un automóvil real. Por lo tanto, KEPT actúa básicamente como una guía para mantener el modelo basado en cómo se ven situaciones de tráfico similares en el mundo real.

    ¿Es mejor que los sistemas autónomos convencionales?

    Los investigadores probaron KEPT en el ampliamente utilizado benchmark nuScenes y afirmaron que superó tanto a los sistemas de planificación integrales convencionales como a los planificadores más recientes basados ​​en lenguaje de visión en métricas de bucle abierto. Incluso logró reducir el error de predicción y disminuir los indicadores de colisión potenciales, manteniendo al mismo tiempo una recuperación lo suficientemente rápida como para ser práctica para la conducción en tiempo real.

    Esto podría hacer que parezca una opción obvia para los coches autónomos de próxima generación, pero aún no está listo para circular. Aun así, la idea general es atractiva. Si los coches autónomos pueden combinar la percepción en tiempo real con un recuerdo significativo de cómo se desarrollaron situaciones similares anteriormente, podrían llegar a tomar decisiones menos precipitadas y más humanas.