La última actualización de Runway ya está produciendo resultados alucinantes
La gente también se está divirtiendo con la generación de video a video de Runway, que se lanzó el 13 de septiembre. Básicamente, la función le permite transformar radicalmente el estilo visual de un videoclip determinado mediante indicaciones de texto.
Mire el vídeo a continuación para ver un ejemplo sorprendente de lo que es posible.
Runway Gen-3 Alpha acaba de subir de nivel con Video-to-Video
Ahora puedes transformar el estilo de cualquier vídeo usando solo indicaciones de texto con una calidad asombrosa.
10 ejemplos alocados de lo que es posible: pic.twitter.com/onh12zCzpI
– Min Choi (@minchoi) 15 de septiembre de 2024
Los entusiastas de la IA también están produciendo impresionantes efectos visuales que se pueden mostrar en los auriculares Vision Pro de Apple, lo que nos da una pista potencial de lo que podrán lograr los desarrolladores que aprovechen la API recientemente anunciada .
El usuario de X (anteriormente Twitter) , Cristóbal Valenzuela, publicó un breve clip en el sitio de redes sociales el lunes mostrando las capacidades combinadas de Gen-3 y Apple Vision Pro.
Primeros experimentos renderizando Gen-3 sobre Apple Vision Pro, realizados por @Nymarius_ pic.twitter.com/SiUNR0vX0G
– Cristóbal Valenzuela (@c_valenzuelab) 15 de septiembre de 2024
El vídeo muestra un espacio de oficina de planta abierta con una superposición generada que hace que la habitación parezca ruinas de una jungla profunda. Algunos usuarios no estaban convencidos de la veracidad del video, pero según la publicación, fue generado por alguien que realmente trabaja en Runway .
El usuario de Twitter y creador de contenidos Cosmo Scharf mostró efectos similares en su publicación, además de proporcionar evidencia visual adicional para respaldar sus afirmaciones.
¡El video a video Gen-3 Alpha es extraordinario!
Aquí hay una prueba de Vision Pro.
Un día esto se ejecutará en tiempo real en gafas de realidad mixta y su mundo nunca volverá a ser el mismo. #VisionHack pic.twitter.com/GTgartg5ry
– Cosmo Scharf ᯅ (@cosmoscharf) 15 de septiembre de 2024
Runway anunció el lunes el lanzamiento de una nueva API que permitirá a los desarrolladores agregar capacidades de generación de video a una variedad de dispositivos y aplicaciones, aunque, según se informa, existen algunas restricciones sobre quién puede acceder realmente a la API. Por un lado, por el momento solo tiene un lanzamiento limitado, pero puedes registrarte en una lista de espera aquí . También deberá ser suscriptor del plan Build o Enterprise. Una vez que se le conceda acceso, solo podrá aprovechar la iteración del modelo Gen-3 Alpha Turbo, que es un poco menos capaz que el modelo insignia Gen-3 Alpha de la compañía.
La empresa planea cobrar un centavo por crédito de generación para utilizar el servicio. Para ponerlo en contexto, un solo segundo de generación de video cuesta cinco créditos, por lo que, básicamente, los desarrolladores pagarán 5 centavos por segundo de video. Los desarrolladores también deberán "mostrar de manera destacada" un banner "Desarrollado por Runway" que enlace al sitio web de la empresa en cualquier interfaz que solicite la API.
Mientras que el espacio de generación de videos comerciales se vuelve cada vez más concurrido (con Firefly de Adobe , el próximo Sora de Meta, el generador de video AI de Canva, Kling de Kuaishou Technology y Video-01 de Minimax, por nombrar solo algunos), Runway se está distinguiendo por ser uno de los primero en ofrecer sus modelos como API. Queda por ver si esto será suficiente para recuperar los exorbitantes costes de formación de la empresa y llevarla a la rentabilidad.