La startup desarrolla, desde una fecha tan temprana como 2018, herramientas de generación de vídeo con IA que se han expandido del cine a sectores como la arquitectura o los videojuegos

Cuatro años antes de la aparición de ChatGPT, tres compañeros de máster de la Tisch School of the Arts, de la Universidad de Nueva York, se unieron para aplicar las redes neuronales a la creación de imágenes en vídeo. De ahí nació Runway, que fue la primera en lanzar una herramienta de generación de vídeo con inteligencia artificial (IA) a los circuitos comerciales. Lo hizo un año y medio antes que la primera versión de Sora, de OpenAI, y de Google Veo 2, llegadas casi a la par.

Cristóbal Valenzuela (Santiago de Chile, 1989) es uno de los miembros de esta terna de fundadores y el CEO de Runway. En la Web Summit, celebrada en Lisboa, pronosticó una expansión radical del vídeo generado con IA. Pero si los modelos de generación de texto plantean interrogantes sobre sus horizontes, con los de generación de vídeo las dudas se multiplican.

Pregunta. Sus herramientas de generación de vídeo ya están presentes en la industria audiovisual, ¿para qué se utilizan?

Respuesta. Hay muchos casos de usuarios que usan Runway para editar, modificar o generar escenas en la producción cinematográfica, sobre todo en proyectos que van a la gran pantalla, y también para procesos de postproducción. Si tienes una escena y quieres agregar un efecto o modificar algún elemento, eso lo puedes generar ahora con Runway y después llevarlo a tu programa de edición tradicional.