Buscador
Ver el sitio sin publicidad Suscríbete a la revista
Artículos

IA en el cine: ¿Cómo se usa y hasta dónde puede llegar?

05-02-2025, 12:07:20 PM Por:
IA en el cine: ¿Cómo se usa y hasta dónde puede llegar?

Algunos le tienen miedo y otros se muestran sorprendidos. Lo único cierto es que esta herramienta ya es ampliamente usada, y en formas inimaginables

Para muchas industrias, el uso de la inteligencia artificial (o IA) es un camino muy claro hacia el futuro. Pero, ¿qué pasa en el cine? ¿se puede crear arte a partir de una herramienta que emula la capacidad humana? Dichas preguntas se han vuelto más importantes para la industria cinematográfica a medida que la IA se vuelve más omnipresente. Si bien, esta ofrece numerosos beneficios, también genera importantes dudas sobre la autoría, la originalidad, y el papel de los humanos en su uso. Sin importar qué opinen de ella, la IA ya está presente en el cine, y ha generado un sonoro impacto gracias a sus alcances.

En la preproducción

Desarrollar una película, incluso una que resulte mala, no es sencillo. El proceso de preproducción puede convertirse en una pesadilla, pues involucra desde la concepción de la idea a contar, hasta la elección de actores, locaciones y todos los elementos que se ven en pantalla. Para facilitar un poco dichas labores, algunos estudios utilizan softwares capaces de generar retroalimentación sobre las ideas, e incluso predecir éxitos o fracasos. No son pocos los estudios que deciden hasta fechas de estreno gracias a la retroalimentación que da el aprendizaje automático.

Guiones

Hace algunos años se reveló que 20th Century Studios, ahora propiedad de Disney, utilizó inteligencia artificial para analizar un borrador del guion de Logan: Wolverine y determinar si algunos elementos respecto al guion eran correctos o carecían de verosimilitud. El caso de esta película es particular, pues pertenece a una franquicia conocida, y antes de su estreno ya se tenía proyectado un éxito financiero.

hugh jackman en logan
IA en el cine: ¿Cómo se usa y hasta dónde puede llegar?

Cabe mencionar que, durante las huelgas de 2023, los guionistas mostraron preocupación por el uso de IA en su área. Temían que, ante el desarrollo de inteligencias artificiales generativas, la labor de los humanos pudiera quedar relegada. Afortunadamente, se llegó a un acuerdo para que no se utilizara la herramienta en niveles que pusieran en peligro el trabajo de otros. En contraste, realizadores como Paul Schrader (First Reformed), han sugerido que su uso es efectivo:

“Cada idea que se le ocurrió a ChatGPT (en unos segundos) fue buena. Y original. ¿Por qué los escritores deberían sentarse durante meses buscando una buena idea cuando la IA puede proporcionarla en segundos?”, escribió en su cuenta de Facebook.

La información publicada en 2018 también reveló la existencia de Merlin, un software nutrido con información de otras películas, y que sirve, entre otras cosas, para analizar cuán exitosa será una producción o no (vía). Sus resultados, aunque no del todo definitivos, ayudaron a entender quién podría ver un determinado título. Se desconoce si Merlin aún se utiliza en las oficinas del estudio, y qué tantas producciones recientes han sido una recomendación suya.

Toma de decisiones

La IA también puede ayudar en la toma de otras decisiones. En 2020, Warner Bros anunció su colaboración con Cinelytic, una empresa tecnológica con plataformas cuyo objetivo es “informar la toma de decisiones sobre el contenido y la valoración del talento para respaldar las estrategias de lanzamiento”.

En Warner Bros se usó la inteligencia artificial para tomar decisiones respecto al marketing de Aquaman

Gracias a la información contenida, la plataforma ahorra tiempo a los ejecutivos tras las películas, y les da insights para presupuestar, dar luz verde, y tener en cuenta el posible marketing a la hora de arrancar una producción. También agrega información sobre las expectativas de taquilla, lugares que pueden servir como locación, e incluso el valor de algún actor en territorios determinados.

Cuando Warner Bros confirmó su alianza con Cinelytic, la compañía ya tenía experiencia con estudios como Ingenuos Media, Productivity Media y STX. Este último sufrió severos fracasos en taquilla con Uglydolls: Extraordinariamente feos y Playmobil: La película, por lo que necesitaba de ayuda externa para mejorar su situación.

Si un estudio sufrió de pérdidas económicas en 2024, ese fue Lionsgate. Títulos como Borderlands, El cuervo y Megalópolis, entre otros, se convirtieron en verdaderos fiascos para quienes aprobaron su realización. Ante la notoria debacle, el estudio anunció un acuerdo con Runway, compañía que desarrolló una IA de investigación. Entre los inversores de esta se encuentran Google y Nvidia, distribuidor y vendedor de hardware para IA.

La idea consiste en entrenar una IA con toda la biblioteca de producciones (para cine y televisión) del estudio, que incluye más de 20 mil títulos. A partir de ahí se genera “video cinematográfico” que sirve como referencia para directores y otro tipo de creativos en aras de aumentar su trabajo. El material obtenido puede utilizarse para tareas de producción y postproducción, lo cual ahorra millones de dólares y facilita la toma de decisiones.

“El negocio del entretenimiento es una empresa creativa, pero su crecimiento futuro requerirá una combinación de arte y ciencia. Creemos que la IA, aprovechada dentro de las barreras adecuadas, puede ser una herramienta valiosa al servicio de nuestro talento. Y creemos que, a largo plazo, tendrá un impacto transformador positivo en nuestro negocio”, dijo en un comunicado Jon Feltheimer, CEO de Lionsgate, en noviembre de 2024 (vía), cuando también se dijo que cineastas trabajando para la empresa ya utilizaban el “video cinematográfico”.

megalópolis ia lionsgate
Megalópolis, uno de los grandes fracasos de Lionsgate en 2024.

Durante el rodaje

Una manera muy común de previsualizar escenas, especialmente aquellas que requieren de un gran despliegue técnico, es el uso de storyboards. Estos son representaciones visuales de la historia y se componen de imágenes o ilustraciones (incluso dibujos) que aparecen en orden. La IA ha ganado un gran terreno en este ámbito, pues reduce los tiempos en que, usualmente, los creativos se quebraban la cabeza definiendo cómo contar un momento de la película.

Por medio de softwares especializados se crean animaciones que ayudan incluso a los diseñadores de producción y directores de fotografía para tener opciones sobre cómo filmar un momento. Los más avanzados crean escenarios en 3D, e incluso réplicas de las personas en el set, y emulan sus movimientos o lo que se ve de ellos desde distintos ángulos.

Una vez que el rodaje ha comenzado, hay mucho que la IA puede ofrecer. Durante los últimos años, esta tecnología ha llegado hasta las cámaras. Algunas tienen la habilidad para captar contenido de muy alta calidad incluso en escenarios donde el clima no favorece. Por un lado, se gana tiempo, e incluso hay menores probabilidades de que un error humano arruine la toma. Por el otro, el director o responsable de operar la cámara sigue presente en los sets, pues su labor es fundamental.

En la postproducción

Efectos visuales

Con el material filmado, hay muchas otras áreas donde se puede utilizar la inteligencia artificial. Y los efectos visuales son una de las más polémicas. Un uso bastante común es la alteración en los rostros de los actores, o el llamado “Face Swap”. En El irlandés, por ejemplo, la IA se utilizó para rejuvenecer a los protagonistas, y los efectos visuales fueron nominados al Oscar.

aquí tom hanks ia
IA en el cine: ¿Cómo se usa y hasta dónde puede llegar?

Recientemente Robert Zemeckis utilizó una tecnología similar para Aquí, protagonizada por Tom Hanks y Robin Wright. En ella también se ve a los actores con una edad mucho menor, pero los avances tecnológicos permitieron que el rejuvenecimiento fuera instantáneo. Mientras los actores estaban en el set, Zemeckis los veía en un monitor con su edad real, y en otro con muchos años menos.

Gracias a Metaphysic Live, el trabajo de rejuvenecimiento no se llevó meses enteros en la postproducción, sino que sucedía en tiempo real. Esto redujo no sólo tiempo, sino presupuesto. Rumbo al final de la película se ve a los actores en una edad avanzada, y aunque hubo maquillaje de por medio, la IA ayudó para mejorar las imágenes y entrenarse con dichos materiales.

En Avengers: Infinity War, Disney usó un software llamado Disney’s FaceDirector, que puede componer expresiones faciales para más de una secuencia. Así, los directores y editores pueden “ayudar” la interpretación de un actor para conseguir el resultado más cercano a lo esperado. Mufasa: El rey león, es otro título en la casa de Mickey Mouse que aprovechó la tecnología para mantenerse fiel al legado de la saga. Se buscó que el protagonista tuviera movimientos, expresiones y otros detalles similares a los de películas previas, por ello se utilizaron algoritmos y un análisis de contenido. La IA “aprendió” del material existente y creó una versión más realista del león, una que fuera fiel a las iteraciones previas.

Dentro de la misma película se usaron entornos digitales que gracias a la IA se produjeron en sólo minutos, algo que previamente tardaba meses. Muchas escenas fueron alteradas o rediseñadas en tiempo real, algo que incluyó desde las reacciones de Mufasa hasta lo que sucedía en la selva, los acantilados o la cueva donde se desarrolla la batalla final.

¿Para reemplazar actores?

Evidentemente, los alcances de la inteligencia artificial en este rubro han provocado miedos. Durante su paro en 2023, el Sindicato de Actores de Hollywood (SAG-AFTRA) manifestó preocupaciones por el uso de la tecnología para replicar su imagen o voz sin una autorización de por medio. Miembros de SAG-AFTRA reportaron que algunos estudios quisieron llegar a un acuerdo para escanear los rostros de algunos actores, principalmente los que fungen como extras. Medios como Collider dieron a conocer que estudios como Warner Bros. Discovery, Marvel Studios y Netflix ya habían implementado el escáneo de histriones, y que estos no podían negarse, pues significaba el fin de su contrato laboral. Capitán América: Un nuevo mundo fue mencionada como una de las películas que cuenta con extras escaneados y agregados digitalmente.

Sonido

La edición y mezcla de sonido tampoco son ajenas a la inteligencia artificial durante la postproducción. Hay programas que ayudan a eliminar objetos y reemplazarlos con el fondo que ya se filmó, o incluso a estabilizar las escenas. En cuanto al apartado auditivo, más de un estudio ocupa softwares inteligentes que, similares al de Lionsgate, han aprendido con el amplio catálogo de producciones sobre las que trabajan. Skywalker Sound, división de Lucasfilm dedicada a efectos, edición, diseño y mezcla de sonido, utiliza IA para catergorizar y recuperar sonidos de las producciones en que ha trabajado, y así se tienen referencias que aceleran el trabajo en futuras obras.

A pesar de todos los beneficios que trae el aprendizaje automatizado, poco a poco surgen conversaciones sobre qué tanto puede afectar su uso al trabajo de los actores, esto durante el montaje de sus películas. En El brutalista, dirigida por Brady Corbet y nominada a la 97ª edición de los Premios Óscar, se usó un software (Respeecher) para “perfeccionar” el acento húngaro de Adrien Brody. Este (que también fue nominado al Óscar por esta cinta) aprendió el idioma y tuvo a un entrenador que le ayudó, pero el editor de la cinta quiso ir un paso más allá. La intención era que “ni siquiera los locales notaran la diferencia”.

Al saberse cómo la película se benefició, muchos argumentaron que el trabajo del actor no merecía ser considerado a premios por recurrir a artificios que beneficiaron su desempeño. Corbet declaró que, en realidad, sólo se recurrió a la tecnología para “refinar ciertas vocales y letras”. En ello trabajaron, manualmente, los encargados del sonido en la película (vía). También se dijo que la IA fue de ayuda para una serie de dibujos inspirados en el trabajo de László Tóth, personaje intepretado por Brody. El director negó todo, argumentando que artistas trabajaron en las ilustraciones, y que su diseño siempre fue intencional.

el brutalista uso de ia
IA en el cine: ¿Cómo se usa y hasta dónde puede llegar?

En Emilia Pérez, el criticado musical de Jacques Audiard, también se utilizó Respeecher. La “beneficiada” por este fue Karla Sofía Gascón, cuya voz alcanzó otro registro vocal y mejores notas durante sus secuencias de canto. Cyril Holtz, a cargo de la mezcla de regrabación, implementó el software para ensamblar el canto de Gascón con la voz y música de Camille, estrella francesa encargada del score (en colaboración con Clément Ducol).

Como dato curioso, Respeecher también fue utilizado para replicar la voz de James Earl Jones (como Darth Vader) en la serie Obi-Wan Kenobi, y para “rejuvenecer” la voz de Mark Hamill en The Mandalorian.

Incluso la corrección de color se puede ver beneficiada. Cada vez son más las herramientas que analizan el material filmado y, tomando como base algún plano de referencia, analizan inconsistencias para ajustar colores y los niveles de iluminación. Así se consigue mejor saturación, brillo, consistencia entre secuencias, e incluso sugerencias de cómo podrían trabajarse otro tipo de planos.

En distribución y marketing

Aunque los estudios tienen décadas de experiencia a la hora de vender películas, nunca sobra un poco de ayuda. O al menos así lo ven algunos ejecutivos, quienes han optado por dejar que los algoritmos y la información previa sugieran alternativas. Merlin, el ya mencionado sistema de 20th Century Studios, también ayudó a examinar tráilers antiguos para determinar cuál sería la mejor forma de hacer promoción para Logan: Wolverine. Si bien, era una película de superhéroes, tenía temas oscuros y una trama diferente a lo que se había visto del personaje. No había un precedente que indicara la ruta a seguir.

Objetos como “vello facial”, “carros”, “bosques”, “hombres”, y “árboles” fueron los que más se encontraron en los avances analizados. Merlin incluso indicó cuántos segundos aparecían, y en qué parte del tráiler. Con dicha información, la IA hizo una predicción de las películas que, según sus datos, también vieron con anterioridad los espectadores de Logan. Cuando miembros del estudio hicieron un sondeo para corroborar lo dicho por Merlin, se encontró con 5 coincidencias (de 20 posibles).

Morgan, thriller de ciencia ficción estrenado en 2016, y también de 20th Century Studios, utilizó un tráiler creado por la supercomputadora IBM Watson. Esta fue “alimentada” con más de 100 tráilers para películas de terror, cuyos momentos y escenas fueron seccionados. La máquina también recibió los 90 minutos que dura Morgan, todo para hacer un análisis de sus mejores secuencias, y compararlas con lo que se vendía en las otras cintas. El resultado fue una complicación de 10 escenas y 6 minutos de duración. Si bien, un editor se encargó de convertir esto en una narrativa coherente, el tiempo se redujo a apenas 24 horas (mucho menos que los 10 a 30 días necesarios habitualmemte). Para Morgan también se creo un chatbot que creara experiencias personalizadas con la audiencia. Sin embargo, no sirvió de mucho, pues la película fue un fracaso taquillero y de críticas.

Netflix tampoco se ha quedado atrás. El gigante del streaming utiliza el comportamiento de sus usuarios para nutrir su inteligencia artificial y crear algoritmos que recomiendan alguno de los contenidos en su catálogo. En 2020 se reveló que el 80% del contenido visto en la plataforma era resultado de las recomendaciones, por lo que se puede afirmar que hay un buen trabajo.

La plataforma analiza qué se ve, por cuánto tiempo, y si el contenido se ve de principio a fin. Posteriormente hace comparativas con reproducciones previas y relaciona generos, la popularidad del momento y hasta los actores involucrados. “Califica” cada serie o película basándose en todos esos factores, y aquellos contenidos con una puntuación más alta son las sugerencias que aparecen al término de cada reproducción. Así logra convertir en éxitos muchos contenidos que, e otra forma, quizá no serían reproducidos bajo una decisión no ayudada.

Posibilidades a futuro

Mientras la industria cinematográfica crece, también lo hacen la tecnología, las posibilidades de relacionarse y las dudas. Gracias a los acuerdos conseguidos en las huelgas de 2023, los actores y guionistas tienen asegurado que su labor no será afectada de gran manera. Sin embargo, esto no evita que la inteligencia artificial continúe su expansión y ofrezca otras formas de apoyar a la industria cinematográfica.

A continuación, te presentamos algunas tendencias que están en sus primeros pasos, o se han discutido como herramientas indispensables para los próximos años:

  • Contenido aún más personalizado: Aunque los guionistas no dejarán de tener trabajo, es posible que muchos estudios les soliciten la inclusión de inteligencia artificial para tener un insight adicional sobre lo que las audiencias desean ver. Se le considera un “storytelling predictivo” porque utilizaría el análisis de preferencias y tendencias para generar contenidos inspirados en hechos recientes, y que tomen como base los tópicos más comentados. Así, los guionistas podrían tener más tiempo en dar la coherencia narrativa necesaria.
  • Revivir actores y películas clásicas: Aprovechando que el factor nostalgia ha formado parte de importantes éxitos taquilleros en los últimos años, no suena descabellado creer que se creen personajes digitales inspirados en las figuras del pasado. También se ha comentado la posibilidad de añadir color, o incluso diálogos a películas silentes que marcaron a generaciones enteras.
  • Nuevas formas de publicidad: En más de una ocasión, el cine e importantes marcas se han unido para crear experiencias que incrementen las ventas o el posicionamiento de productos y/o servicios. ¿Qué sucedería si una compañía quiere asociarse con un estudio cuando alguna de sus películas ya está filmada? Gracias a la IA, se pueden alterar todo tipo de elementos sin necesidad de reshoots o efectos visuales de último momento que arruinen el resultado.

“En un futuro próximo, las marcas publicitarias darán un salto mayor en su aparición en películas, series y vídeos en función de los gustos de cada espectador. Por ejemplo, una vez que una película ha sido postproducida y una marca de moda quiere trabajar con ella para exhibir su camiseta, puede cambiar todas las camisetas de los miembros del elenco con esa marca cuando lo desee”, afirma Joshua Kanatt, CEO de Gamers Tag.

En De noche con el diablo, de 2024, se utilizó IA para crear la imagen del programa donde transcurre la trama
  • Predicciones de clima: Una vez que la cinta está en producción, se pueden controlar muchos elementos, pero no el clima. Si bien, existen pronósticos desde hace años, poco a poco la inteligencia artificial ha logrado un análisis cada vez más preciso. Se basa en datos históricos, acceso a imágenes satelitales en tiempo real y condiciones atmosféricas en el instante. Con un sólido análisis de tales datos, bien se pueden planear rodajes sin contratiempos, en locaciones adecuadas, y con un perfecto manejo del presupuesto.
  • Composición musical: En el contexto actual, entender a los posibles espectadores y el mensaje de una película es indispensable. Por ello, la IA se he hecho cada vez más presente hasta en la música. Más allá de lograr ensambles perfectos, como en el caso de Emilia Pérez, los compositores podrían acentuar con mayor efectividad aquellas escenas vitales. También se pueden explorar nuevos sonidos o tantas opciones de scores como sea posible, y en un menor tiempo de trabajo.
  • Acceso a un mercado específico: Empresas como 3XM Technologies (dedicada al marketing) poco a poco entrenan IA para tener mayores conocimientos psicográficos, e incluso neurolingüisticos. Con esto, pretenden ayudar a las marcas para comprender mejor a sus clientes y acceder a todos aquellos que no planeaban la adquisición de un producto o servicio. Gracias a herramientas como esta, sería posible el diseño de varias campañas que le hablen a los espectadores de forma individual. Probablemente un tráiler no convenza a todos los cinéfilos, pero al crear experiencias personalizadas, más personas podrían encontrar una razón para pagar el boleto.
  • Efectos visuales en tiempo real: Uno de los principales retos cuando se trabaja con efectos visuales es el tiempo. Como muestra están las películas de Marvel Studios, que en ocasiones se han visto afectadas por las fechas límite establecidas a los artistas de este rubro. En Aquí ya se comprobó, al menos para rejuvencer rostros, que es posible tener resultados en tiempo real. Por ello, en aras de evitar retrasos, incremento en los presupuestos o menos libertad creativa, poco a poco surgen herramientas que fusionan actuaciones y escenarios reales con escenarios virtuales. Si se pudiera tener un gran referente visual a la hora de filmar, seguramente la postproducción podría ser más efectiva. El software Unreal Engine 5.2 es una muestra de cómo se pueden previsualizar y ajustar sets virtuales en tiempo real.
autor Soy de los que siempre defendió a Robert Pattinson como Batman y puede ver la misma película en el cine hasta 7 veces. ¿Mi gusto culposo? El cine de terror de bajo presupuesto.
Comentarios