barra head

Si alguien en la tele parece perfecto, probablemente se ha hecho un "trabajo digital

Si alguien en la tele parece perfecto, probablemente se ha hecho un

En The Scenario, la reportera Kirbie Johnson lleva a los lectores tras las bambalinas de las películas y series de televisión más de moda para revelar cómo se crean las mejores pelucas, el maquillaje de efectos especiales y mucho más. En esta edición, Johnson se adentra en la prevalencia de los filtros faciales digitales en Hollywood.

Cuando oigo el término "maquillaje digital", me viene a la cabeza la tecnología de aplicación inspirada en Clueless. Al igual que Cher pasa el dedo por las opciones de ropa en su ordenador y las saca de su armario mecánico, yo selecciono mi look ideal desplazándome por los tonos de colorete, eligiendo entre una piel luminosa o mate, aumentando el grosor de mis pestañas. Cada opción se presenta en un escáner digital de mi taza. Con sólo pulsar un botón, me siento en la silla del director mientras una máquina mágica de maquillaje, parecida a los brazos robóticos que Beyoncé utiliza durante su interpretación de "Heated", administra todos estos elementos a mi rostro con precisión y facilidad en menos de 10 minutos.

Aún no hemos llegado a ese punto. En su lugar, el "maquillaje digital" existe sobre todo en forma de filtros para redes sociales, que no ayudan en la vida real pero que permiten saltarse la aplicación de cualquier producto antes de grabarlo en el teléfono. Hay aplicaciones que pueden crear todo lo que he dicho antes -pestañas más pobladas, pómulos esculpidos, menos brillo-, además de incorporar cambios cosméticos como una nariz más pequeña a una cabeza más pequeña. (He bromeado diciendo que las famosas que parecen que les han "pellizcado la cabeza más pequeña" probablemente usan estas apps para tener proporciones de bebé). Los filtros han pasado de ser simplemente aceptables (pestañas postizas que fallan con cada movimiento, globos oculares de un blanco cegador, piel alisada y contorneada con una textura superficial, como la de un maniquí) a ser prácticamente indetectables. Bien podría ser tu aspecto en la vida real. Pero no lo es.

Los filtros de TikTok como Bold Glamour y Lite Foundation han causado furor sobre todo porque, a diferencia de los filtros a los que estamos acostumbrados, estos filtros utilizan una tecnología casi indetectable para convertirte en la versión más sexy de ti mismo. (Al menos en teoría: Bold Glamour me hace parecerme a Calamardo el Guapo). Los cánones de belleza son subjetivos). TikTok no es el único sitio donde vemos estos retoques digitales tan realistas: Zoom ofrece un filtro "bonito" para limpiar la piel (aunque es bastante obvio que se trata de un filtro) e incluso nuestros iPhones embellecen nuestra imagen.

Según The Verge, estos filtros inquietantemente imperceptibles probablemente utilizan una forma de inteligencia artificial llamada GAN (General Adversarial Network), una red neuronal. (Si estás mirando esto parpadeando rápidamente, quédate conmigo.) De todos los lugares, Amazon lo explica bastante bien: Las redes neuronales son un "método de inteligencia artificial que enseña a los ordenadores a procesar datos inspirándose en el cerebro humano".

Matt Panousis, director de operaciones y socio de la empresa de efectos visuales y startup de IA Monsters Aliens Robots Zombies (MARZ), con sede en Toronto, explica que los filtros que estamos acostumbrados a ver pueden desenfocar o iluminar, pero a menudo son obvios en la toma final. "Estos filtros utilizan entonces el seguimiento facial estándar para seguir el movimiento del usuario", dice Panousis. "Cuando se mira más de cerca, se ve que se pierden muchos detalles, como la textura de los poros. También verás que el seguimiento facial falla cuando el movimiento es demasiado rápido o extremo, o cuando cambia la iluminación, y cuando la cara está parcialmente oscurecida, lo que llamamos oclusión".

GAN, por su parte, básicamente transforma imágenes que compiten entre sí -por ejemplo, tu propio rostro y el filtro Bold Glamour- en una sola, en lugar de simplemente superponer una máscara sobre el rostro.

El debate en torno a los filtros GAN ha oscilado entre la alabanza por los avances tecnológicos y la profunda preocupación por lo que esos avances significan para el mundo real. Compararnos con las imágenes retocadas de las revistas y los anuncios ya era bastante pesado, pero al menos en el fondo sabíamos que las personas que aparecían en esas fotos eran famosos o modelos cuya carrera giraba en torno a ser más guapos que la media. Ahora también intentamos estar a la altura de las fotos y los vídeos de las redes sociales, que ofrecen a los "normies" fácil acceso a este tipo de herramientas de edición que antes estaban reservadas a un subconjunto específico de la humanidad. ¿Podría esto proliferar hasta el punto de que tengamos un aspecto "optimizado digitalmente" que varíe mucho de cómo nos vemos en el mundo real? (Tal vez podría argumentarse que esto ya está proliferando. El otro día alguien me dijo: "Me alegro mucho de conocerte. Eres igual que en tus fotos". Fue un comentario extraño que no pude evitar encontrar halagador en este panorama actual).

Aunque todo el mundo está en pie de guerra por los filtros digitales que utilizan sus influencers favoritos, lo que se discute menos es la frecuencia con la que se ha utilizado una tecnología similar en el cine y la televisión. Por supuesto, los estándares de Hollywood difieren de los de las redes sociales; la mayoría de las personas que ven películas son conscientes de que no están presenciando hechos de la vida real. Pero, al igual que ocurre con los filtros de las redes sociales, este tipo de tecnología -especialmente cuando no se divulga ampliamente- puede hacer proliferar normas inalcanzables.

En 2021, hablé con el artista de efectos visuales Rod Maxwell para un reportaje de Allure sobre cómo trabajaban los efectos especiales de maquillaje con efectos digitales como el CGI. Maxwell me contó que, en su trabajo, participa en una sesión de dermatología digital durante la posproducción. Este año he vuelto a ponerme en contacto con él para pedirle más explicaciones.

"Para el público de hoy en día, el cine y la televisión son como las portadas de las revistas en las que las mujeres y los hombres dicen: 'Eso no es justo. Yo no puedo tener ese aspecto'. Y luego hablas con los actores, actrices o modelos reales y te dicen: 'Yo ni siquiera me parezco a eso'", dice Maxwell.

Algunas ediciones se hacen para evitar que el público se distraiga. Por ejemplo, si aparece un grano o un herpes labial imprevisto el día del rodaje, es probable que se elimine en la postproducción. "El público va a pensar: '¡Eso significa algo, es una pista! Una mancha puede formar parte del diseño del personaje", dice Maxwell, señalando que, si no es así, puede confundir al público si no se elimina. Por supuesto, hay alteraciones digitales más extremas que pueden llevarse a cabo, como el envejecimiento para un papel, pero normalmente Maxwell hace pequeños retoques para que los actores parezcan más descansados o "mejor hidratados".

Para que alguien parezca menos cansado, Maxwell dice que se trata de editar digitalmente la iluminación. Una iluminación dura con un fuerte contraste puede acentuar las ojeras, las líneas de expresión y la pigmentación de la piel. Incluso si ése es el tipo de iluminación que había en el plató, Maxwell puede crear una iluminación agradable y uniforme en postproducción, asegurándose de que coincide con el entorno del actor en la escena para que no distraiga o parezca fuera de lugar.

Como cualquier efecto especial, que una producción pueda o no utilizar este tipo de retoque digital suele depender del tiempo y del presupuesto. Sin embargo, Vanity AI, una herramienta de efectos visuales impulsada por IA lanzada por MARZ, pretende ayudar a mitigar ambos problemas en televisión, ofreciendo una solución rentable que proporciona VFX rápidamente, ofreciendo (según la marca, al menos) calidad cinematográfica con un presupuesto menor, y en minutos frente a días. Panousis afirma que VanityAI es capaz de reducir costes y plazos de entrega ofreciendo grandes volúmenes de arreglos de envejecimiento, desenvejecimiento, cosméticos, pelucas y prótesis 2D de gama alta. Según afirma la empresa, la tecnología, que se ha utilizado en series como Stranger Things 4 y películas como Spiderman: No Way Home y Being the Ricardos, es hasta 300 veces más rápida que los procesos de efectos visuales tradicionales, mucho más rentable y no tiene limitaciones de capacidad, lo que significa que puede acelerar los plazos de producción independientemente del momento del proceso en que se utilice.

Panousis reconoce que la IA no es una herramienta perfecta, pero MARZ tiene como objetivo empoderar a los artistas con "tecnología de IA de próxima generación que les permita hacer el trabajo en una fracción del tiempo por una fracción del costo." Cuando la idea de Vanity AI comenzó a gestarse en 2019, la empresa decidió centrarse en un problema de efectos visuales que se encuentra en la mayoría de los proyectos: el desenvejecimiento/envejecimiento/cosmética.

"En la práctica, puedo tomar a personas de forma bastante convincente y muy natural unos 15 años a cada lado de donde están hoy y puedo hacerles cualquier nivel de trabajo cosmético", dice Panousis. "El software puede adaptarse a cualquier tipo de cambio de textura: si se quieren eliminar las bolsas de los ojos, las patas de gallo, las arrugas de la frente, las líneas de expresión o las líneas de marioneta". También puede añadir esos rasgos, si es necesario envejecer al actor.

El software trabaja para hacer estos cambios, pero sin perder otros detalles en el proceso. Por ejemplo, "quiero eliminar una línea, pero no quiero perder detalle de los poros, no quiero que parezca que me han hecho un aerógrafo", dice Panousis. "La palabra 'natural' era muy importante para nosotros porque, al fin y al cabo, las famosas también son personas. Tienen imperfecciones. No quieren parecer retocadas. [VanityAI] da al artista [de efectos visuales] mucho control y está muy automatizado, pero el resultado en sí es muy, muy natural."

Panousis no puede hablar de los programas que han utilizado VanityAI para retoques cosméticos como la eliminación de líneas o manchas y el suavizado de texturas, ya que VanityAI es un proveedor de efectos visuales y algunas producciones pueden tener protecciones en vigor, como acuerdos de confidencialidad con actores que preferirían que su público no se enterara de todos estos retoques digitales. Sin embargo, la eliminación del envejecimiento es un tema menos delicado: VanityAI se utilizó para eliminar la edad de un villano del pasado en Spiderman: No Way Home, así como para secuencias retrospectivas en series como Dr. Death y The Walking Dead.

Basándose en los años de investigación que MARZ realizó antes de lanzar el producto, Panousis calcula que alrededor del 80% de los proyectos aprovecharán alguna forma de este tipo de trabajo cosmético digital. "Eso no quiere decir que vayan a envejecer o desenvejecer el 80% de los programas, pero sí que van a realizar algún tipo de maquillaje digital en esos proyectos". VanityAI existe porque había un espacio en blanco para ello dentro de la industria, aunque Panousis dice que no se atreve a afirmar lo extendido que está el maquillaje digital en la actualidad porque nadie quiere hablar de estos retoques de posproducción que se han hecho o completado en la grabación. (Puedo dar fe de ello: conseguir que los artistas de efectos visuales hablaran de su trabajo para este reportaje fue como pedir a un médico que violara los derechos HIPAA de sus pacientes).

Pero no te preocupes, si alguien tiene un aspecto imposiblemente perfecto en la televisión, es muy probable que se haya sometido a algún retoque digital.

Categorías:

¿Te gusta? ¡Puntúalo!

11 votos

Noticias relacionadas