miércoles, 2 de noviembre de 2016

El neocine (2): Cine y realidad virtual.



Hace unos años me enteré de que en la Universidad de la Laguna un grupo de físicos estaba trabajando en una lente llamada plenóptica que podía convertir cualquier cámara convencional en 3D, permitiendo ver imágenes en relieve sin necesidad de gafas, utilizando una técnica inspirada en los ojos compuestos de los insectos. El proyecto, llamado Cafadis, y cuyo destino final desconozco (en su web no actualizan nada desde 2013), estaba entonces empezando y buscaban financiación internacional. Me ofrecí a hacer un cortometraje en aquel nuevo formato. Conocer el proceso de diseño e investigación en que estaban trabajando me pareció apasionante. Parecía un camino a explorar lleno de sorpresas. El corto no pasó de ser una proposición, pero hubiera sido muy interesante rodar con aquel prototipo.

La exploración de la información que la luz contiene es un campo de investigación apasionante. Hace unos meses encontré en internet un video sobre una nueva cámara experimental que aplica una técnica plenóptica idéntica a la de Cafadis, y, aprovechando que he hablado anteriormente en el artículo sobre “El libro de la selva” de las nuevas técnicas de hacer cine que están cambiando el medio hacia algo completamente diferente, incido en ello. La edición de agosto de 2016 de American Cinematographer (Vol.97, No.8) habla sobre este prototipo, llamado Lytro Cinema, basado en la (traduzco) captura de campos de luz, conocida también como (traduzco de nuevo) imaginería informática o (en el inglés original) Light-field capture.

El prototipo de Lytro Cinema (que parte de la tesis doctoral del científico malayo Ren Ng de la Universidad de Stanford, quien obtuvo el Premio ACM a la mejor tesis en informática en 2005, éxito que le llevó a fundar Lytro), usa un juego de microlentes situadas justo antes del CCD digital que captura la luz que entra por la cámara, y es capaz de interpretar la información de múltiples rayos luminosos a la vez, mediante un software (por eso esta técnica también se llama fotografía computacional). De esta manera podríamos enfocar o desenfocar en un entorno “real” la imagen filmada después de capturarla, usando profundidades de campo imposibles en el mundo real, delgadas como el grosor de un cabello, sin perder el foco y sin usar máscaras ni trucos de efectos visuales, sólo mediante la información obtenida de la luz capturada durante el rodaje mediante una miríada de microlentes, e interpretándola con ecuaciones implementadas en un motor gráfico.

Gracias a esta nueva tecnología, cosas como el croma, que tanto sufrimos en los rodajes y que está últimamente en todas partes, dejarán de ser necesarias, porque podremos decidir qué rayos de luz de los que hemos grabado hacemos transparentes y cuáles no, usando la información de profundidad que llega con ellos. En teoría, una imagen única de una habitación grabada con esta tecnología podría contener suficientes datos (miles de pequeñas imágenes ligeramente diferentes unas de otras) como para poner cámaras en cualquier lado de ella, dentro del espacio generado por la grabación, aunque no estemos ya físicamente allí.

De esta manera, los directores y cámaras podrían jugar con nuevas posibilidades de luz y ángulos de imagen. La cámara se convertiría en estos rodajes en una especie de escaneador del mundo, un mundo que luego se puede explorar, revisitar, en postproducción, es decir, una vez ha terminado el rodaje de la película.

Se ha rodado un cortometraje con el prototipo de Lytro Cinema, titulado “Life”, dirigido por Robert Stromberg y con David Stump (ASC) de operador de cámara. Stump, en su artículo de American Cinematographer, cuenta que la filmación tuvo que recurrir al uso de luces muy intensas, dada la gran velocidad de obturación que requiere el sistema, y lanza un bonito homenaje a su maestro, Phil Lathrop (ASC), director de fotografía de clásicos como “La pantera rosa” o la serie de TV “Peter Gunn” (la de esta cabecera de inolvidable música de Henry Mancini, que por cierto el grupo Emerson, Lake and Palmer usaba como introito a sus conciertos), quien le enseñó precisamente el trabajo en altas luces, toda una ciencia casi olvidada hoy en día. Stump nos presenta cómo el legado pasa de un maestro a su alumno entre generaciones, recordando las lecciones de Lathrop mientras está probando un prototipo tecnológicamente inconcebible en los años de los clásicos que filmara en los años 60.

Lytro Cinema está en una fase muy inicial, pero promete revolucionar, si funciona como herramienta, la manera en la que se hacen las películas, una vez más. Probablemente, en un futuro podremos ver un nuevo “cine” (o como se llame) en el que asistiremos al drama que se nos muestra desde cualquier lado dentro de las escenas, mirando a los actores desde cualquier parte, colocando las cámaras como espectadores, por poner un ejemplo. Aunque eso ya es posible en cierta medida, como sabréis los jugones, en los entornos 3D fotorrealistas generados por los motores gráficos (como Unity, del que hablé en el artículo sobre “El libro de la selva” o Unreal Engine), las obras de machimina o los entornos de Realidad Virtual, va a ser muy interesante verlo aplicado al mundo cinematográfico.

Quisiera añadir que Lytro existe, es una realidad funcional, participa en ferias importanes como el NAB, y atrae a cineastas e inversores gracias al fomento norteamericano a la emprendeduría (recientemente recibieron una inyección de 50 millones de dólares de fondos de capital riesgo). La fotografía computacional es un campo que está atrayendo a desarrolladores conocidos, como Adobe, que quieren explorar ese nuevo territorio. Y nadie sabe de la existencia de Cafadis, un invento idéntico nacido en nuestras islas. Estas cosas me avergüenzan. Tenemos un talento humano desbordante ahogado en mares de burocracia y mediocridad, por políticos que apenas saben escribir su nombre y menos comprender el alcance de sus actos (legislativos o no), o en guerras funcionariales e interdepartamentales que se mantienen a lo largo de lustros. Esto es España, un paisito (en palabras de la productora Marta Esteban) donde quien inventa está condenado al ostracismo por definición. Un día os contaré aquí mi experiencia con Jaleo, otro invento canario del que apenas nadie se acuerda ya, pero que causó una revolución mundial en el campo de la tecnología digital de proceso de imagen. Sus creadores, si vivieran en otros países, tendrían en vida calles a su nombre, títulos honoris causa, o cátedras con sus apellidos.

En otros países, claro. No en este paisito. Aquí esas cosas se las damos a emprendedores como Mario Conde.

En las imágenes de la película “Life” que he usado para ilustrar este artículo vemos la imagen de un grupo familiar filmada con Lytro Cinema en el parking del estudio de rodaje, y que ha sido integrada en postproducción sobre un cielo azul sin usar croma. Se ha utilizado el dato de profundidad de cada píxel obtenido en el proceso de captura (el eje “Z”) para hacer transparente la imagen en esas zonas. De esta manera, sea cual sea el fondo ante el que se ruede una escena, se puede separar a las personas de aquel sólo con un par de cálculos matemáticos. Observad que hasta los cabellos sueltos de la mujer, que en croma son una pesadilla para poder separarlos del fondo, pasan perfectamente al nuevo fondo, sin artefactos ni errores. Las imágenes son copyright Lytro / Virtual Reality Company.

A peculiar galaxy near M104

Publicado en Revista Mexicana de Astronomía y Astrofísica, Vol. 59, número 2. P.327. Este es el link.