Animación digital más realista, ágil y acrobática

La animación digital en cine, videojuegos o aplicaciones de realidad virtual o aumentada aún es fácilmente detectada por el ojo humano y reconocida como ficticia. Los humanos simulados y los animales a menudo se mueven torpemente, sin el ritmo y la fluidez de sus contrapartes del mundo real. Investigadores de USC Berkeley presentan un gran avance en la animación por ordenador realista.

Utilizando un profundo refuerzo para recrear movimientos naturales, incluso para hazañas acrobáticas como break dance y artes marciales, los personajes simulados también pueden responder naturalmente a los cambios en el entorno, como recuperarse de los disparos o ser arrojados por los proyectiles.

«Esto es realmente un gran salto de lo que se ha hecho con el aprendizaje profundo y la animación. En el pasado, se ha dedicado mucho trabajo a la simulación de movimientos naturales, pero estos métodos basados en la física tienden a ser muy especializados; métodos generales que pueden manejar una gran variedad de habilidades «, afirma el estudiante de posgrado de la UC Berkeley Xue Bin «Jason» Peng, participante en el nuevo desarrollo. Cada actividad o tarea generalmente requiere su propio controlador diseñado a medida.

«Desarrollamos agentes más capaces que se comportan de manera natural», dijo. «Si comparamos nuestros resultados con la captura de movimiento grabada desde humanos, estamos llegando al punto en el que es bastante difícil distinguirlos, decir qué es la simulación y qué es real. Nos estamos acercando a un especialista virtual».

Las técnicas tradicionales de animación digital generalmente requieren diseñar controles personalizados a mano para cada habilidad: un controlador para caminar, por ejemplo, y otro para correr, voltear y otros movimientos. Estos controladores diseñados a mano pueden verse bastante bien, dijo Peng.

«La ventaja de nuestro trabajo», dijo Peng, «es que podemos obtener lo mejor de ambos mundos. Tenemos un algoritmo único que puede aprender una variedad de habilidades diferentes y producir movimientos que rivalizan, si no superan, el estado del arte. en animación con controladores artesanales «.

Para lograr esto, Peng obtuvo datos de referencia de clips de captura de movimiento (mocap) que demuestran más de 25 hazañas acrobáticas diferentes, como volteretas hacia atrás, volteretas, saltos y bóvedas, así como simples carreras, lanzamientos y saltos. Después de proporcionar los datos mocap a la computadora, el equipo luego permitió que el sistema, apodado DeepMimic, «practicara» cada habilidad durante aproximadamente un mes de tiempo simulado, un poco más de lo que un humano podría tomar para aprender la misma habilidad.

La computadora practica 24 horas al día, 7 días a la semana, pasando por millones de pruebas para aprender a simular de forma realista cada habilidad. 

Aprendió a través de prueba y error: comparando su desempeño después de cada prueba con los datos de mocap y ajustando su comportamiento para que coincida más estrechamente con el movimiento humano. Así, Beng explica que «La máquina está aprendiendo estas habilidades completamente desde cero, incluso antes de saber caminar o correr, por lo que un mes podría no ser demasiado irracional».

La clave era permitir que la máquina aprendiera de forma que los humanos no lo hacen. Por ejemplo, un backflip implica tantos movimientos corporales individuales que una máquina puede seguir cayéndose y nunca pasar los primeros pasos. En cambio, el algoritmo comienza a aprender en varias etapas del backflip, incluso en el aire, para aprender cada etapa del movimiento por separado y luego unirlas.

Un documento que describe el desarrollo ha sido aceptado condicionalmente para su presentación en la conferencia SIGGRAPH 2018  en agosto en Vancouver, Canadá, y fue publicado en línea el 10 de abril. Los colegas de Peng en el Departamento de Ingeniería Eléctrica y Ciencias de la Computación son el profesor Pieter Abbeel y el profesor Sergey Levine , junto con Michiel van de Panne de la Universidad de British Columbia.

Puedes leer el trabajo original en github.io

Fuente: Berkeley.