Select Page

Character Animator loves you, recuerden esto.

Seguramente ya han visto demos de este “nuevo” producto de Adobe, que se incluyó en el release CC 2015 o versión 13.5 de After Effects, aunque se instala como una aplicación independiente. Pues ya vamos en la versión 13.8.1 de After Effects CC 2015 y en el Preview 4 de Character Animator.

Pero vamos en orden, ¿qué es Character Animator?

Es el nuevo miembro de la familia CC, una aplicación que te permite dar vida a personajes creados con arte de Illustrator o Photoshop, para resumirlo en pocas palabras. Ahora ¿cómo lo hace? Y aquí viene lo interesante, Character Animator usa como base una tecnología llamada face recognition, esto te permite mapear a través de una web cam tus expresiones y movimientos directamente en tu personaje. Los elementos principales que reconoce son las cejas, ojos y pupilas, nariz, boca y contorno de la cara, así como posición, rotación y escala. Es importante saber esto a la hora de crear un personaje que vayamos a animar con esta aplicación. Esto facilita el lip sync y por supuesto toda la actuación o performance del personaje, además puedes programar animaciones específicas con el mouse o el teclado. Prácticamente creas una marioneta digital o puppet como es llamado dentro del programa.

El flujo de trabajo dentro de Character Animator es el siguiente:

  1. Creación de personaje en Ai o Ps, distribuido en capas
  2. Crear un puppet, esto se hace importando tu archivo ai o psd
  3. Colocar el puppet en la escena
  4. Controla la marioneta – Set Rest Pose*
  5. Ajuste de parámetros
  6. Grabar performance
  7. Previsualización
  8. Exporta la grabación de tu marioneta. En secuencia de png’s y audio en wav.

Estos son algunos ejemplos en los que se puede usar Character Animator para facilitar el trabajo de animación:

Huevo Cartoon fue hecho antes de que Adobe creará Character Animator y del video de Movimiento por la igualdad en México, desconozco su flujo de trabajo, pero ambos tienen personajes que se pueden animar en Character Animator.

También les dejo un par de links por si les gusta la animación y quieren llevar más allá este proceso.

Ahora si, vámonos a Illustrator.

Cada vez que realizamos un trazo en Illustrator se almacena en una subcapa, así cada objeto vive de manera independiente. En realidad una capa en Illustrator funciona como un grupo de la paleta capas en Photoshop.

pair_01

Una forma de meter varios objetos en una subcapa es agrupándolos. Su equivalente en Photoshop sería hacer otro grupo y meterlo en el previo.

pair_02

Para que nuestro personaje funcione de manera adecuada en Character Animator, lo principal es el trabajo en el panel Capas, tanto en Illustrator como en Photoshop.

Una vez explicado esto vamos a trazar nuestro personaje.

Antes de empezar a trabajar en las capas, primero vamos a pensar como dividimos a nuestro personaje, que partes queremos animarlas de manera independiente y sobre todo cuales son los elementos principales que nos pide Character Animator.

Me voy a adelantar un poco y les voy a mostrar el panel Propiedades de Character Animator para mostrar todos los elementos que podemos crear para nuestro personaje. Dentro de Character Animator se pueden mostrar los Tags como texto o como imagen.

pair_03

Es una lista extensa si queremos que nuestro personaje tenga todos los elementos que puede explotar el face recognition. Tomen en cuenta que cada View implica hacer todos los grupos y subgrupos dentro del rostro del personaje, como: cejas, ojos, nariz y boca. En Illustrator, dentro del panel capas, debemos nombrar cada elemento que queramos animar con un signo + como prefijo. Empecemos con los ojos, voy a separar la pupila del ojo, también podemos hacer una subcapa para que nuestro personaje pueda parpadear.

layers_01

Dentro de este grupo se pueden agregar expresiones del personaje.

Con estos elementos ya podemos llevar nuestro personaje a Character Animator y empezar a mapear cada grupo y subgrupo con sus funciones específicas.

Para traer un puppet (personaje), sólo tenemos que importarlo.

  • File / Import
  • Cmd I (Mac)
  • Ctrl I (Pc)

Dentro del Panel Properties aparece nuestro personaje que de ahora en adelante llamaremos puppet. Al dar doble clic sobre éste, se abre en un panel llamado Puppet. En el lado izquierdo de este panel aparecen nuestras capas de Illustrator y en el panel Properties aparecen los Tags o etiquetas las cuales debemos relacionar con cada una de nuestras capas de Illustrator. Si no aparecen los Tags, seleccionen cualquier capa.

panel_01
Para relacionar cada capa o elemento con su tag correspondiente hay que seleccionar primero la capa y posteriormente el tag, hasta completar los tags que solicita Character Animator o hasta que hayamos terminado con nuestras capas. No tenemos que tener todos los elementos que pide Character Animator, esto depende más del diseño de su personaje, por ejemplo, el mío no tiene cejas.

panel_02

También podemos asignar animaciones con Triggers, o comandos por teclado. Para esto seleccionamos el elemento que queremos activar vía teclado en el panel Puppet, en este caso voy a seleccionar las expresiones que hice en Illustrator.

Podemos seleccionar cualquier tecla, yo voy a asignar la letra “S” para sad y “A” para angry.

Una vez agregado el Trigger, desde el panel Properties debemos seleccionar Hide Siblings, esto oculta todos los elementos de un grupo, excepto al que se agregó el Trigger.

panel_03

Ahora vamos con la boca.

Character Animator asigna 14 formas diferentes a la boca, pueden googlear “mouth shapes for lip sync” para tener más referencias. No es necesario hacer las 14, sin embargo, si hacemos todas, el lip sync se verá más natural. Una vez hecho el trazo en Illustrator, sólo hay que guardar nuestro archivo y el puppet, se actualiza de manera automática en Character Animator.

Si nombramos las 14 subcapas dentro de Illustrator con estos nombres:

  1. Ah
  2. D
  3. Ee
  4. F
  5. L
  6. M
  7. Oh
  1. R
  2. S
  3. Uh
  4. W-Oo
  5. Neutral
  6. Smile
  7. Surprised

Character Animator mapea de manera automática las formas con cada subcapa. Las 14 formas deben ir dentro del grupo +mouth.

panel_04

Para terminar con esta primera parte de este tutorial, vamos a ver nuestro personaje en acción y hacer un par de ajustes. Desde el panel Project, debe estar seleccionado nuestro puppet y en la parte inferior del panel hay un botón que dice Add to New Scene. Damos clic a este botón y Character Animator crea una nueva escena para nuestro puppet.

panel_06

Podemos ver en el Panel Timeline como está seleccionado el puppet ya que lo marca con rojo. Desde el panel Properties podemos indicar que tanto afecta el face recognition o el tracking a nuestro personaje. Por ejemplo si queremos reducir la influencia de la posición, escala o inclinación, hay que reducir el porcentaje del tracking. Aquí no hay valores exactos ya que esto depende del diseño de su personaje, lo más recomendable es que jueguen con estos parámetros para ver que le acomoda mejor.

Si quieren cambiar parámetros de la escena, hay que dar clic en el panel Timeline en el área gris debajo del puppet. El panel Properties es sensible a lo que esté seleccionado, por lo tanto ahora podemos cambiar el Frame Rate, Duration o el tamaño de nuestra escena.

panel_05

Por último hay que definir una posición neutra para iniciar el tracking. Desde el panel Camera & Microphone presionen el botón Set Rest Pose, miren fijamente a la cámara de su ordenador y pónganse serios. Los puntos que aparecen son puntos de tracking usados por el face recognition para mapear sus movimientos y expresiones con el puppet. Para ayudar al tracking es recomendable estar en cuarto bien iluminado. ¡Ahora si, a actuar!

panel_07

En el siguiente tutorial, vamos a agregar el cuerpo y extremidades a nuestro personaje.

Nos vemos pronto.