La cara de un niño robot sorprende por sus expresiones realistas

Affeto, niño robot. / Osaka University.
Affeto, niño robot. / Osaka University.

Preferiblemente, las caras de los androides deben expresar mayor emoción para que puedan interactuar con los humanos de manera más efectiva. Así que los investigadores abordaron este desafío mientras mejoraban la cabeza de su niño androide llamado Affetto.

La cara de un niño robot sorprende por sus expresiones realistas

Los investigadores examinaron con precisión los puntos de la superficie facial de Affetto y el equilibrio preciso de las diferentes fuerzas necesarias para lograr un movimiento más humano. A través de medidas mecánicas y modelos matemáticos, pudieron usar sus hallazgos para mejorar enormemente el rango de expresión emocional de Affetto.

El afecto de Japón por los robots no es ningún secreto. ¿Pero es el sentimiento mutuo en los asombrosos androides del país? Ahora podemos estar un paso más cerca de dar a los androides mayores expresiones faciales para comunicarse.

Si bien los robots han aparecido en los avances en el cuidado de la salud, la industria y otros entornos en Japón, capturar la expresión humanista en un rostro robótico sigue siendo un desafío difícil de alcanzar. Aunque sus propiedades de sistema se han abordado en general, las expresiones faciales de los androides no se han examinado en detalle. Esto se debe a factores tales como la gran variedad y asimetría de los movimientos faciales humanos naturales, las restricciones de los materiales utilizados en la piel de Android y, por supuesto, la intrincada ingeniería y las matemáticas que impulsan los movimientos de los robots.

Un trío de investigadores de la Universidad de Osaka ha encontrado un método para identificar y evaluar cuantitativamente los movimientos faciales en su cabeza de niño robot androide nombrado Affetto, un modelo de primera generación que se dio a conocer en una publicación de 2011. Los investigadores ahora han encontrado un sistema para hacer que el Affetto de segunda generación sea más expresivo. Sus hallazgos ofrecen un camino para que los androides expresen mayores rangos de emoción y, en última instancia, tengan una interacción más profunda con los humanos.

Los investigadores informaron sobre sus hallazgos en la revista Frontiers in Robotics and AI.

"Las deformaciones de la superficie son un tema clave para controlar las caras de Android. Los movimientos de su suave piel facial crean inestabilidad, y este es un gran problema de hardware con el que lidiamos. Buscamos una mejor manera de medirlo y controlarlo", explica el coautor del estudio, Minoru Asada.

Los investigadores investigaron 116 puntos faciales diferentes en Affetto para medir su movimiento tridimensional. Los puntos faciales fueron apuntalados por las llamadas unidades de deformación. Cada unidad comprende un conjunto de mecanismos que crean una contorsión facial distintiva, como bajar o elevar parte de un labio o párpado. Las mediciones de estos se sometieron luego a un modelo matemático para cuantificar sus patrones de movimiento en la superficie.

Si bien los investigadores encontraron desafíos para equilibrar la fuerza aplicada y ajustar la piel sintética, pudieron emplear su sistema para ajustar las unidades de deformación para un control preciso de los movimientos de la superficie facial de Affetto.

"Las caras de los robots con Android han persistido en ser un problema de caja negra: se han implementado, pero solo se han juzgado en términos vagos y generales. Nuestros hallazgos precisos nos permitirán controlar eficazmente los movimientos faciales de Android para introducir expresiones más matizadas, como sonreír y fruncir el ceño",  dice el primer autor del estudio, Hisashi Ishihara.   @mundiario

 

 

Comentarios