Les chercheurs développent un robot horrible à l’immeuble du visage
Alors que les progrès de la robotique et de l’intelligence artificielle se poursuivent, les efforts pour rendre les robots moins effrayants et troublants et plus amicaux et humains sont un créneau convoité du développement. Maintenant, les chercheurs financés par le gouvernement fédéral prétendent avoir créé un robot qui peut imiter les expressions faciales de la personne à qui elle parle.
Dans un récemment article publiéles chercheurs travaillant sous une subvention de la National Science Foundation ont expliqué comment ils ont construit leur nouveau robot, «emo» et les efforts qu’ils ont pris pour rendre la machine plus sensible aux interactions humaines. Au début de l’article, les chercheurs notent l’importance du sourire humain dans la mise en miroir sociale:
Peu de gestes sont plus attachants qu’un sourire. Mais lorsque deux personnes se sourit simultanément, l’effet est amplifié: non seulement le sentiment est mutuel, mais aussi pour que les deux parties exécutent le sourire simultanément, elles sont probablement capables de déduire correctement l’état mental de l’autre à l’avance.
Le nouveau robot des chercheurs est un «robot facial anthropomorphe». Ce n’est pas leur premier robot. Une itération précédente du bot a été surnommée «Eva». Cependant, les chercheurs disent que l’EMO est notamment plus avancé qu’Eva.
L’objectif avec l’EMO était de réaliser ce que les chercheurs appellent la «coexpression» ou l’émulation simultanée de l’expression faciale d’un communication humain. Pour y parvenir, les chercheurs ont développé un algorithme prédictif qui a été formé sur un ensemble de données vidéo larges d’humains faisant des expressions faciales. Les chercheurs affirment que l’algorithme qu’ils ont développé est en mesure de «prédire l’expression cible qu’une personne produira sur la base de changements initiaux et subtils de leur visage». L’algorithme communique ensuite au matériel du robot quelle configuration faciale à imiter en «temps réel», selon les chercheurs.
En fait, faire en sorte que le robot fasse une expression faciale est une autre histoire. Les différentes configurations faciales du robot sont alimentées par 26 moteurs différents et 26 actionneurs. Les chercheurs disent que la majorité des moteurs sont «distribués symétriquement» – ce qui signifie qu’ils sont conçus pour créer des expressions symétriques – à l’exception de celle qui contrôle la mâchoire du robot. Trois moteurs contrôlent les mouvements du cou du robot. Les actionneurs, quant à eux, permettent la création d’expressions plus asymétriques.
EMO est également équipé d’une «peau» en silicone interchangeable qui est attachée au visage du robot à l’aide de 30 aimants. Les chercheurs notent que cette peau peut être «remplacée par des conceptions alternatives pour une apparence différente et pour l’entretien de la peau», ce qui rend le visage personnalisable. Le robot a également des «yeux», qui sont équipés de caméras RVB haute résolution. Ces caméras permettent à l’EMO de voir son participant à la conversation et d’imiter ainsi leur expression faciale.

Dans le même temps, les chercheurs écrivent qu’ils déploient ce qu’ils appellent un «cadre d’apprentissage composé de deux réseaux de neurones – un pour prédire l’expression faciale de l’EMO (le modélisation de soi) et une autre pour prédire l’expression faciale de la famille (le modèle de famille).» Lorsque vous rassemblez le logiciel et le matériel, ce que vous obtenez est une machine qui peut faire des choses comme ceci:
