Général

Ce robot peut lire et interpréter les expressions faciales humaines


Nous nous sommes habitués - sans doute certains plus que d'autres - à voir ou à entendre parler de robots androïdes ou humanoïdes qui peuvent imiter le comportement humain, les mouvements humains et dans certains cas, même la pensée humaine.

Une équipe de chercheurs du département d'informatique et de technologie de l'Université de Cambridge a cependant créé un robot capable de copier les émotions humaines, ce qui peut signifier en fait que nous avons franchi la dernière frontière de la recherche et du développement sur l'intelligence artificielle (IA) ( R&D).

Nommé Charles, le robot peut scanner et interpréter diverses expressions écrites sur le visage d'une personne (ce qui signifie probablement que des personnes plus expressives offriront plus à Charles de travailler, par opposition à une personne avec un bon visage de poker).

Le processus, qui ne prend que quelques secondes, commence par une caméra capturant des images du visage d'une personne, après quoi les données sont transmises à un ordinateur pour l'analyse des différentes nuances du visage. Charles alors - via plusieurs servos - est capable de correspondre étroitement aux muscles faciaux du sujet.

Charles, qui ressemble plus à une création amicale d'un studio d'effets spéciaux d'Hollywood qu'à un robot humanoïde, a un visage et des yeux larges et expressifs. C'est grâce aux prothèses de haute qualité qui ont été intégrées à sa conception.

Jetez un œil à une explication ci-dessous du travail qui a permis de créer Charles:

Le professeur Peter Robinson de l'Université de Cambridge a expliqué la pensée qui a motivé la création de Charles:

"Nous avons cherché à voir si nous pouvions donner aux ordinateurs la capacité de comprendre les signaux sociaux, de comprendre les expressions faciales, le ton de la voix, la posture du corps et les gestes", ajoutant: "Nous avons pensé qu'il serait également intéressant de voir si l'ordinateur système, la machine, pourrait en fait présenter ces mêmes caractéristiques et voir si les gens s'y engagent davantage parce qu'elle montre le type de réponses dans ses expressions faciales qu'une personne montrerait. Nous avons donc fait fabriquer Charles.

La raison profonde du projet, selon le professeur Robinson, est d'utiliser Charles comme un outil d'analyse des perceptions de la robotique et des robots par le grand public:

«La question la plus intéressante que ce travail a soulevée est la compréhension sociale et théologique des robots que les gens ont. Pourquoi, lorsque nous parlons de robots, pense toujours à des choses qui ressemblent à des humains plutôt qu'à des machines abstraites, et pourquoi sont-elles généralement malveillantes? »

À l'heure actuelle, Charles peut projeter un éventail étonnant d'émotions, y compris le choc, la peur et la colère, en capturant même certaines aussi subtiles et complexes que l'arrogance, ou même la grognon, bien que détecter ironiquement ces émotions prévues sans aucune invite ou indication pourrait s'avérer un défi. Ce que cela indique également, en ce qui concerne l'avenir de la R&D sur les robots émotionnels, c'est que la tâche plus large consistant à créer une plate-forme pour comprendre qui égratigne même la surface du cœur humain - en d'autres termes, établir l'empathie entre l'homme et les robots - décidera du futur parcours de ces robots.

Pour l'instant, cependant, nous pouvons nous contenter de la connaissance des vastes capacités et du potentiel de Charles.


Voir la vidéo: Pr. Jean François Lemoine - 4 (Juin 2021).