Général

Le MIT approfondit l'éthique de la programmation des véhicules autonomes dans une enquête mondiale


Alors que les voitures entièrement autonomes qui frappent les rues de la ville se rapprochent de la réalité, des questions sur l'éthique de la programmation de machines autonomes se posent encore et encore. Une nouvelle enquête du MIT montre qu'il existe certaines tendances mondiales concernant l'éthique des véhicules autonomes, ainsi que des différences locales intéressantes.

L'enquête a réuni plus de 2 millions de participants en ligne de plus de 200 pays qui avaient tous une vision du «problème du chariot» classique. Le problème du chariot est un scénario qui décrit un chariot emballé se dirigeant vers un groupe de personnes, et vous avez le pouvoir de tirer un interrupteur pour dévier le chariot afin qu'il entre en collision avec une seule personne. Qu'est-ce que tu ferais?

Problème de chariot repensé pour les véhicules autonomes

Dans le cas des véhicules autonomes, la question est posée de savoir si la voiture doit dévier vers un petit nombre de spectateurs ou un plus grand groupe ainsi que d'autres possibilités connexes.

«L'étude tente essentiellement de comprendre les types de décisions morales auxquelles les voitures sans conducteur pourraient avoir à recourir», déclare Edmond Awad, post-doctorant au MIT Media Lab et auteur principal d'un nouvel article décrivant les résultats du projet. "Nous ne savons pas encore comment ils devraient faire cela."

Pourtant, Awad ajoute: "Nous avons constaté qu'il y a trois éléments que les gens semblent approuver le plus." Presque universellement, l'étude a révélé que les gens préféraient épargner la vie des humains plutôt que celle des animaux, la vie de beaucoup plus d'un petit nombre et la vie des jeunes plutôt que des vieux.

«Les principales préférences étaient dans une certaine mesure universellement convenues», note Awad. «Mais la mesure dans laquelle ils sont d'accord ou non avec cela varie selon les différents groupes ou pays.»

La programmation biaisée doit être prise au sérieux

Le problème de la programmation biaisée a été soulevé encore et encore depuis que les algorithmes ont été chargés de tout, du tweet à l'embauche. Par exemple, Amazon a abandonné un programme basé sur l'intelligence artificielle qu'il utilisait pour embaucher de nouveaux employés, car il a découvert que le programme favorisait les hommes pour les emplois techniques.

Le programme qui lisait des milliers et des milliers de curriculum vitae s'était appris à préférer les hommes aux femmes, probablement parce qu'il voyait plus de curriculum vitae d'hommes qui répondaient aux critères, non pas parce que les curriculum vitae des femmes n'étaient pas bons, il y en avait tout simplement moins. Dans une histoire similaire, Microsoft a dû retirer son chatbot Tay de Twitter après avoir commencé à tweeter des remarques racistes et sectaires à peine 24 heures après sa sortie.

Décrit comme une expérience de "compréhension conversationnelle", Tay était censé devenir plus intelligent et plus bavard à mesure qu'il s'engageait dans des conversations. Cependant, les utilisateurs de Twitter ont commencé à tweeter des choses ignobles à Tay et, bien, Tay, alors que les robots apprennent de ce qu'il a vu et ont commencé à envoyer ces sentiments de retour dans le monde.

Aucune de ces histoires ne nécessite de sonner l'alarme, mais plutôt une compréhension consciente de l'impact que la programmation peut avoir et qu'une approche globale doit être adoptée pour toutes les technologies de prise de décision.


Voir la vidéo: A bord de lAudi A8 sans chauffeur (Juin 2021).