Général

Le court métrage `` Slaughterbots '' montre un avertissement horrible contre les armes basées sur l'IA


Dans cette capture d'écran du film, les étudiants fuient alors que des drones IA ont été programmés pour suivre toute personne associée au fait d'être étudiant à l'université.

L'intelligence artificielle est au point où elle a à peine besoin des humains pour se coder. Les applications semblent infinies. Les services automatisés, la génération de contenu, les soins de base et les services peuvent tous être grandement améliorés avec l'introduction de l'IA.

Mais qu'en est-il des armes?

Ce court métrage appelé Slaugherbots sert de prédiction horrible de ce qui pourrait arriver si les armes automatisées dépassaient le besoin de protection dans notre monde.

[AVERTISSEMENT: la vidéo suivante contient de la violence et des images de blessures et même de mort. Discrétion des téléspectateurs recommandé.]

Pour ceux qui soutiennent les armes basées sur l'IA, c'est un objet sans sentiments qui peut faire le travail d'une armée tout en sauvant les officiers de situations potentiellement dévastatrices - à la fois mentalement et physiquement.

Et bien qu'il n'y ait pas de gouvernements qui le financent ouvertement et effrontément maintenant, l'armement piloté par l'IA était une menace suffisamment grande pour envoyer Elon Musk, Stephen Hawking et d'autres chefs de file de l'industrie à écrire une lettre aux Nations Unies les suppliant de travailler préventivement ensemble des solutions.

La vidéo s'ouvre un peu comme le révèle le semi-camion de Tesla, en fait. L'événement de presse a fait basculer le public dans des ooos et des ahhhs alors qu'ils regardaient des robots miniaturisés, pilotés par l'IA, tuer un groupe de «méchants» pendant la manifestation. Le conférencier de presse encourage l'enthousiasme, promettant que tout ce qu'il faut pour programmer ces robots drones avec un profil est l'âge, le sexe, la forme physique, l'uniforme et l'ethnie d'une personne.

Cependant, comme pour beaucoup de technologies, les drones tombent entre de mauvaises mains. Les IA sont piratées et ciblent un seul groupe de politiciens. Ils ont ensuite percé du béton et du verre pour tuer des étudiants universitaires qui avaient tous partagé une vidéo exposant les injustices des drones et leurs politiques.

À la fin de la vidéo, vous vous demandez si c'est ce que voit Elon Musk quand il dénonce le développement d'armes d'IA autonomes.

Et ce n'est pas seulement Musk. Stuart Russell travaille à l'Université de Californie à Berkeley en tant que scientifique de premier plan en IA. Il a déclaré que le monde était plus proche de l'intégration d'armes autonomes que nous ne sommes des voitures autonomes.

"La technologie illustrée dans le film est simplement une intégration des capacités existantes. Ce n'est pas de la science-fiction. En fait, elle est plus facile à réaliser que les voitures autonomes, qui nécessitent des normes de performance bien plus élevées", a déclaré Russell dans une interview avec la Gardien.

Russell a également souligné des problèmes similaires dans la vidéo de l'organisation à but non lucratif Stop Autonomous Weapons.

«Je travaille dans l'IA depuis plus de 35 ans», déclare Russell dans la vidéo. "Son potentiel au bénéfice de l'humanité est énorme, même en défense, mais permettre aux machines de choisir de tuer des humains sera dévastateur pour notre sécurité et notre liberté."

"Des milliers de mes collègues chercheurs sont d'accord. Nous avons cette opportunité d'empêcher l'avenir que vous venez de voir, mais la fenêtre pour agir se referme rapidement."

Ces chercheurs incluent Noel Sharkey, professeur émérite d'IA à l'Université de Sheffield qui a notamment tenté d'avertir la communauté robotique de ce problème en 2009.

«Le film a mis mes cheveux debout en cristallisant un possible résultat futuriste du développement de ces armes de haute technologie», a-t-il déclaré. «Il y a une course aux armements émergente parmi les nations de haute technologie pour développer des sous-marins autonomes, des avions de combat, des cuirassés et des chars qui peuvent trouver leurs propres cibles et appliquer une force violente sans l'implication de décisions humaines significatives. Il ne faudra qu'une seule guerre majeure pour libérer ces nouvelles armes avec des conséquences humanitaires tragiques et une déstabilisation de la sécurité mondiale. »


Voir la vidéo: Intelligence Artificielle VS Machine Learning VS Deep Learning - Les différences entre ces termes (Mai 2021).