Les caméras de surveillance permettent l’utilisation de techniques pour tromper les systèmes de reconnaissance visuelle et faciale des intelligences artificielles (IA). Par exemple, un simple pull-over peu esthétique peut rendre son porteur invisible, comme l’ont démontré des chercheurs de l’université du Maryland aux États-Unis. Le problème est que ces difficultés rencontrées par les IA se retrouvent également dans leurs versions destinées à un usage militaire.
La question de l’utilisation de robots tueurs autonomes se pose de plus en plus, et leur capacité à tirer ou à déclencher un explosif est inquiétante si leur IA peut être trompée par ce qu’elle voit ou ne voit pas. Cela a été mis en évidence lors d’essais avec des robots chiens de la Darpa par une équipe de Marines aux États-Unis, qui ont pu tester et vérifier leurs faiblesses en matière d’identification d’êtres humains dans leur champ de vision.
Dans son livre récemment publié, « Four Battlegrounds: Power in the Age of Artificial Intelligence », Paul Scharre, un ancien analyste du Pentagone et vétéran de l’armée, explique comment se sont déroulées les expérimentations militaires. La Darpa avait confié les robots aux Marines pendant six jours pour qu’ils puissent les entraîner et améliorer leur IA. Mais les militaires ont également cherché les failles de ces robots censés être capables d’identifier automatiquement des êtres humains.
Une IA militaire dupée par des gymnastes
Au cours de leurs essais, huit Marines ont placé un de ces robots chiens au centre d’un rond-point pour qu’il puisse surveiller son environnement. Leur objectif était de trouver des moyens de s’approcher et de toucher le robot sans être détectés, comme dans un jeu du loup avec un robot.
Les militaires ont fait preuve d’imagination : deux d’entre eux se sont approchés du robot en effectuant des sauts périlleux sur 300 mètres, deux autres se sont cachés dans des boîtes en carton pour se rapprocher, et un autre s’est dissimulé derrière une branche de sapin pour se faire passer pour un arbuste. Dans tous ces cas, l’algorithme militaire n’a pas réagi à ces éléments qui s’approchaient de lui, car l’IA avait été entraînée pour détecter des humains qui marchent et non pas qui avancent en effectuant des sauts périlleux ou des boîtes en carton qui se déplacent.
Le livre ne précise pas la date de ces événements, et il est probable que ces défauts aient été corrigés depuis. Cependant, il est certain qu’une IA ne sait faire que ce qu’on lui apprend à faire. Ainsi, malgré ses capacités extraordinaires en rhétorique, une IA comme la populaire ChatGPT peut se retrouver à dire n’importe quoi avec force et conviction. Si une IA peut être trompée par des gymnastes, lui faire confiance lors de missions sur le terrain n’est peut-être pas encore pour demain. Pourtant, des robots autonomes à capacité létale, comme des drones, sont déjà utilisés par certains pays, soulevant des questions éthiques sur leur utilisation.