L’humanité est confrontée à une nouvelle réalité grave : l’existence d’un nombre croissant d’armes autonomes. Cela peut sembler être un scénario hollywoodien, mais le risque est réel : les humains sont tellement éloignés du monde de la guerre que la prise de décisions mortelles est laissée aux capteurs et aux logiciels.

Quelle sorte d'avenir s'annonce si la décision de supprimer une vie humaine est reléguée à des algorithmes ? Les robots et les systèmes informatiques n'ont pas la capacité humaine distincte et unique de comprendre à la fois l'environnement complexe dans lequel ils évoluent et les armes qu'ils utilisent. En outre, plus les systèmes d’armes deviennent complexes - intégrant par exemple l’apprentissage automatique - et plus ils sont libres d’agir sans intervention humaine, moins les conséquences de leur utilisation sont prévisibles.

Au Comité international de la Croix-Rouge, nous pensons que la responsabilité de la décision de tuer, de blesser ou de détruire doit incomber à l'homme. C'est le soldat ou le combattant humain - et non une machine - qui comprend la loi et ses conséquences, et qui est responsable de son application. Ces obligations ne peuvent être transférées à un programme informatique. Les gouvernements - avec la société civile et le secteur des technologies de l’information - doivent sans tarder convenir de limites à l’autonomie des armes.

Les progrès technologiques représentent de grandes opportunités. Que ce soit dans les secteurs de la médecine, des transports, de l’agriculture, du commerce, de la finance ou de pratiquement tout autre domaine, la robotique, l’intelligence artificielle et l’apprentissage automatique ont un effet transformateur car ils améliorent la façon dont nous analysons et nous exploitons les données du monde qui nous entoure. Il est logique que la technologie soit prise en considération en ce qui concerne la sécurité et la défense nationales. C'est pourquoi il n'est pas surprenant que de nombreux pays investissent massivement dans l'intelligence artificielle et dans des systèmes robotiques militaires dotés d'une plus grande autonomie.

Mais s’agissant des conflits armés, nous ne devons pas oublier que même les guerres ont des limites. Les gouvernements, qui doivent désormais définir les limites des systèmes d’armes autonomes, doivent garantir le respect du droit international humanitaire et s’ancrer fermement dans les principes d’humanité et les impératifs de la conscience publique.

Lorsque le groupe d'experts gouvernementaux s'est réuni en avril dernier à Genève, en Suisse, afin d'examiner les systèmes d'armes autonomes, il a conclu qu’ils devaient impérativement rester sous contrôle humain.

Cette question était la plus simple à résoudre. Lors de leur prochaine réunion, fin août, les gouvernements s’appuieront sur cet accord pour répondre à une question plus difficile : quel est le niveau de contrôle humain requis pour assurer la compatibilité des armes autonomes avec nos lois et nos valeurs ?

Image : REUTERS

La réponse à cette question est importante car certains systèmes d’armes dotés de fonctions autonomes « critiques » en matière de sélection et d’attaque de cibles sont déjà utilisés dans des circonstances limitées pour des tâches très spécifiques, comme la neutralisation de missiles ou de roquettes. Après activation par un opérateur humain, c'est le système d'arme qui sélectionne une cible et lance une contre-attaque.

Cependant, la portée des futurs systèmes d’armes dotés d’une intelligence artificielle est beaucoup plus large. Elle englobe toute la gamme des systèmes robotiques armés et s'appuie potentiellement sur la technologie des systèmes d'« aide à la décision » fondés sur l’intelligence artificielle qui ont déjà été testés. Ces systèmes analysent les flux vidéo et détectent les cibles possibles.

Les nouvelles avancées étant rapides, les gouvernements - avec le soutien de la communauté scientifique et technique - doivent prendre des mesures urgentes pour se mettre d'accord sur des limites préservant l'élément humain essentiel, sans pour autant étouffer ou ralentir les progrès technologiques qui apportent des avantages évidents.

L'alternative est la perspective profondément déconcertante d'une nouvelle course aux armements et d'un avenir où les guerres se déroulent au moyen d'algorithmes, avec des résultats incertains pour les civils et les combattants.