Les exemples de reproduction de discriminations sexistes et racistes par l’intelligence artificielle se sont multipliés ces dernières années. Rien d’étonnant, les algorithmes qui permettent aux IA de tourner sont nourris par des jeux de données bien réels. Elles reproduisent les biais de nos sociétés et ont même une fâcheuse tendance à tourner en boucle, et donc à les renforcer.

Mars 2018, grand moment dans le monde de l’intelligence artificielle. Le mathématicien et député LREM Cédric Villani présente son rapport « AI for humanity », commandé quelques mois plus tôt par le Premier ministre Édouard Philippe. Lors de la restitution en grande pompe au Collège de France du rapport et de ses propositions, Emmanuel Macron offre à l’assemblée un discours dont il a le secret. À propos des étudiants et chercheurs du secteur, le président de la République s’amuse : « Il ne faut pas qu’ils soient ce que je suis devant vous, un mâle blanc quadragénaire formé dans les grandes universités européennes et américaines. » En ligne de mire, le manque de diversité et de femmes dans le monde de l’intelligence artificielle.

Les chiffres varient d’une étude à l’autre, mais s’accordent sur un point : le nombre de femmes dans les métiers de l’IA est particulièrement bas. Selon le Syntec numérique, les femmes ne représentent que 27 % des employés du secteur, et seulement 11 % dans la cybersécurité. C’est encore pire en IA, avec 10 % de femmes parmi les salariés travaillant sur le sujet chez Google et 15 % dans le laboratoire spécialisé de Facebook, selon une enquête de Wired. Pourquoi ces pourcentages sont-ils inquiétants ?

« Il existe deux types d’algorithmes, ceux d’apprentissage automatique et ceux de reconnaissance. Ils apprennent à partir de jeux de données du passé, souvent conservateurs », expliquait Frédéric Bardolle de Data for Good et AlgoTransparency, lors d’une journée sur l’intelligence artificielle organisée en début d’année par Politiqu’elles et Social Builder.

Boucles de rétroaction

En octobre dernier, Amazon, qui utilisait une intelligence artificielle depuis 2014 pour trier automatiquement les CV, a mis fin à ce système de sélection, rapportait Reuters. Nourrie par des données récoltées entre 2004 et 2014, l’IA affublait systématiquement de mauvaises notes les candidatures de femmes pour les métiers techniques, comme développeuse web. Principale raison : sur cette période, l’entreprise embauchait quasiment exclusivement des hommes. L’IA ne faisait que reproduire ce qui se faisait, sexisme compris.

C’est ce que la mathématicienne Cathy O’Neil, nomme dans son ouvrage « Algorithmes, la bombe à retardement » (Les Arènes, novembre 2018), des « boucles de rétroaction » qui entraînent une spirale négative dont l’intelligence artificielle est incapable de sortir. « Nous entraînons les algorithmes avec des données d’un monde profondément inégalitaire », confirme Isabelle Collet, informaticienne et sociologue, spécialiste des discriminations des femmes dans l’informatique. « Le risque est de renforcer le problème, car nous sommes en train de l’automatiser, ajoute la chercheuse, qui enseigne aussi la pédagogie de l’égalité. Il est indispensable d’en être conscients et d’apprendre à l’IA à faire attention, voire à favoriser les femmes, sinon il sera de plus en plus difficile de rompre ces biais. »