Docteures en sciences et fondatrices de Wax Science, une association pour la mixité dans les sciences, Aude Bernheim et Flora Vincent viennent de publier "L’Intelligence artificielle, pas sans elles !". Un ouvrage où elles décortiquent les biais sexistes de l’intelligence artificielle.

L’Usine Nouvelle – Votre livre s’intéresse au sexisme dans l’intelligence artificielle (IA). Comment caractérisez-vous ce phénomène ?

Aude Bernheim et Flora Vincent – Le sexisme dans l’intelligence artificielle revêt deux facettes. La première correspond au sexisme qui court dans le numérique et en particulier l’intelligence artificielle. Beaucoup de témoignages et chiffres le montrent. Un des plus marquants : 56% des femmes occupant un poste technique dans les entreprises de ce domaine le quittent en milieu de carrière. Mais il existe un deuxième aspect au problème. Les produits de l’IA eux-mêmes sont sexistes. C’est là-dessus que nous voulons sensibiliser.

Comment fonctionnent ces biais sexistes de l’IA ?

D’abord ces produits reproduisent nos stéréotypes de genre. Nous constatons par exemple que les logiciels de traduction donnent aux mots anglais "doctor" et "nurse", qui ne sont pas genrés, une traduction genrée en français, soit un docteur et une infirmière. A l’inverse, l’expression "je cuisine", quand elle est traduite dans une langue où le "je" n’est pas neutre, est traduite dans une version féminine. L’autre aspect des biais sexistes est qu’ils peuvent propager des inégalités. C’est le cas par exemple d’un algorithme proposant un salaire, qui reproduira le fait que les femmes sont payées en moyenne 24% de moins qu’un homme à compétences égales. Une étude portant sur les publicités ciblées de Google a aussi montré qu’à des profils équivalents, les offres d’emploi envoyées aux femmes étaient moins rémunérées.

Comment lutter contre ces biais ?

Techniquement, nous savons répondre à ces problèmes. En observant comment sont construits ces algorithmes, en déroulant la trame qui va de la conception jusqu’au produit, nous avons pu identifier les espaces où un biais sexiste peut s’insérer. C’est ce que nous appelons les étapes de la contagion sexiste. L’une de ces étapes par exemple renvoie au jeu de données utilisé pour entraîner un algorithme. Si ces données sont biaisées, l’algorithme le sera aussi. Ce phénomène a notamment été soulevé par la chercheuse américaine Joy Buolamwini, qui a observé que les logiciels de reconnaissance faciale ne l’identifiaient pas bien. Cette défaillance venait du fait que cette chercheuse était une jeune noire alors que les algorithmes avaient été entraînés sur un jeu d’images comprenant essentiellement des hommes blancs de 30 à 50 ans. Voilà un biais technique très précis que l’on sait corriger.

Vous parlez également de propagation du sexisme dans votre livre. Qu’entendez-vous par là ?

Les développeurs utilisent beaucoup de plate-formes de partage de code, comme GitHub. Cela signifie qu’une base de données créée à un endroit peut être réutilisée partout dans le monde. Or si cette base est biaisée, on a un énorme problème de propagation. Cela est flagrant dans le domaine de la reconnaissance faciale, où tout le monde utilise les mêmes briques de codes et base de données d’apprentissage. Mais cela signifie qu’en changeant une base de données, on peut avoir un impact fort. C’est là la force et faiblesse de la réutilisation du code : les biais se propagent vite mais leur correction peut rapidement toucher beaucoup de personnes. Il est important que ceux qui codent et qui évaluent les algorithmes aient conscience de ces phénomènes.

Peut-on apprendre aux codeurs à développer des algorithmes inclusifs ?

Nous défendons la création dans les écoles informatiques de modules pour apprendre à "coder l’égalité". Car les modes d’écriture des algorithmes ont leur rôle dans la création des biais. En littérature, deux personnes ayant les mêmes consignes et les mêmes règles d’orthographe écriront deux textes différents. Dans le langage informatique, c’est la même chose. C’est également pour cela qu’il est crucial d’avoir plus de femmes dans les métiers de l’IA. Quand un directeur d’université commande un algorithme pour trier les dossiers de candidatures reçus, il faut définir ce qu’est un bon dossier. Cela renvoie à des choix subjectifs mais qui deviendront objectifs une fois intégrés dans un algorithme. Le développeur va faire des choix entre la demande formulée et sa traduction mathématique. La manière dont il perçoit le monde a donc un impact important sur l’algorithme et ses biais. Le message de celui qui commande l’algorithme également. Cette personne doit avoir conscience des biais possibles pour donner les instructions les plus précises.

L’IA peut-elle à l’inverse servir l’égalité ?

L’IA est un outil puissant qui peut reproduire autant de biais sexistes qu’il peut en combattre. Cette technologie a des biais sexistes mais elle peut aussi être mise au service d’une société plus égalitaire.On peut demander à un algorithme apprenant à partir d’une base de données où les femmes sont moins payées que les hommes de proposer des salaires égaux. On peut aussi lui demander de privilégier les candidatures féminines. Il est très facile d’implémenter dans un code informatique que les cents premiers profils Linkedin proposés pour un poste dans la tech soient ceux de femmes. Ici la question n’est pas technologique mais éthique. Il s’agit de savoir à quel point nous voulons utiliser la technologie pour changer la réalité. En sachant qu’il est peut-être plus facile de modifier des lignes de code que les mentalités.