Aujourd'hui, il est difficile d'imaginer une technologie aussi passionnante et terrifiante que l’Intelligence Artificielle. Alors que la couverture médiatique et les articles de recherche vantent constamment le potentiel de l'IA pour devenir le plus grand vecteur positif de changement dans les affaires et la société, la question qui reste en suspens est la suivante : « Eh bien, que se passe-t-il? »

Pendant des années, les experts ont mis en garde contre les effets imprévus de l'intelligence artificielle générale sur la société. Ray Kurzweil prédit que d'ici 2029, les machines intelligentes seront capables de déjouer les êtres humains. Stephen Hawking affirme qu’«une fois que les humains auront développé une IA complète, elle prendra son essor et se redéfinira de plus en plus rapidement». Elon Musk avertit que l'IA peut constituer un «risque fondamental pour l'existence de la civilisation humaine». Les opinions alarmistes sur le potentiel terrifiant de l'IA générale abondent dans les médias.

Les plus souvent, ces prophéties dystopiques ont été accueillies par des demandes d’une mise en place de règles d’éthique de l’IA. On demande aux ingénieurs d’imprégner les systèmes autonomes d'un sens de l'éthique. Selon certains experts de l'IA, nous pouvons enseigner à nos futurs robots à voir le vrai du faux, comme une «bonne IA samaritaine» qui agira toujours de façon juste et aidera les humains en détresse.

Bien que cet avenir soit encore loin, il y a aujourd'hui beaucoup d'incertitude quant à la façon dont nous atteindrons ce niveau d'intelligence artificielle générale. Mais le plus crucial actuellement, c'est que les applications de l'IA qui existent aujourd'hui requièrent notre attention urgente dans la façon dont elles prennent des décisions morales dans des situations pratiques au jour le jour. Par exemple, cela est pertinent lorsque les algorithmes prennent des décisions sur qui a accès aux prêts ou lorsque les voitures autonomes doivent protéger une vie humaine dans des situations dangereuses.

Enseigner la morale aux machines est difficile parce que les humains ne peuvent pas objectivement transmettre la moralité dans des mesures mesurables qui facilitent le traitement d'un ordinateur. En fait, il est même douteux que nous, en tant qu'êtres humains, ayons une bonne définition générale de la morale sur laquelle nous pouvons tous être d'accord. Dans les dilemmes moraux, les humains ont tendance à s'appuyer sur un sentiment instinctif au lieu de peser de penser de manière élaborée le pour et le contre. De plus, les machines ont besoin de mesures explicites et objectives qui peuvent être clairement mesurées et optimisées. Par exemple, un joueur, qui s’équipe d’une IA, peut exceller dans des jeux avec des règles et des limites claires en apprenant comment optimiser le score grâce à des exigences répétées.

Après ses essais d’IA sur les jeux vidéo Atari, Alphabet's DeepMind a été capable de battre les vrais meilleurs joueurs de Go. Pendant ce temps, OpenAI a accumulé des «vies» d'expériences pour battre les meilleurs joueurs du tournoi Valve Dota 2, l'une des compétitions de sports électroniques les plus populaires au monde.

Mais dans les situations de la vie réelle, les problèmes d'optimisation sont beaucoup plus complexes. Par exemple, comment apprenez-vous à une machine à optimiser un algorithme en matière d'équité ou à surmonter les préjugés raciaux et de genre dans ses données d’entraînement ? Une machine ne peut pas être éduquée à ce qui est juste à moins que les ingénieurs qui conçoivent le système aient une conception précise de ce qu'est l'équité.

Cela a conduit certains auteurs à s’interroger sur une application naïve des algorithmes et sur les problèmes du quotidien qu’elle pourrait amplifier : la discrimination structurelle et une reproduction des préjugés dans les données. Dans le pire des cas, les algorithmes pourraient priver les minorités de services, entraver les possibilités d'emploi ou faire élire le mauvais candidat politique.

A partir de nos expériences dans l'apprentissage des machines, nous croyons qu'il existe trois façons concevoir des robots plus alignés sur le plan éthique:

1. Définir un comportement éthique

Les chercheurs en IA et les éthiciens doivent formuler des valeurs éthiques en tant que paramètres quantifiables. En d'autres termes, ils doivent fournir aux machines des réponses explicites et des règles de décision à tous les dilemmes éthiques potentiels qu'elles pourraient rencontrer. Cela exigerait que les humains s'accordent entre eux sur le plan d'action le plus éthique dans une situation donnée — une tâche difficile mais pas impossible. Par exemple, la Commission d'éthique allemande sur la conduite automatisée et connectée a recommandé de programmer spécifiquement les valeurs éthiques dans les voitures autonomes afin de donner la priorité à la protection de la vie humaine par-dessus tout. En cas d'accident inévitable, la voiture devrait être « interdite pour compenser les victimes les unes contre les autres ». En d'autres termes, une voiture ne devrait pas être en mesure de choisir de tuer une personne en fonction des caractéristiques individuelles, telles que l'âge, le sexe ou la constitution physique et mentale quand un accident est inévitable.

2. Crowdsourcer notre définition de la morale

Les ingénieurs doivent collecter suffisamment de données sur des mesures éthiques explicites pour former correctement les algorithmes d'IA. Même après avoir défini des paramètres spécifiques pour nos valeurs éthiques, un système d'IA pourrait encore avoir de la difficulté à le relever s'il n'y a pas suffisamment de données impartiales pour former les modèles. Obtenir des données appropriées est un défi, car les normes éthiques ne peuvent pas toujours être clairement standardisées. Des situations différentes exigent des approches éthiques différentes et, dans certaines situations, il n'y a peut-être pas une seule ligne de conduite éthique — il suffit de penser aux armes autonomes mortelles qui sont actuellement développées pour des applications militaires. Une façon de résoudre ce problème serait de trouver des solutions potentielles aux dilemmes moraux de millions d'humains. Par exemple, le projet Moral Machine du MIT montre comment des données généralisées peuvent être utilisées pour former efficacement des machines afin de prendre de meilleures décisions morales dans le contexte des voitures autonomes.

3. Rendre transparent l’IA

Les décideurs doivent mettre en œuvre des lignes directrices qui rendent plus transparentes les décisions de l’IA, en particulier en ce qui concerne les paramètres éthiques et les résultats. Si les systèmes d'IA font des erreurs ou ont des conséquences indésirables, nous ne pouvons pas accepter que "l'algorithme l'ait fait" comme une excuse valable. Mais nous savons aussi qu'une exigence de transparence algorithmique complète est techniquement indéfendable (et franchement peu utile). Les réseaux de neurones sont simplement trop complexes pour être examinés par des inspecteurs humains. Au lieu de cela, il devrait y avoir plus de transparence sur la façon dont les ingénieurs ont quantifié les valeurs éthiques avant de les programmer, ainsi que les résultats que l'IA a produits à la suite de ces choix. Pour les voitures autonomes, par exemple, cela pourrait impliquer que les journaux de bord de toutes les décisions automatisées soient conservés pour assurer leur responsabilité.

Nous croyons que ces trois recommandations devraient être considérées comme un point de départ pour le développement de systèmes d'IA alignés sur l'éthique. A défaut d'imprégner l'éthique dans les systèmes d'IA, nous pouvons nous placer dans la situation dangereuse de permettre aux algorithmes de décider ce qui est le mieux pour nous. Par exemple, dans le cas d’un accident inévitable, les voitures autonomes devront prendre une décision pour le meilleur ou pour le pire. Mais si les concepteurs de la voiture ne parviennent pas à spécifier un ensemble de valeurs éthiques qui pourraient servir de guides de décision, le système d'IA peut proposer une solution qui cause plus de dommages. Cela signifie que nous ne pouvons pas simplement refuser de quantifier nos valeurs. En s'éloignant de cette discussion critique sur l’éthique, nous faisons un choix moral implicite. Et comme l'intelligence artificielle devient de plus en plus omniprésente dans la société, le coût de l'inaction pourrait être énorme — il pourrait affecter négativement la vie de milliards de personnes.

Les machines ne peuvent pas être être intrinsèquement capables de se comporter moralement. Les humains doivent leur enseigner ce qu'est la moralité, comment elle peut être mesurée et optimisée. Pour les ingénieurs d’IA, cela peut sembler une tâche ardue. Après tout, la définition des valeurs morales est un défi auquel l'humanité a été confrontée tout au long de son histoire. Néanmoins, l'état de la recherche sur l'IA nous oblige à définir la moralité et à la quantifier en termes explicites. Les ingénieurs ne peuvent pas construire une «bonne IA samaritaine», tant qu'ils n'ont pas de formule pour le bon samaritain.