L’Intelligence Artificielle (ou IA) transformera le monde, changeant ainsi beaucoup de choses pour toutes les catégories de personnes ; les enfants seront parmi les plus touchés.

« Vous et moi vivons dans une ère où nous commençons à en ressentir les effets, mais nous avons vécu pendant longtemps sans vraiment interagir avec l’Intelligence Artificielle. Nous sommes de surcroît des adultes possédant des capacités de volonté et d’autonomie. Pour les enfants, c’est différent, » explique Erica Kochi, co-fondatrice de l’Unité d’Innovation de l’UNICEF.

Qu’il s’agisse des algorithmes alimentant le contenu des chaînes YouTube pour enfants, des jouets intelligents qui écoutent et garde la trace de toutes les interactions de leurs petits consommateurs, ou encore des robots éducatifs qui pourraient bientôt remplacer les enseignants dans les classes, il y a d’ores et déjà de multiples exemples d’enfants au contact de produits d’IA leur procurant conseils, suggestions, compagnie et distraction.

Dans le processus, tous ces outils et jouets récoltent un nombre impressionnant de données relatives à leur comportement, données pouvant être utilisée en retour par les développeurs pour adapter leur offre et amener les enfants à utiliser ces produits de plus en plus. Mais pour quelles conséquences ?

« Pour l’instant, lorsque vous regardez une vidéo sur YouTube, ce dernier optimise son contenu en fonction de cette vidéo, pour vous garder sur le site, n’est-ce pas ? Et pour vous pousser à regarder de plus en plus de vidéos. Mais quand il est question d’enfants, ce n’est peut-être pas la meilleure optimisation qui soit. Nous devrions à la place rechercher des algorithmes qui optimisent la créativité, l’implication et l’apprentissage réel, » estime Kochi.

Et c’est loin d’être un projet moindre ou sans valeur, si l’on se penche sur une étude Brand Love de 2017 montrant que 80 % des enfants américains utilisent YouTube quotidiennement.

Alors, existe-t-il un moyen de développer de tels algorithmes ? Et ciblant les enfants en particulier ? Pas encore, mais c’est l’un des enjeux sur lesquels travaille le groupe de Kochi composé de 70 personnes, en collaboration avec de grandes entreprises de technologies, des universités, et des organisations internationales afin de développer une expertise et des propositions à travers le projet GenerationAI.

L’une de leurs idées est de créer un outil d’évaluation des droits de l’enfant pour les contenus ou plateformes d’Intelligence Artificielle, à l’instar, par exemple, des initiatives telles que Child Friendly Cities (« Villes Amies des Enfants ») ou Baby-Friendly Hospitals (« Hôpitals Amis des Bébés »). Pour les jouets intelligents, qui pourraient être hackés et exposer le jeune utilisateur à du contenu inapproprié, les solutions pourraient inclure le développement d’un logiciel pour détecter des « mots déclencheurs », ou bien la formation des employés de fabricants de jouets à l’identification et le signalement des maltraitances. Il serait également possible d’intégrer un devoir légal pour les fabricants de jouets et de robots éducatifs de surveiller et géolocaliser le comportement suspect de leurs produits.

Cette approche ne peut pas être purement légale, cependant. Elle doit aussi être culturelle. L’un des principaux problèmes est que les enfants pourraient finir par voir leurs compagnons IA comme des êtres réellement doués d’intelligence, avec une vraie personnalité.

Au lieu de cela, nous devons leur enseigner que ces appareils sont en fait créés par les humains et qu’ils peuvent être programmés, manipulés et trafiqués comme n’importe quel autre appareil technique. De plus, s’ils souhaitent un jour devenir les concepteurs de cette technologie, ils doivent apprendre à le faire en ayant toujours l’éthique à l’esprit.

C’est d’ailleurs ce que le groupe Personal Robots du MIT Media Lab tente de faire, avec son cursus AI+Ethics qui a été mis à l’essai en octobre dernier et a été récemment testé à nouveau lors d’un atelier d’une semaine à Cambridge.

Enseigner les bases et limites de la technologie IA à l’école est aussi un moyen de donner aux enfants les outils pour se protéger des excès et abus qui pourraient se produire dans ce même environnement éducatif. L’Intelligence Artificielle pourrait offrir d’immenses opportunités en termes d’accessibilité, de soutien cognitif, d’informations provenant de l’analyse de gros volumes de données ; d’un autre côté, elle pourrait être utilisée pour surveiller les enfants comme jamais auparavant.

Quelques écoles chinoises suivent déjà leurs élèves à la trace à l’aide « d’uniformes intelligents » et utilisent des caméras de reconnaissance faciale pour contrôler leur degré d’attention.

Il est difficile de prévoir les conséquences possibles de cette surveillance en continu : les enfants adapteront-ils leur comportement, s’autocensurant pour ne pas être pris à faire ou dire quelque chose qu’il ne fallait pas ? Ou finiront-ils simplement par l’accepter comme faisant partie de leur vie, n’en ayant jamais connu d’autre ?

Ne vous y trompez pas : l’Intelligence Artificielle n’est pas l’ennemi ; en effet, comme le dit Kochi, « le plus gros effet négatif pourrait être l’écart grandissant entre ceux pouvant rivaliser à l’ère de l’IA grâce à leur accès aux outils d’apprentissage permettant de réellement étendre l’accès à l’éducation et d’améliorer ses résultats, et ceux qui n’auront pas cette possibilité. »

En fin de compte, c’est la façon dont cette technologie sera mise en place et diffusée qui fera toute la différence. Et cela pourrait être à notre génération, la dernière à savoir ce qu’était la vie avant Internet, les selfies, l’omniprésence des caméras et le binge watching, de faire en sorte que la transition soit réellement bénéfique à nos enfants.