Intelligence artificielle : “Ne nous laissons pas manipuler par les objets”

Share on facebook
Facebook
Share on google
Google+
Share on twitter
Twitter
Share on linkedin
LinkedIn

Management : Quels sont les enjeux actuels de l’éthique en matière d’IA ?
Laurence Devillers : C’est, par exemple, se demander quel sera l’impact sur nos vies des objets connectés tels qu’Alexa ou Google Home. Comment vont-ils changer nos habitudes, est-ce que nous allons leur laisser prendre des décisions à notre place? Comment peuvent-ils nous manipuler? L’apprentissage de ces machines pose aussi un problème. La chercheuse américaine Cathy O’Neil a été la première à décrire les biais des algorithmes. Elle pointait les dérives racistes et sexistes des objets dits intelligents, qui dépendent des données qu’on leur fournit. Par exemple, un sèche-mains automatique développé par Google ne se déclenchait qu’avec des mains de couleur claire, car il avait été entraîné comme cela. Il faut à la fois informer le public sur ce que sont ces objets et faire en sorte qu’ils n’aillent pas trop loin.
Certains usages sont très utiles, comme les technologies de répétition et d’apprentissage développées pour les personnes âgées qui perdent le langage. Ces évolutions peuvent être positives à condition qu’on élève le débat, qu’on ne vise pas seulement à développer une technologie de pointe, mais qu’elle soit en même temps acceptable, qu’elle n’ait pas de conséquences drastiques pour l’homme. Il y a une coévolution des humains et des machines. Nous créons des machines qui s’adaptent à nous, mais nous nous adaptons aussi à elles. Cela doit aller dans le bon sens sinon nous risquons de tomber dans une dépendance paresseuse à l’égard des objets, qui pourront nous manipuler.
Quels sont les risques ?
Il est important de savoir ce que la machine détecte, qu’elle soit installée dans les foyers ou dans les entreprises. On parle beaucoup de reconnaissance faciale en ce moment avec l’exemple chinois, mais on n’entend jamais parler de reconnaissance audio. Or il existe à l’heure actuelle des logiciels qui travaillent sur la voix. Par exemple, des candidats doivent répondre à des questions orales et les réponses enregistrées sont envoyées à l’entreprise qui recrute, puis analysées par un logiciel qui dissèque les mots, les inflexions, le timbre de la voix et procède au tri des CV. Mais ces critères de sélection sont opaques. Les ingénieurs et les évaluateurs de ces logiciels ont énormément de responsabilités. Un tel programme peut se révéler performant s’il est adapté à une voix en particulier, mais il ne fonctionne pas à partir d’un modèle général. Les IA de détection des émotions ne sont pas très fiables, par exemple en ce qui concerne les accents ou les différences culturelles.
>> A lire aussi – Intelligence artificielle… et superficielle ?
Que pensez-vous de la sous-représentation des femmes dans l’IA ? 80% des codeurs et des concepteurs informatiques sont des hommes et 80% des objets qui nous répondent sont féminisés, par leur prénom – Alexa, Sophia –, par leur voix, mais aussi par leur visage ou par leur corps. Nous créons un monde de créatures artificielles de figures féminines, que l’on utilise et que l’on éteint quand on veut. Ces stéréotypes sont déployés partout et renforcent les préjugés. Au Japon, il existe un chatbot nommé Gatebox, une petite amie virtuelle, un hologramme, qui vit sous cloche. Elle se soucie du bien-être de son propriétaire lorsqu’il est à la maison et lui envoie des textos lorsqu’il est absent, imitant le langage d’une jeune femme amoureuse attendant son compagnon. Je ne pense pas qu’un chatbot de personnage masculin avec les mêmes fonctions aurait été développé.
Quelle image de la femme véhiculent ces objets ? Ces figures virtuelles sont placées dans des positions d’assistantes, de secrétaires, de robots sexuels, de compagnes. Dans le contexte actuel, on ne peut que s’en préoccuper. De plus, pourquoi utiliser cette technologie pour refaire des humains et rejouer notre quotidien ? C’est dommage de ne pas profiter de cette énorme capacité pour réaliser des choses plus utiles !
Quels sont vos axes de recherche au CNRS et au sein de l’Institut DataIA ?
Avec mon équipe, nous travaillons sur la détection des émotions et la manipulation possible à travers les systèmes de dialogue, notamment via les nudges, ces incitations inconscientes à adopter tel ou tel comportement. Ce sujet ne peut pas être traité uniquement par des start-up ou des groupes qui commercialisent des objets. Il est nécessaire d’avoir des observatoires pluridisciplinaires réunissant des ingénieurs, des sociologues, des économistes, des ethnologues, etc. Nous devons aussi observer ce qui vient de l’étranger, comment sont développés les objets, quels sont leurs comportements. Il est important de rendre plus transparent le comportement de ces machines.
Ensuite, nous travaillons sur l’empowerment, la diffusion du fruit de ces recherches pour que les gens comprennent les bénéfices et les risques de ces technologies. Il n’y a pas assez de projets de long terme sur ces sujets. Nous pourrions nous donner pour ambition de devenir leader sur l’éthique de l’IA en Europe, avec le Canada et les pays qui ont la même volonté. Les chercheurs qui voyagent dans le monde entier pourraient être les ambassadeurs de cette ambition.
>> A lire aussi – Ces entreprises où l’intelligence artificielle est déjà au boulot !
Les industriels de l’IA se sont-ils emparés de ces questions éthiques ?
On en parle davantage, mais cela ne veut pas dire que l’on déploie des outils et des règles pour les machines. L’éthique est un compromis entre les bénéfi ces et les risques liés à la fonction ou à l’utilisation d’un objet. Nous sommes dans une période de transition où la technologie va plus vite que les garde-fous qu’on devrait mettre en place. Pendant longtemps, l’éthique n’a pas été mise sur la table, car le sujet était considéré comme anxiogène. On y voyait aussi un frein au déploiement de l’IA. Ce n’est évidemment pas le cas. Il est possible de concevoir des objets mieux acceptés si l’on se préoccupe en amont de leurs incidences. Il faut en faire un sujet transparent et l’expliquer.
La France, l’Allemagne, l’Europe, le Japon notamment ont publié des rapports sur cette question, ainsi que l’association IEEE [l’Institut des ingénieurs électriciens et électroniciens, NDLR], qui rassemble plus de 400 000 membres dans 160 pays. En 2018, la déclaration de Montréal édictait une charte pour encadrer la recherche en IA. Avec l’arrivée de la RGPD, tout le monde a pris conscience de l’importance du sujet. Enfi n, le Comité consultatif national d’éthique, avec sa nouvelle branche numérique, commence à élaborer des préconisations sur l’éthique de l’IA et des technologies numériques.
Laurence Devillers est professeure d’informatique et d’éthique à Sorbonne Université et chercheuse au Limsi-CNRS, spécialisée dans l’étude des interactions homme-machine, auteure Des robots et des hommes (Plon, 2017) et des Robots émotionnels (Editions de l’Observatoire, sortie prévue en mars 2020). Elle met en garde sur les questions éthiques posées par les machines intelligentes.

Plus d'articles

Dossier Exclusif Covid-19

Comment protéger son épargne et ses investissements après la crise du Covid-19.

Dossier exclusif avec:

Comparez le rendement d'un livret A, et un investissement alternatif.

Une fiche de calcul simple pour évaluer le potentiel de rendement d’un investissement alternatif