Intelligence artificielle : mais que se passe-t-il dans le cerveau des machines ?

Share on facebook
Facebook
Share on google
Google+
Share on twitter
Twitter
Share on linkedin
LinkedIn

Il vous est certainement arrivé lors d’une requête ou d’un achat en ligne de devoir exécuter un test – du nom de reCAPTCHA – pour certifier que vous n’êtes pas un robot. C’est une façon de protéger les sites Web des spams et autres abus. Ce que vous ignorez peut-être, c’est qu’en cochant ces images de ponts, de camions ou de feux tricolores, vous contribuez à améliorer des algorithmes, en particulier celui de Google Street View, Google étant propriétaire de reCAPTCHA. De la même façon, lorsque vous taguez un ami sur Facebook ou que vous likez une vidéo sur YouTube, et plus généralement, à chacun de vos clics, vous enrichissez une intelligence artificielle.
Idem, lorsque vous utilisez n’importe lequel de vos objets connectés – bientôt 6 par personne en moyenne selon les prévisions du cabinet Gartner – Smartphone, montre, enceinte, téléviseur ou encore voiture et même réfrigérateur. Nous sommes tous des dresseurs d’intelligence artificielle qui imprègne notre vie et pourtant nous avons du mal à comprendre cette technologie née il y a un peu plus de soixante ans. Comment est fabriquée l’IA et quels défis soulève sa conception ? Plongée dans l’envers du décor.
>> A lire aussi – Intelligence artificielle… et superficielle ?
Si l’horizon des chercheurs est de recréer les mécanismes du cerveau humain dans des machines, on en reste encore loin. Car les machines sont incapables de raisonner. “Elles se contentent de ressortir ce qu’on leur a appris”, démystifie Luc Julia, vice-président chargé de l’innovation chez Samsung, connu aussi pour être l’un des créateurs de Siri, l’assistant vocal d’Apple. L’auteur de L’intelligence artificielle n’existe pas (Editions First, 2019) préfère parler “d’intelligence augmentée”. “L’IA est simplement la dernière vague du numérique”, corrobore Bruno Sportisse, président de l’INRIA, Institut de recherche en sciences et technologies du numérique, qui rassemble 200 équipes de recherche dont la moitié travaille dans le champ de cette discipline.
Longtemps cantonnée dans les universités et dans l’armée avant d’être investie par les géants du Web – Google, Facebook, Amazon, Microsoft ou Apple en Occident; Baidu, Alibaba, Tencent en Chine –, l’IA imprègne aujourd’hui tous les secteurs de l’économie au point d’être surnommée “l’électricité de demain”. Les entreprises y trouvent un moyen de déléguer à la machine les tâches pénibles et répétitives. Elles lui découvrent des vertus dans l’optimisation de la relation client en créant des interfaces de plus en plus naturelles. Elles y voient aussi un précieux outil d’aide à la décision, dans la banque, l’assurance, la santé… Sans parler du domaine des “objets intelligents”, de la voiture autonome au réfrigérateur connecté, qui envahissent notre quotidien.
>> A lire aussi – Ces entreprises où l’intelligence artificielle est déjà au boulot !
Pourquoi un tel succès ? Parce que depuis dix ans chacun des composants majeurs de l’IA a connu de fulgurants progrès. Les algorithmes, la “recette de cuisine” à base de statistiques et de probabilités qui permet à la machine d’imiter le comportement humain, sont de plus en plus perfectionnés. Tandis que les données disponibles (les ingrédients) et la puissance de calcul nécessaire pour mouliner le tout ont crû de façon exponentielle. “L’IA, ce sont des briques logicielles que l’on intègre à d’autres logiciels pour les rendre plus performants”, décrypte Alban Leveau-Vallier, professeur à Sciences-Po qui prépare une thèse de philosophie sur l’intelligence artificielle et l’intuition à l’université Paris VIII.
Prenez les métiers de la relation client. Ils incorporent surtout des outils de traitement du langage pour créer leurs chatbots (en français : agents de dialogue). Ceux de la finance, qui brassent quantité de données chiffrées, font appel au machine learning pour élaborer des modèles de décision. Les fabricants industriels, quant à eux, utilisent principalement la robotique et la vision artificielle pour concevoir leurs machines. L’IA est partout, mais elle disparaît en s’intégrant à l’environnement numérique.
>> A lire aussi – L’intelligence artificielle est-elle destructrice d’emplois ?
A la base de ces progrès fulgurants, le deep learning. Construite sur des couches neuronales, cette technologie d’apprentissage destinée aux machines a révolutionné l’IA en permettant aux logiciels de “reconnaître” des images, de traduire automatiquement des documents, d’entendre et déchiffrer la parole humaine en reconstituant, à leur façon, nos perceptions. Ce sont ces algorithmes éduqués au deep learning qui sont, par exemple, capable aujourd’hui de piloter des voitures autonomes.
Mais pour être opérationnels, ces petits bijoux, en particulier ceux qui s’appuient sur le deep learning, ont besoin de milliers d’heures d’entraînement. Car, à la différence des humains, la machine n’apprend qu’en multipliant les observations à grande échelle. “Pour reconnaître un chat avec une précision de 95%, il lui faut environ 100 millions d’images de cet animal, là où deux seulement suffisent à un enfant”, souligne Luc Julia. Plus la matière première est abondante et pertinente, plus l’intelligence artificielle se perfectionne. “Tandis que les algorithmes sont facilement accessibles en open source, les données, elles, représentent 80% du travail nécessaire à la mise au point d’une IA”, estime Alban Leveau-Vallier. Si l’IA est l’électricité de demain, les données, elles, en sont le pétrole.
Il en existe plusieurs sources : les données en ligne, la base de Google Search contient par exemple plusieurs centaines de millions d’images ; les données réelles, dans le cas de la voiture autonome, elles sont collectées par des capteurs disposés sur tous les types de routes ; ou encore les données clients avec un avantage aux entreprises disposant de gros fichiers. “C’est le cas des assurances, des banques, des hôpitaux, des spécialistes du transport ou de la distribution”, énumère le consultant Olivier Ezratty dans son opus sur Les usages de l’IA, en 2019. Encore faut-il extraire, labelliser (c’est-à-dire qualifier) et valider ces données d’apprentissage.
>> A lire aussi – Comment les hôtels personnalisent votre séjour grâce à vos données
Qui réalise ce travail de fourmi ? Nous ! “L’entraînement d’un algorithme requiert encore aujourd’hui une contribution humaine forte”, reconnaît Aurélie Jean, docteur en sciences et entrepreneuse qui a publié récemment De l’autre côté de la machine (Editions de l’Observatoire). C’est peu de le dire. Si dans bon nombre d’entreprises, le travail de collecte et d’annotation des contenus est réalisé en interne par des experts métiers, les plateformes numériques, elles, mobilisent quantité de petites mains externes. Tantôt, comme on l’a vu, ce sont les internautes qui font le job gratuitement via leur activité en ligne; tantôt des micro-travailleurs indépendants, payés à la tâche, par exemple pour entourer des images ou pour comparer deux vidéos. Ils sont recrutés à distance via des sociétés spécialisées telles Amazon Mechanical Turk, Clickworker ou Figure Eight. Antonio Casilli, sociologue français spécialiste des réseaux sociaux, dénonce dans le premier cas le travail caché des “produsagers” et dans le second cas celui, sous-payé, du «prolétariat numérique».
Ces “tâcherons du clic” comme les appelle l’auteur de En attendant les robots (Seuil, 2019) seraient entre 40 millions et plusieurs centaines de millions, essentiellement en Asie et en Afrique. Le graal ? Que la machine apprenne par elle-même, de façon moins supervisée et moins gourmande en données. Les chercheurs planchent sur la question. Ils testent plusieurs pistes et, parmi elles, l’apprentissage par renforcement. Ainsi, dans le jeu de go, plutôt que de se former sur un historique de parties, l’algorithme teste plusieurs scénarios en jouant contre lui-même. Prometteur.
>> A lire aussi – Qui sont les travailleurs du clic, petites mains du numérique ?
En attendant, notre vie est de plus en plus gouvernée par l’intelligence artificielle, qu’il s’agisse d’obtenir un prêt, de décrocher un job ou de diagnostiquer notre état de santé. Mais comment être certain qu’un algorithme est impartial ? Dans la mesure où il est conçu et éduqué par un humain, on peut s’attendre à ce qu’il soit perfectible. Les exemples de biais cognitifs (créés par le programmeur lui-même) ou statistiques (générés par les données utilisées) défraient régulièrement la chronique. Amazon a ainsi dû corriger son algorithme de recrutement entraîné sur les centaines de milliers de CV reçus pendant dix ans. Il sélectionnait majoritairement des hommes qui avaient constitué dans le passé l’écrasante majorité des embauches.
Aux Etats-Unis, un logiciel d’appréciation de risque de récidive dans la population carcérale a été jugé anticonstitutionnel parce qu’il accablait les Noirs. La parade contre ces algorithmes sexistes ou racistes ? “Intégrer l’éthique dès leur conception”, répondent les enseignants-chercheurs de Télécom Paris, David Bounie et Winston Maxwell qui ont rédigé un rapport en mars 2019 sur la question des biais. “L’éthique, préviennent-ils, sera forcément locale tant les cultures diffèrent.”
Mais il existe tout de même un garde-fou sur lequel presque tous les pays s’accordent, celui de “l’explicabilité”. Ce néologisme désigne l’art de décomposer les étapes de l’entraînement d’un algorithme pour mieux en identifier les biais et les corriger ou, à défaut, les expliquer. Pas si simple. Car, basé sur des probabilités et des statistiques, un algorithme fonctionne un peu comme une boîte noire : on y entre une donnée et il en sort un résultat. Mais on ne sait pas exactement ce qui se passe entre les deux… Un peu comme dans notre cerveau : on en connaît les processus et modes de fonctionnement. Pourtant, il reste quasi impossible d’anticiper à coup sûr une décision individuelle. Aux Etats-Unis, cette démarche vertueuse qui vise à “expliquer” les algorithmes est autorégulée. “Depuis deux ans, toutes les grosses boîtes, et parmi elles les GAFA, se sont dotées d’un comité d’éthique interne”, observent les deux chercheurs.
>> A lire aussi – Intelligence artificielle : “Ne nous laissons pas manipuler par les objets”
En Europe et en particulier en France, la loi encadre les intelligences artificielles concernant le grand public, notamment dans le domaine de l’éducation et de la santé. “Le résultat d’un algorithme doit pouvoir être compris et contesté”, insiste David Bounie. Dans le secteur privé, le souci de transparence devrait déboucher «d’ici deux ans», pronostique Alban Leveau-Vallier, sur une certification des algorithmes, accordée par un organisme indépendant sur le modèle des normes ISO. Quid du respect de la vie privée ? L’Europe est en pointe avec son règlement général sur la protection des données (RGPD) entré en vigueur en 2018, obligeant les plateformes numériques à informer les consommateurs sur la collecte de leurs données personnelles et l’usage qui en est fait.
Ce texte vient d’inspirer la Californie dont le Consumer Privacy Act est opérationnel depuis le début de l’année. Le but n’est pas de brider les entreprises mais “d’éviter les rejets vis-à-vis de cette technologie”, explique Bruno Sportisse, en promouvant une IA dite “de confiance”. Baignées dans les algorithmes depuis leur plus tendre enfance, les jeunes générations y seront d’autant plus sensibles !
Quelles menaces pour l’emploi ?
On ne compte plus le nombre d’études tentant d’évaluer l’impact de l’IA sur l’emploi, menaçant non plus particulièrement les ouvriers mais les employés, voire les cadres. Et selon ces prévisions, les écarts sont vastes. De la plus pessimiste, celle de deux chercheurs de l’université d’Oxford du nom de Frey et Osborne qui évaluait en 2013 à 47% le nombre d’emplois techniquement “robotisables” aux Etats-Unis à l’horizon 2030, à la plus optimiste, celle de l’institut Forrester en 2016, estimant à 6% les destructions nettes d’emploi. Dans l’intervalle, une étude de l’OCDE préconisait de comptabiliser les tâches susceptibles d’être automatisées, plutôt que les emplois. On délèguerait en priorité à la machine les corvées répétitives pour orienter les salariés vers des missions plus valorisantes.
Dans une telle hypothèse, l’enjeu consiste à requalifier ces personnes en accompagnant leur montée en compétences avec de la formation. Les scénarios les plus sombres redoutent, eux, l’apparition d’ “une classe inutile”, comme la nomme l’historien Yuval Harari. Ils préconisent l’allocation d’un revenu universel pour pallier les tensions. A l’opposé, des spécialistes, tels le Taïwanais Kai-Fu Lee, qui fut le président de Google en Chine avant d’y fonder sa propre société de capital investissement, parient sur la création de nouveaux emplois, notamment dans le secteur des services.
>> Notre service – Votre CV est-il vraiment rédigé comme il faut ? Capital vous offre son analyse complète pour l’améliorer
Le défi écologique de l’IA
Difficile d’évaluer l’empreinte carbone de l’IA, noyée dans la masse de la consommation d’énergie de l’ensemble des usages du numérique. Certains experts ont attaqué le sujet par le petit bout de la lorgnette. Dans son Anatomie d’un système d’IA, Kate Crawford, chercheuse chez Microsoft et fondatrice de l’association AI Now Institute à New York, décortique l’ensemble du processus de fabrication de l’enceinte connectée Echo d’Amazon. Pour conclure à l’aberration écologique de ce petit objet. Dans la même veine, des chercheurs de l’université du Massachusetts ont calculé que l’entraînement d’un modèle de deep learning pendant quatre à sept jours pour éduquer un assistant personnel à reconnaître votre voix et interpréter une commande vocale consommait en énergie l’équivalent de 5 voitures pendant toute leur durée de vie !
On sait aussi que l’IA carbure aux big data. La prolifération des data centers – plusieurs milliers dans le monde et plus de 130 en France – devrait accroître leur poids dans la consommation énergétique mondiale, pour l’heure estimée à 4%. La parade ? Faire tourner ces centres avec de l’énergie renouvelable. Et surtout, déployer de l’apprentissage d’IA faiblement énergétique. “Il existe un domaine de recherche actif sur ce sujet”, assure Alban Leveau-Vallier.

Plus d'articles

Dossier Exclusif Covid-19

Comment protéger son épargne et ses investissements après la crise du Covid-19.

Dossier exclusif avec:

Comparez le rendement d'un livret A, et un investissement alternatif.

Une fiche de calcul simple pour évaluer le potentiel de rendement d’un investissement alternatif