TECHNOPHILE

L’intelligence artificielle, une promesse à double tranchant

Certains redoutent que la technologie qui vise à créer, chez les robots ou les logiciels, une intelligence comparable à l’homme sonne le glas du monde tel que nous le connaissons. D’autres l’estiment capable de résoudre tous les problèmes. La réalité se situe probablement à mi-chemin.

Utiliser un ordinateur pour défier un expert en jeu de go était pendant longtemps une entreprise vaine: l’humain battait l’intelligence artificielle à plate couture. Le go se distinguait des échecs, des dames ou du backgammon, déjà dominés par les machines, en raison de sa subtilité et de sa complexité. Pourtant, lors d’une partie organisée à Séoul en 2016, un programme baptisé «AlphaGo» l’a emporté 4 à 1 sur le Sud-Coréen Lee Sedol, considéré comme le meilleur joueur au monde.

La victoire d’AlphaGo a démontré le pouvoir de l’apprentissage profond, technique d’intelligence artificielle (IA) qui utilise une architecture proche de celle du cerveau pour modéliser de grandes séries de données. Dans le cas d’AlphaGo, conçu par DeepMind, filiale londonienne de Google, la série se compose de configurations du plateau de go utilisées pour sélectionner les mouvements gagnants. Ces dernières années, cette technique a permis d’automatiser des tâches que les programmes traditionnels peinent à réaliser, comme identifier des images, reconnaître des voix ou conduire une voiture.

Rendu possible grâce à la puissance des ordinateurs contemporains, la quantité quasi illimitée de données en ligne et l’amélioration des algorithmes, l’apprentissage profond a entraîné un regain d’intérêt pour l’IA. La tendance a relancé le débat sur les menaces potentielles de la discipline: en 2014, le physicien Stephen Hawking déclarait qu’elle pourrait «sonner le glas de la race humaine». Mais elle a aussi poussé l’industrie à mobiliser des sommes colossales. De nombreuses sociétés technologiques ont investi pour produire des appareils avec davantage de fonctions intelligentes et de qualités humanoïdes.

«Lorsque j’ai débuté dans l’IA dans les années 1980, internet n’existait pas. Il était très difficile de trouver des données et presque rien n’était lisible par une machine, raconte Boi Faltings, directeur du Laboratoire d’intelligence artificielle de l’Ecole polytechnique fédérale de Lausanne (EPFL). Aujourd’hui, les ordinateurs sont plus rapides et les données plus nombreuses: tous les éléments sont réunis.»

Neurones artificiels

Pour certains scientifiques, l’objectif principal de l’IA consiste à se rapprocher de l’humain, tandis que d’autres entendent faire «plus et mieux», note Boi Faltings. Née officiellement lors d’un atelier scientifique dans le New Hampshire en 1956, l’IA a engendré plusieurs formes d’intelligence de la machine. Celle sur laquelle repose l’apprentissage profond — les réseaux de neurones — a été concrétisée par Frank Rosenblatt, un psychologue qui a fabriqué une sorte de cerveau mécanique baptisé «Perceptron» dans les années 1950 et 1960.

Un réseau de neurones se compose de neurones artificiels (ou unités) regroupés en couches. A l’instar des neurones biologiques, ils sont connectés à d’autres unités des couches voisines, chaque connexion étant pondérée. Une unité est chargée de l’activation, c’est-à-dire de l’envoi d’un signal à la couche suivante, lorsque la somme des signaux pondérés de la couche précédente dépasse un certain seuil. L’idée est la suivante: entrer certaines séries de données aboutit à un résultat spécifique. En d’autres termes, ces séries sont considérées comme des exemples d’un objet spécifique, qu’il s’agisse d’un chat, d’une chaise ou d’un visage.

Les réseaux sont alimentés par de multiples versions du même objet et, après cet entraînement, leur capacité à produire le bon résultat est examinée. La différence entre la réponse proposée et la bonne réponse est ensuite utilisée pour affiner les pondérations et les aider à se perfectionner. C’est ainsi que les réseaux «apprennent» à reconnaître des objets. Lorsqu’ils tombent sur des données inconnues, ils doivent réussir à identifier le ou les objets qu’elles contiennent.

Les chercheurs ont peiné pendant des décennies à construire des réseaux fiables et efficaces. Leur objectif consistait à bâtir des réseaux multi-couches. Les couches devaient permettre d’augmenter progressivement le niveau d’abstraction: la première quantifierait les pixels clairs et foncés d’une image, la deuxième identifierait les bords et les formes basiques et la troisième utiliserait ces informations pour reconnaître l’objet. Mais le processus d’ajustement des pondérations supposait d’envoyer les informations produites par un appareil dans différentes couches, et celles-ci se dégradaient au fur et à mesure des couches. A l’époque, l’utilisation de couches multiples (c’est-à-dire l’apprentissage profond) était encore bien loin.

Le problème a été résolu au début du siècle par plusieurs scientifiques, dont Geoffrey Hinton de l’Université de Toronto. Sa solution? Une séparation nette des couches de neurones lors du processus d’apprentissage pour éviter la dégradation des ajustements de pondérations. Conjuguée à l’arrivée du big data et de processeurs rapides et bon marché, cette avancée a contribué aux nombreuses applications pratiques actuelles de l’IA.

Un chameau à trois pattes

Les voitures autonomes font partie des applications les plus en vue. Tesla Motors observe la conduite humaine pendant de longues heures et utilise des capteurs pour enregistrer l’évolution du contexte (notamment la vitesse et la position des autres véhicules) et la réaction du conducteur. Ces données sont ensuite réunies, les premières servant d’intrants au modèle et les secondes, d’étiquettes. Pour concevoir un modèle permettant à la voiture de se comporter comme un conducteur humain, il faut constamment ajuster les pondérations, afin que le résultat attendu et celui obtenu finissent par coïncider.

L’apprentissage profond a également été utilisé pour améliorer la reconnaissance des images. En 2012, Google affirmait avoir obtenu un taux de réussite de 16% après avoir entraîné un réseau neuronal comptant un milliard de connexions à distinguer 22’000 objets contenus dans des millions de vidéos choisies au hasard sur YouTube. De son côté, DeepMind s’est distingué en créant un algorithme d’apprentissage profond capable de jouer à 49 jeux d’arcade.

Sur le front de la maîtrise du langage humain, les chatbots sont toujours plus présents, à la fois sur les appareils mobiles et à la maison. Ils associent scripts prédéfinis et apprentissage profond pour répondre à des demandes ou mener des conversations simples. Siri, le chatbot d’Apple, ou Echo, celui d’Amazon, en sont deux exemples: ils savent annoncer les résultats sportifs, recommander des restaurants ou prévenir d’un rendez-vous. Parallèlement, un chatbot baptisé «Eugene Goostman», développé par trois scientifiques russes, aurait réussi le test de Turing (lire encadré ci-dessous) en 2014. Il a convaincu plus de 30% des juges d’un panel qu’il était humain lors de conversations d’une durée de cinq minutes à la Royal Society de Londres. Mais il semblerait qu’Eugene manque encore d’entraînement: interrogé par Scott Aaronson, un informaticien américain, qui lui demandait combien de pattes avait un chameau, il a répondu: «Entre deux et quatre. Trois, peut-être?»

L’IA est également utilisée dans d’autres types de traitement du langage. Pionnier de l’apprentissage profond, Jürgen Schmidhuber, de l’Université de Lugano, a dirigé une équipe qui a développé une «mémoire à court terme longue». Désormais employée dans les logiciels de traduction automatique et de reconnaissance vocale des smartphones de Google, cette technologie se base sur des réseaux de neurones récurrents, qui contiennent des boucles de rétroaction permettant le stockage de données.

Comprendre le cerveau humain

L’objectif de Jürgen Schmidhuber consiste désormais à fabriquer une machine à IA réelle (real AI) qui posséderait les grands attributs de l’intelligence humaine: raisonnement, recherche d’un but, curiosité, créativité… Son idée? Associer un réseau neuronal récurrent d’apprentissage profond à un second programme de même type. La mission de ce dernier sera de permettre au premier algorithme d’apprendre tout ce qu’il peut sur le monde. Depuis les années 1970, la devise de Jürgen Schmidhuber est la suivante: «Créer une IA plus intelligente que moi pour que je puisse prendre ma retraite.»

Selon le chercheur, la véritable intelligence ne peut être générée que par un réseau neuronal récurrent semblable au cerveau, c’est-à-dire un appareil qui accumule les processeurs et les connecte grâce à de nombreux câbles courts (pour économiser l’énergie) et quelques câbles longs (pour la communication longue distance). Il estime que ce type d’appareil polyvalent pourrait devenir réalité d’ici à 25 ans. Son calcul se base sur la baisse constante des prix des processeurs (divisés par dix tous les cinq ans) et le fait que le cerveau humain comporte environ 100’000 fois plus de neurones que les plus grands réseaux neuronaux actuels.

Boi Faltings, de l’EPFL, ne partage pas cet avis. Selon lui, les scientifiques sont loin d’avoir compris le fonctionnement du cerveau humain. En outre, contrairement aux humains, les logiciels d’IA sont incapables de réaliser plusieurs tâches complexes à la fois. L’apprentissage profond a «changé la donne» pour des applications telles que la reconnaissance visuelle et vocale car les données disponibles «sont quasiment illimitées», concède-t-il. Mais il peine à faire la différence dans les domaines où celles-ci sont plus rares. «Je tire mon chapeau aux spécialistes de l’apprentissage profond, parce qu’ils ont finalement obtenu des résultats après des années de travail acharné, déclare-t-il. Mais, aujourd’hui, ils ont peut-être tendance à en faire trop.»

Boi Faltings admet que des machines qui imitent le comportement humain peuvent être utiles. Mais son objectif est de leur apprendre des tâches qui dépassent les individus, par exemple de planification complexe. Il forme son logiciel avec un raisonnement logique et explicite, une approche qui, espère-t-il, permettra des avancées dans plusieurs domaines, dont la médecine. Des modèles de probabilité peuvent par exemple être utilisés pour trouver le traitement optimal pour un patient en fonction de certains symptômes.

C’est également l’option choisie par Google pour ses voitures autonomes. Celles-ci utilisent des capteurs pour suivre le trafic et transmettent les données à un modèle de probabilité qui prédit les mouvements des autres véhicules, des cyclistes et des piétons. La technologie différente d’apprentissage profond de Tesla lui a permis d’éviter des années de conception minutieuse, et donc de lancer ses voitures beaucoup plus rapidement sur le marché, note Boi Faltings. Mais cette approche a montré ses limites en mai, lorsqu’un Model S a causé un accident mortel en rentrant dans un poids lourd qui lui coupait la route. De toute évidence, cette situation n’avait été rencontrée par aucun des conducteurs utilisés pour former le logiciel. «Il n’y a pas de modèle sous-jacent, donc aucune garantie que le logiciel interprète correctement les données.»

Public moins tolérant

Selon une récente étude de l’Université Stanford sur les tendances du futur en matière d’IA, les véhicules autonomes pourraient apporter d’authentiques progrès, notamment la fin des bouchons et des difficultés de stationnement. Selon Malte Helmert, de l’Université de Bâle, la médiatisation de l’accident Tesla montre toutefois que le grand public est extrêmement sensible aux dangers de l’IA et qu’il sera moins enclin à tolérer les accidents causés par des ordinateurs que ceux provoqués par des humains. «Erreur humaine et défaillance mécanique sont très différentes du point de vue qualitatif. La seconde donne une sensation de perte de contrôle.»

L’étude de Stanford soulève des questions éthiques, notamment sur la protection des travailleurs qui perdront leur emploi à cause de l’IA. Ces aspects ont également été débattus au sein d’un groupe de chercheurs issus de cinq grandes sociétés technologiques américaines créé récemment. Selon Malte Helmert, comme la machine «commence à concurrencer l’intelligence humaine dans un nombre croissant de domaines», les scientifiques sont désormais plus sensibles aux répercussions potentielles de l’IA sur la société.

Certains, dont Jürgen Schmidhuber, réfléchissent déjà à l’ultime défi pour l’IA: la «singularité technologique», c’est-à-dire le moment où l’intelligence de la machine dépassera celle des humains, puis montera en puissance. Comme Boi Faltings, Simon Hegelich, expert en chatbots à la Technische Universität München, pense qu’elle n’apparaîtra que lorsque nous comprendrons mieux le cerveau humain. Selon lui, compte tenu des progrès récents de l’IA, notamment l’apprentissage automatique, la percée décisive pourrait intervenir d’ici dix ou quinze ans. Quant aux conséquences possibles, il fait preuve d’un optimisme sans borne. Pour qu’une machine à IA soit véritablement intelligente, il lui faudra être empathique afin de ne pas menacer les humains.

Pour d’autres, ces débats sont vains. Boi Faltings estime que les attentes vis-à-vis de l’apprentissage profond sont trop élevées et suscitent, à tort, des fantasmes de «rébellion des robots». «Tout cela fait beaucoup rire les spécialistes de l’IA», confie-t-il. Mais pas question de céder au défaitisme. «Même si nous n’atteignons pas la singularité, l’IA peut nous offrir des choses formidables. Il faut que tout le monde en soit conscient.»
_______

ENCADRES

Homme ou machine?
En 1950, le mathématicien britannique Alan Turing imagine un test pour distinguer les humains des machines. Un homme ou une femme communiquent à l’aide d’un clavier et d’un écran avec un autre humain, puis avec une machine. Si, après la conversation, l’interrogateur prend la machine pour un humain, la machine remporte le test. Mais, selon des scientifiques contemporains, le test de Turing ne permettrait pas de dire si une machine est réellement dotée d’intelligence humaine ou non, car elle peut aussi simplement utiliser diverses astuces pour imiter la conversation humaine.
_______

L’IA à la ferme
Gamaya, une start-up de l’Ecole polytechnique fédérale de Lausanne utilise des drones équipés de caméras hyperspectrales miniatures pour surveiller les cultures, démontrant le potentiel de l’IA dans le domaine agricole. Son logiciel analyse la signature spectrale des plantes et transmet des informations aux cultivateurs pour les aider à prendre des décisions, par exemple concernant l’usage d’engrais. De plus, un algorithme prédit les rendements sur la base de ces observations. Selon le CEO, Yosef Akhtman, cette technologie améliore l’efficacité de la production de manière significative. Fondée en 2015, la start-up est active notamment en Amérique latine, un marché qu’elle estime à 4,5 milliards d’euros.
_______

Une version de cet article est parue dans le magazine Technologist (no 11).

Pour souscrire un abonnement à Technologist au prix de CHF 45.- (42 euros) pour 8 numéros, rendez-vous sur technologist.eu.