Livre

Recherche, sciences, techniques - Territoires, réseaux

Quand la machine apprend. La révolution des neurones artificiels et de l’apprentissage profond

Par

Quand la machine apprend. La révolution des neurones artificiels et de l’apprentissage profond
LE CUN Yann , « Quand la machine apprend. La révolution des neurones artificiels et de l’apprentissage profond », Odile Jacob, 2019.

Après La Plus Belle Histoire de l’intelligence [1], Yann Le Cun nous dévoile une nouvelle facette de son expertise scientifique, l’intelligence artificielle (IA) apprenante — une expertise mondialement reconnue puisqu’elle lui a valu le prix Turing 2018, décerné par l’ACM (Association for Computing Machinery). Le voyage en intelligence artificielle auquel il nous invite tient à la fois de la rétrospection, de l’exploration et de l’anticipation ; les trois comportant une dimension introspective utile à la compréhension de la psychologie du personnage.

Rétrospection : rappelant le fossé abyssal existant entre les capacités du système nerveux central à acquérir de nouvelles connaissances et celles, minimalistes, d’un réseau de neurones artificiels, il nous entraîne, au détour de la première partie de son propos, dans une rétrospective mêlant à la fois souvenirs de lectures, de rencontres…, et fulgurances. Ces années marqueront le début d’une carrière consacrée à promouvoir cette approche jusqu’à l’habiller d’une nouvelle appellation, désormais passée dans le langage courant et inventée comme pour tromper certains opposants : le deep learning [2]. Ainsi Yann Le Cun nous entraîne-t-il dans la complexité du fonctionnement des machines apprenantes. Il consacre plusieurs chapitres, plutôt techniques mais particulièrement passionnants parce que très lisibles et documentés, aux machines apprenantes dites « simples », procédant par extraction de caractéristiques d’images via un algorithme de type perceptron, et aux méthodes d’apprentissage par « minimisation de fonction de coût » pour lesquelles l’entraînement des neurones artificiels permet l’ajustement des apprentissages.

Le chapitre suivant donne la mesure de l’importance d’une révolution, celle de la « rétropropagation de gradient », dans le milieu des années 1980, approche consistant à ajuster les paramètres des couches profondes d’un réseau de neurones de façon que les premières couches puissent apprendre à reconnaître d’elles-mêmes les bons motifs d’une image à détecter pour accomplir une tâche. Mais, nous confirme l’auteur, il faudra attendre 2012 pour qu’une nouvelle génération de réseaux multicouches, les réseaux convolutifs [3], deviennent, comme il les qualifie, les véritables piliers de l’IA.

Exploration : les deux chapitres suivants nous conduisent dans l’actualité des usages du deep learning et de l’IA, en nous proposant d’explorer « le ventre de la machine ». Ils abordent pêle-mêle plusieurs questions actuelles : les raisons pour lesquelles la reconnaissance des images est aujourd’hui presque entièrement traitée par des réseaux convolutifs, la reconnaissance et la synthèse de la parole, la compréhension du langage et la traduction, les prédictions économiques ou énergétiques, les neurosciences, la médecine diagnostique, la voiture autonome, etc. Cette dimension du récit de Yann Le Cun nous conduit à mieux comprendre la connivence qui deviendra le ciment de sa relation, à partir de 2013, avec Mark Zuckerberg, notamment au titre de de la mise en œuvre du deep learning dans Facebook. De la même façon, il nous donne des éclairages sur des questions bien moins connues du grand public, comme celles des liens entre la plate-forme en tant que telle et l’architecture de sa principale entité R&D dénommée Facebook Artificial Intelligence Research(FAIR). Sans cette technologie, nous rappelle-t-il, Facebook ne pourrait plus fonctionner, tant « d’innombrables améliorations ont pu être apportées au réseau social, qu’il s’agisse de la reconnaissance d’images, de la compréhension de la langue, sur le développement d’agents intelligents capables d’aider les gens au quotidien [etc.] ». Fort de l’expérience et de certaines dérives de ces dernières années, il nous décrit la façon dont la plate-forme travaille désormais au traitement des contenus haineux. Ce chapitre se conclut par une esquisse des futurs chantiers sur lesquels Facebook devra se pencher dans les années à venir.

Anticipation : les deux derniers chapitres sont de loin les plus importants dès lors que la question récurrente du concept de singularité technologique taraude les esprits. Après nous avoir rappelé qu’à ce jour, les meilleurs systèmes d’IA « sont moins intelligents qu’un chat dont le cerveau compte quand même 760 millions de neurones et 10 000 milliards de synapses », et que pour obtenir la puissance du cerveau humain, il faudrait connecter une centaine de processeurs graphiques au sein d’un ordinateur géant consommant au moins 250 mégawatts, il consacre une centaine de pages à nous décrire les pistes de développement les plus prometteuses. Il décline en premier lieu les obstacles et les limites des technologies et approches actuelles, leur incapacité à acquérir du « sens commun », mais ouvre malgré tout d’autres perspectives comme celles de l’apprentissage autosupervisé et des systèmes intelligents autonomes. C’est ainsi que, se référant au modèle de Daniel Kahneman [4], psychologue cognitiviste et prix Nobel d’économie, il défend l’idée selon laquelle la machine, comme l’homme, doit posséder une structure interne se représentant un modèle du monde lui permettant d’anticiper les effets de son action. Le chapitre consacré aux enjeux de l’IA, d’une réelle hauteur de vue, permet de mettre à distance les fantasmes sur la pseudo-intelligence des IA actuelles comme celles d’un futur proche. Il n’en reste pas moins que Yann Le Cun considère qu’il ne fait aucun doute que les machines intelligentes futures possèderont une forme de conscience et qu’elles pourront un jour ressentir des émotions. Belle conclusion philosophique pour clore le propos que cette considération : « La quête de la machine intelligente est motivée par le désir de nous connaître nous-mêmes. » Dont acte.



[1] Dehaene Stanislas, Le Cun Yann et Girardon Jacques, La Plus Belle Histoire de l’intelligence. Des origines aux neurones artificiels : vers une nouvelle étape de l’évolution, Paris : Robert Laffont, 2018.

[2] Dérivé du machine learning (apprentissage automatique), le deep learning (apprentissage profond) caractérise une IA autoapprenante, en opposition aux programmes informatiques qui se contentent d’exécuter à la lettre des instructions prédéterminées.

[3] Comme leurs prédécesseurs, les réseaux de neurones convolutifs reçoivent des images en entrée, détectent les caractéristiquesde chacune d’entre elles. Leur différence réside dans le fait que les caractéristiques des images sont apprises automatiquement, fonctionnant donc un peu comme l’appareil visuel humain. Ils réalisent eux-mêmes tout le travail d’extraction et de description et, de ce fait, l’erreur de catégorisation est limitée.

[4]Kahneman Daniel, Système 1 / système 2. Les deux vitesses de la pensée, Paris : Flammarion, 2012 (traduction de Thinking, Fast and Slow, New York : Farrar, Straus and Giroux, 2011, analysé in Futuribles, n° 390, novembre 2012, p. 25-34 [NDLR]).