Livre

Recherche, sciences, techniques - Société, modes de vie

Rebooting AI: Building Artificial Intelligence We Can Trust

Par

Rebooting AI: Building Artificial Intelligence We Can Trust
MARCUS Gary and DAVIS Ernest , « Rebooting AI: Building Artificial Intelligence We Can Trust », Pantheon, 2019.

Gary Marcus et Ernest Davis sont deux spécialistes de l’intelligence artificielle (IA) : le premier est professeur en psychologie et neuroscience, le second en sciences informatiques. Ce livre donne un éclairage sur la situation exacte de l’IA aujourd’hui : ce que fait, mais surtout ne fait pas cette technologie. Il permet d’avoir un regard critique sur le battage médiatique auquel on assiste à ce sujet, et de mieux comprendre comment remettre l’IA sur le bon chemin pour qu’elle devienne une technologie robuste, en laquelle on puisse avoir entièrement confiance et qui œuvre pour le bien-être de tous.

Les auteurs partent de deux constatations. Tout d’abord l’IA d’aujourd’hui ne sert pas les causes importantes pour l’humanité. D’autre part, l’IA n’est toujours pas au point. Il y a certes eu quelques progrès, mais qui sont dus uniquement aux données massives et à des avancées en matière de matériel informatique. Le fossé entre les attentes et la réalité est important. Le cerveau humain est bien plus performant que l’IA sur plusieurs points essentiels : nous comprenons le langage, le monde, nous sommes flexibles et nous adaptons à de nouvelles conditions, nous apprenons rapidement et nous pouvons raisonner rationnellement devant des informations incomplètes ou incohérentes. Les machines ne savent pas comment fonctionne le monde, elles manquent de sens commun. Le sens commun est l’ensemble des connaissances de base que tout le monde a, sans que l’on sache vraiment ce que c’est ni comment cela s’acquiert. Pour que l’IA puisse être réellement utile et fiable, il faut comprendre comment le cerveau humain fonctionne. Or la recherche actuelle est essentiellement concentrée sur les données massives et l’apprentissage profond (deep learning en anglais, DL).

Le DL est un sous-ensemble de l’apprentissage automatique (machine learning) qui est lui-même un sous-ensemble de l’IA. Il existe d’autres techniques pour l’apprentissage des machines que le DL. Mais aujourd’hui l’attention est focalisée presque exclusivement sur ce procédé. Or, selon les auteurs, le DL est largement survendu. Il y est essentiellement question de statistiques et probabilités, ce qui apparaît insuffisant pour reproduire la réalité de l’intelligence humaine et du monde. Le DL repose sur les données massives et dans un monde réel, infini et en changement constant, le nombre de données nécessaires pour reproduire la réalité ne sera jamais suffisant. Pour autant, les auteurs ne préconisent pas d’abandonner cette technique ; ils estiment qu’elle ne doit être qu’une composante parmi une multitude d’outils et non une solution unique.

Concernant les robots, le constat est sans appel : la réalité est bien loin de la science-fiction. Les robots ne sont ni sûrs ni autonomes. Ils ne comprennent pas le monde qui les entoure. Les vidéos de robots qui envahissent les médias sont trompeuses : ces démonstrations montrent seulement des programmes capables d’effectuer des tâches mécaniques. Le vrai défi est ailleurs : robustesse, possibilité d’interpréter les ambiguïtés, de réévaluer la situation en permanence dans un monde qui change constamment, bonne appréciation globale de la situation, flexibilité… Tout ceci est loin d’être résolu.

La conclusion des auteurs est qu’il manque un modèle cognitif riche pour l’IA. Il faut donc dans un premier temps analyser le modèle cognitif humain. Ils se basent sur des recherches en sciences cognitives pour mettre en évidence les caractéristiques de l’intelligence humaine que l’IA ne possède pas et qui sont des enjeux de taille : les représentations internes, l’abstraction, la structuration, la « compositionnalité » (comprendre une phrase complexe à partir de la signification des expressions la composant), la contextualisation, les relations causales et les connexions, la flexibilité, la fluidité… La problématique des connaissances innées est mise en avant : selon des études en sciences cognitives, le cerveau humain n’est pas une page blanche à la naissance, il existe des connaissances, des processus innés. Or le DL est une technologie qui part d’une page blanche car elle est dominée par la notion d’acquis. Une IA ayant des connaissances innées serait un réel progrès.

Les auteurs conseillent sur la voie à suivre pour une IA plus robuste, efficace et fiable. La difficulté principale réside dans la manière de transcrire le sens commun : il faut rendre explicites des notions implicites ou vagues. Il faut également faire un inventaire de toutes les connaissances que l’IA devrait posséder et faire en sorte que ces connaissances soient connectées. Le cadre des connaissances doit s’articuler autour de trois notions fondamentales : temps, espace, causalité. L’aptitude à raisonner correctement et de manière fluide doit constituer une priorité, ainsi que les notions d’abstraction, de compositionnalité, et de suivi des personnes et des situations dans le temps. Tout ceci doit être connecté à des outils de perception, de manipulation et de langage puissants. Un modèle cognitif riche du monde doit être construit. Puis un système d’apprentissage inspiré de celui de l’esprit humain doit être mis en place. Ce système doit inclure des connaissances innées, mais également la possibilité d’apprendre de toute source d’information possible et d’interagir avec le monde.

Pour que les machines soient fiables et dignes de confiance, elles doivent être empreintes de valeurs éthiques. Les chercheurs en IA devraient s’inspirer des bonnes pratiques des ingénieurs. Ils devraient en effet concevoir en prévision de l’échec, avec des solutions de sauvegarde, de gestion de risques à long terme et de maintenance.

Ce livre compréhensible par tous rappelle à juste titre qu’il faut rester vigilant et garder un regard critique sur l’innovation. Le point de vue adopté est pertinent : une vision pluridisciplinaire mêlant sciences cognitives et informatiques est indispensable. Une contribution des sciences sociales aurait été intéressante pour mieux envisager la place des machines dans la société dans un futur plus ou moins proche. La conclusion est claire : le DL n’est pas la seule technique à envisager pour construire une IA fiable et utile. Il faut prendre le temps de construire un système cognitif valable, d’inculquer des valeurs éthiques aux machines, de mettre en place de bonnes pratiques de conception et d’établir une réglementation stricte. Même si les auteurs sont confiants sur le fait que cela est possible à long terme, nul ne sait où cela peut mener. L’IA est assurément une technologie clef pour l’avenir, le futur dépend donc de la voie qui sera prise dans ce domaine, et selon Gary Marcus et Ernest Davis, celle prise actuellement n’est pas la bonne et le chemin est encore très long.

Read related content

Recherche

Faire une recherche thématique dans la base bibliographique