Livre

Recherche, sciences, techniques - Société, modes de vie

Le Fabuleux Chantier. Rendre l’intelligence artificielle robustement bénéfique

Le Fabuleux Chantier. Rendre l’intelligence artificielle robustement bénéfique
HOANG Lê Nguyên and EL MHAMDI El Mahdi , « Le Fabuleux Chantier. Rendre l’intelligence artificielle robustement bénéfique », EDP Sciences, 2019.

Ce livre est à la fois un état des lieux, une proposition de projet et un manifeste appelant tous les talents à s’engager dans une entreprise probablement utopique, mais dont la nécessité et l’urgence ne font aucun doute : construire les fondements d’une intelligence artificielle (IA) bénéfique.

Au chapitre de l’état des lieux, le constat est sans appel et fait l’objet de deux thèses : d’une part, il est urgent de rendre l’IA bénéfique ; d’autre part, il s’agit d’un défi monumental. Tout d’abord, l’IA, « cette manière de traiter l’information sans intervention humaine », est entrée dans nos vies quotidiennes et les conséquences en sont multiples. Les facultés de ces processus sont connues, l’automatisation, la rapidité, la fiabilité, la vérification, l’aide à la décision, la personnalisation et aussi une capacité surhumaine d’analyse. L’exemple de l’IA qui pilote les recommandations de YouTube illustre ces capacités, y compris celles d’analyser des millions de contenus, performance hors de portée des êtres humains.

Selon les auteurs, les applications de l’IA actuellement en service ne sont pas intrinsèquement malveillantes, mais l’observation montre que ce sont leurs effets secondaires qui sont à redouter, au point de menacer nos civilisations et nos citoyens. Les conséquences négatives de l’IA sont à la dimension de sa diffusion et potentiellement planétaires. Et ses usages ont provoqué de nombreux effets indésirables, comme des brèches dans les données personnelles, des phénomènes d’addiction, des injustices sociales par des biais algorithmiques, la polarisation idéologique favorisée par les boucles d’information, sans parler de la viralité de la virulence sur les réseaux sociaux, etc. En bref, l’IA est suffisamment dangereuse pour qu’il soit nécessaire de la contrôler.

Mais c’est un défi considérable, un « fabuleux chantier » d’une grande complexité. En effet, il est impensable d’arrêter le progrès et l’IA continuera sa conquête du monde parce que les améliorations de ses performances sont stupéfiantes, que ses bénéfices réels ou supposés sont plébiscités par des foules d’utilisateurs et que ses développements sont appuyés par les gouvernements et les grands acteurs du numérique engagés dans une concurrence sans merci. Ce contexte rend la voie réglementaire que l’Union européenne privilégie particulièrement difficile car, en dépit de la multiplication des appels à l’éthique, les enjeux de la suprématie dans ce domaine sont tels que ceux qui s’attacheront à la sécurité ou à la prévention des effets secondaires risquent de céder la victoire aux autres. Et il en va de même d’une IA éthique par design, pour une raison de logique car aucun principe prescriptif ne peut être déduit de réflexions descriptives et prédictives. Il en résulte que n’importe quel processus de prise de décision est compatible avec n’importe quel objectif [1].

Enfin, l’idée d’un simple bouton d’interruption qui redonnerait immédiatement le contrôle à des êtres humains peut sembler rassurante. Mais elle est impraticable dans de nombreuses situations, celle du véhicule autonome par exemple. En outre, cette faculté d’interruption est complexe à exercer, car elle suppose de pouvoir décider si et quand une IA est globalement malveillante. Là encore, l’exemple de YouTube à cet égard est intéressant. L’objectif de l’IA qui élabore les recommandations est de capter l’attention, ce qui est à la fois bénéfique pour l’entreprise et agréable pour le consommateur. L’effet secondaire indésirable résulte de l’exploitation des faiblesses cognitives de ces mêmes utilisateurs pour accroître leur addiction à la plate-forme. Mais qui peut décider si cette IA cesse d’être globalement bénéfique et comment la remplacer ? Enfin, il faut tenir compte de la réaction d’un système apprenant autonome qui est en mesure de développer des stratégies d’évitement, voire d’entrer en conflit avec son surveillant. Selon les auteurs, une IA puissante est impossible à contrôler.

On en arrive au « fabuleux chantier » et à la proposition d’une feuille de route qui repose sur une nouvelle structure faite de plusieurs IA spécialisées et interagissantes, nommément mentionnées : Erin, en charge des données pour assurer leur collecte et leur qualité ; Dave, responsable de la compréhension des états du monde, y compris des effets secondaires ; Charlie pour l’agrégation des préférences humaines incompatibles ; Bob pour établir les paramètres de décision (les incitatifs) ; et finalement Alice pour la prise de décision par exploration du champ des possibles et optimisation des choix. Sur chacun de ces domaines, les auteurs recensent les travaux en cours qui pourraient y contribuer, de telle sorte que l’entreprise apparaît sinon faisable au moins envisageable à échéance prévisible.

Le dispositif est intéressant, il contourne l’obstacle de prise en compte des effets secondaires en chargeant une IA d’en prendre soin. Et la chaîne d’IA proposée ouvre la voie à un dispositif éthique par design. Certes, le raisonnement exclut le cas des IA délibérément malveillantes des IA puissantes, et à cet égard, les auteurs expriment une préférence pour une situation monopolistique ou oligopolistique, avec un nombre réduit d’acteurs plus faciles à contrôler, qui pourrait permettre un accord de non-prolifération.

Pour ma part, la difficulté la plus grande vient de l’agrégation des préférences incompatibles, domaine dans lequel les auteurs critiquent la faiblesse des raisonnements humains, fluctuants et inconsistants. Cela les conduit à confier à une intelligence artificielle le soin de nous éclairer sur nos véritables choix. Et de poursuivre en expliquant que ce ne serait pas exactement confier le pouvoir à des machines puisque les machines exploiteraient les données humaines pour établir les préférences.

Poser comme hypothèse de base que les humains constituent le maillon faible des processus de décision qui les concernent en raison de l’exacerbation de leurs désaccords me paraît une voie dangereuse et paradoxale, quand précisément le projet s’ouvre sur un large appel aux compétences humaines pour le bâtir.



[1] Cette thèse de l’orthogonalité des objectifs et des mécanismes de décision (Hume, Wittgenstein et Nick Bostrom) ne fait pas l’unanimité, mais les auteurs affirment qu’elle s’applique à l’IA développée dans le cadre de l’apprentissage par renforcement.

Read related content

Recherche

Faire une recherche thématique dans la base bibliographique