Journal

Un appel à la pause dans le développement de l’intelligence artificielle

Un panneau routier stop avec le sigle de l’intelligence artificielle.
fr
Le 22 mars 2023, dans le sillage de Mark Zuckerberg, nombre d’entrepreneurs, de professionnels et d’universitaires engagés dans l’intelligence artificielle (IA) signaient une lettre ouverte pour demander une pause dans le développement et la diffusion des IA avancées. Ce texte, qui se réfère aux principes éthiques de la déclaration d’Asilomar [1] sur l’IA, attire l’attention sur les risques des systèmes qui entrent en compétition avec l’intelligence humaine.

Paradoxalement, les créateurs et développeurs de ces systèmes alertent sur le fait qu’ils peuvent entraîner un changement profond dans l’histoire de la vie sur Terre, et ils dénoncent la course aveugle à laquelle se livrent les laboratoires de pointe alors que les usages de ces technologies devraient être planifiés et gérés avec une attention et des ressources proportionnées aux défis qu’ils représentent.

Plus précisément, ces signataires invoquent les menaces sur nos canaux d’information, victimes potentielles d’une submersion par des infox accompagnées d’images fabriquées à l’envi, et sur les dangers pour des millions d’emplois potentiellement remplacés par des machines capables de les prendre en charge. Au-delà et selon ses auteurs qui se réfèrent probablement à la « singularité [2] », la multiplication des systèmes dotés de capacités intellectuelles dépassant en nombre et en performance tous les cerveaux humains présenterait un risque de perte de contrôle de notre civilisation. Ils considèrent important de procéder à une évaluation indépendante avant d’entraîner de futurs systèmes et de limiter le rythme de croissance du calcul utilisé pour créer de nouveaux modèles.

Cette lettre est écrite à un moment où une nouvelle génération d’IA est sortie des laboratoires. Ce sont des systèmes d’IA génératives (SIAG) dont les plus connus sont ChatGPT pour les agents conversationnels, DALL-E et Midjourney pour les images, ainsi que GitHub Copilot pour les algorithmes. Ces applications et leurs concurrents se diffusent rapidement grâce au dynamisme de la demande et à l’ampleur des usages possibles. Il y aurait donc urgence à réfléchir maintenant aux conséquences de la diffusion de ces « esprits numériques que personne — pas même leurs créateurs — ne peut comprendre, prévoir, ou contrôler de manière fiable [3] ». Et la lettre propose de mettre en pause pour au moins six mois l’entraînement des systèmes plus puissants que ChatGPT-4. La lettre n’a pas suscité de réponse directe. Néanmoins, le 4 mai 2023, le président Biden a rencontré les principaux leaders de l’IA et a fait appel à leur sens des responsabilités.

Au-delà des domaines d’application mentionnés dans cette lettre ouverte, il est vrai que ces systèmes sont de nature « disruptive ». D’une part, ils pourraient remettre en cause voire rendre obsolètes plusieurs dispositifs légaux. C’est le cas de la protection des données personnelles. D’ailleurs, l’Italie a suspendu temporairement l’accès à ChatGPT le 30 avril 2023, pour infraction à la législation européenne sur les données, et les autres pays européens dont l’Allemagne et la France se consultent sur les mesures à prendre. C’est aussi le cas de la propriété intellectuelle. Actuellement, les SIAG exploitent les œuvres de création humaine sans mention des sources ni reconnaissance des droits éventuels qui y seraient attachés [4].

D’autre part, de nombreux secteurs importants et directement touchés, comme l’information, les médias, la recherche, l’enseignement et, bien sûr, le développement des applications informatiques se sentent bousculés par ces nouveaux assistants et s’interrogent sur leur avenir. Plus fondamentalement encore, une inquiétude particulière se manifeste autour d’une mise en extériorité du savoir par rapport au sachant [5]. Avec elles, c’est une ère de production industrielle de connaissances par les machines qui s’ouvre. Alors, deux questions se posent : comment distinguer le vrai du faux dans cette production ? Et quelle est la légitimité de ces savoirs ? Or, il est avéré que ces connaissances peuvent être porteuses de biais, erronées ou simplement « approximativement correctes » compte tenu du caractère probabiliste de leur élaboration. Pourtant, elles seront opératoires et massivement disséminées par des processus marchands. Compte tenu des relations entre savoirs et pouvoirs, elles semblent bien susceptibles de provoquer de véritables séismes dans nos sociétés.

À ce propos, le fait même que l’alerte soit venue des développeurs de ces technologies mérite l’attention, car jusqu’ici la Tech n’a manqué ni d’avocats ni d’évangélistes pour vanter ses bienfaits. Alors les opposants radicaux au capitalisme technologique y verront une stratégie de communication pour préparer nos sociétés aux évolutions à venir : en énonçant des catastrophes possibles, ces acteurs nous familiariseraient avec les pires conséquences de ces systèmes et nous entraîneraient à en accepter une version régulée, supposément moins nocive.

Pour les pessimistes qui pensent que nous sommes face à des technologies qui mettent en cause les fondements de nos sociétés, cette lettre renvoie au dilemme de Robert Oppenheimer face au feu nucléaire. Elle constituerait aussi une timide tentative de la part des créateurs de ces systèmes pour se dédouaner de leurs responsabilités, mais elle aurait le mérite de poser la question de leur gouvernance avec une autorité indéniable.

Enfin, plus prosaïquement, on peut aussi penser que l’ampleur des risques légaux et financiers liés à la commercialisation de ces systèmes inquièterait leurs promoteurs qui y consacrent des investissements importants. Il serait logique qu’ils souhaitent un encadrement légal de ces activités pour leur permettre de prospérer dans un environnement propice. Ce faisant, ils pourraient espérer ouvrir une période de « législation en attente », véritable parapluie juridique pour la poursuite des développements en cours, et ils se seraient positionnés dans les débats à venir sur l’élaboration de ces règles. Quoi qu’il en soit, il y aurait sans doute un véritable intérêt à saisir ce moment d’incertitude pour engager une réflexion sur la gouvernance de ces systèmes compte tenu du rôle qu’ils sont appelés à jouer dans les années à venir.

  1. La conférence d’Asilomar, tenue en janvier 2017 sur l’IA bénéfique, à l’initiative du Future of Life Institute, s’est conclue par une déclaration recensant 23 principes offrant un guide de référence pour un développement éthique de l’IA.

  2. La singularité se réfère au moment où l’intelligence des machines surpasserait celle des humains.

  3. Traduction de : « digital minds that no one — not even their creators — can understand, predict, or reliably control ».

  4. L’article 3 des conditions générales d’OpenAI, l’entreprise développant ChatGPT, prévoit une cession de la titularité des contenus générés par l’outil à l’utilisateur. Ce dernier est mentionné comme étant le seul « responsable » du contenu (tant des informations transmises par lui à l’outil que du contenu généré par l’outil).

  5. Lyotard Jean-François, La Condition postmoderne. Rapport sur le savoir, Paris : Les Éditions de minuit (coll. Critique), 1979.

#Automatisation #Civilisation #Éthique #Intelligence artificielle #Technologie de l’information