Note de veille

Recherche, sciences, techniques - Société, modes de vie

Une éthique européenne pour l’IA

Par

Le 8 avril 2019, la Commission européenne a rendu publique la dernière version de ses directives éthiques pour une intelligence artificielle (IA) de confiance. Mise à jour suite aux 500 commentaires reçus durant une période de consultation achevée en janvier dernier, cette nouvelle proposition est le résultat du travail de 52 experts de tous domaines et de tous horizons [2]. Parmi eux, Cécile Wendling, à la tête de l’équipe prospective du groupe AXA, experte au sein du High Level Expert Group (HLEG) sur l’intelligence artificielle de la Commission européenne, auteur du récent rapport Ethics Guidelines for Trustworthy AI [1],  et conseillère scientifique de Futuribles Internationalest engagée dans ce projet depuis son commencement. Elle a accepté de répondre à quelques-unes de nos questions sur ce document.

Le concept phare de ce rapport est sans aucun doute la nécessité de mettre en place et de garantir une intelligence artificielle « trustworthy », digne de confiance. Qu’est-ce que cela veut dire exactement et comment échapper aux divers biais souvent invoqués contre toute tentative de cadrer les usages de l’IA ?

C.W. : « Évidemment, il n’est pas évident de trouver une vision commune de l’intelligence artificielle, ni même de ses évolutions. Parfois, certains mots suscitent des opinions divergentes quant à leur signification et donc des débats ! Mais nous avons réussi, au sein du groupe d’experts, à nous mettre d’accord sur l’idée que l’intelligence artificielle doit être digne de confiance : c’est la seule manière de pouvoir l’utiliser et la déployer sans crainte. Et pour garantir cette confiance, trois briques sont nécessaires, trois briques qui n’ont du sens que si elles sont systématiquement combinées, que s’il est possible de garantir les trois à la fois.

« La première brique, c’est le droit. Tous les textes législatifs européens s’appliquent pour contrôler le développement et les usages de l’intelligence artificielle, que ce soit le RGPD [3] ou des textes plus globaux sur des droits sociaux et fondamentaux. L’IA doit se conformer à ce corpus juridique. La deuxième brique, c’est l’éthique, au-delà même du droit : les principes moraux qui piloteront à la fois la légitimation du développement de cette IA mais aussi la vérification, tout au long de son utilisation, qu’elle respecte un certain nombre de valeurs essentielles, comme la question de la dignité humaine. Cette éthique devra être adaptée, bien sûr, en fonction du cas d’usage et du contexte. Enfin, il faut que l’IA soit robuste, qu’elle puisse garantir sécurité et confidentialité à ses utilisateurs. Il y a là une dimension technique qui est tout aussi importante que la dimension morale. »

Ce rapport de l’Union européenne (UE) n’est pas le premier à paraître sur cette question d’une intelligence artificielle éthique. Plusieurs acteurs se positionnent, y compris à l’international, pour proposer leur vision de l’avenir de l’IA et de sa régulation. Quelles sont selon vous les spécificités de ce rapport-ci ?

C.W. : « La principale spécificité de ce rapport, c’est d’essayer de rester pragmatique. Il propose des outils à la fois techniques et non techniques à l’intention de tous ceux qui peuvent être appelés à interagir avec de l’IA. Mais plutôt que définir en amont ce qui devrait être des consignes éthiques, fixées dans le marbre, l’objectif est de proposer une checklist aux entreprises et aux opérateurs d’IA, pour qu’ils puissent tester par eux-mêmes sa pertinence. Ensuite, les acteurs qui auront participé à cette phase test reviendront vers l’UE et le HLEG pour faire part de leurs remarques, de leurs critiques et de leurs besoins. Les consignes données dans le rapport sont ainsi appelées à évoluer, sur la base d’expérimentations très concrètes, de terrain.

« Le processus de travail est donc particulièrement itératif. Ce sont d’abord les réponses à la consultation menée en décembre et janvier dernier qui ont permis de poser les bases de ce premier rapport. Maintenant, nous attendons les retours de ces cas pilotes pour venir nourrir la phase suivante de notre travail. Par ailleurs, l’équipe réunie dans ce groupe d’experts est très interdisciplinaire, les profils ont une grande diversité. Nous avons réussi à réunir des producteurs et des consommateurs d’IA, y compris parmi les populations les plus vulnérables, comme les personnes handicapées. Cela va réellement dans le sens de la façon dont il faut concevoir l’IA, c’est-à-dire une coconstruction sociale inclusive, qui définit les politiques publiques. C’est une manière de travailler pertinente et enrichissante. »

À peine sorti, déjà critiqué : il y a eu beaucoup de réactions positives mais aussi des inquiétudes vis-à-vis de ce travail. Comment y répondez-vous ?

C.W. : « Le rapport a subi deux grandes critiques. La première, plutôt classique, accuse l’UE d’être encore trop ancrée dans son approche régulatrice de l’innovation. Face à la compétition sauvage des États-Unis et de la Chine, l’UE risque de prendre du retard car elle se met trop de barrières pour progresser. Mais d’une part, il est important de savoir que ce rapport n’est qu’un des livrables du HLEG. Il y a d’autres étapes à venir qui devraient permettre d’ouvrir des possibles, plutôt qu’en fermer. D’autre part, le concept qui sous-tend tout le rapport, selon lequel il faut développer une IA digne de confiance, plus juste, plus explicable, plus protectrice de la vie privée, est véritablement né de l’idée que plus il y aura de la confiance envers cette IA, plus cela va permettre d’innover. Ainsi, loin de vouloir entraver la création de nouvelles applications de l’IA, ce rapport encourage à tester tout, en mettant à profit ce concept d’IA digne de confiance comme un différenciant spécifique à l’UE comparé aux autres pays dans la compétition, et qui sur le long terme sera source de création de richesses.

« La deuxième critique, c’est que le rapport n’est pas assez précis, qu’il ne propose pas de solutions concrètes aux enjeux de l’IA. Mais nous avons justement voulu concevoir un rapport qui n’encadre pas les pratiques mais s’en inspire, qui comprend le terrain avant de chercher à l’influencer. Ce mouvement du bas vers le haut est particulièrement crucial, les prochaines étapes de ce texte tireront leur richesse de la connaissance des cas pratiques que nous allons obtenir grâce à notre nouvelle consultation concernant les projets pilotes des entreprises volontaires.

« Quoi qu’il en soit, l’IA est appelée à continuer d’évoluer. Il est important que l’UE puisse défendre une position à ce sujet, même si bien sûr elle n’est pas seule à se positionner — c’est un sujet global. Le travail se fait vraiment à toutes les échelles, puisque l’on attend la stratégie de chaque État membre en la matière et que le HLEG est aussi en contact avec l’OCDE (Organisation de coopération et de développement économiques). Les échanges vont se poursuivre à tous les niveaux dans les mois et années à venir. »

Propos recueillis par Marie Ségur



[1]Ethics Guidelines for Trustworthy AI, Bruxelles : Commission européenne, avril 2019. URL : https://ec.europa.eu/newsroom/dae/document.cfm?doc_id=58477. Consulté le 16 avril 2019.

[2]Favier Antoine, « Intelligence artificielle : la Commission propose 7 principes à suivre », Les Échos, 10 avril 2019. URL : https://business.lesechos.fr/directions-numeriques/digital/transformation-digitale/0601055107925-intelligence-artificielle-la-commission-propose-7-principes-a-suivre-328496.php. Consulté le 16 avril 2019.

[3] Règlement général sur la protection des données, applicable depuis le 25 mars 2018.

Read related content

Devenir membre

Cet article est en accès libre jusqu'au 31/05/2019. Devenez membre pour accéder à l'ensemble des productions de l'association.

Membership