Note de veille

Recherche, sciences, techniques - Société, modes de vie

Deep fakes : nouveaux générateurs de doutes ?

Par

Depuis son apparition à grande échelle dans le courant de l’année 2017, la technologie de permutation intelligente des visages, dite deep fake, crée une importante agitation dans les médias, certains commentateurs n’hésitant pas à la présenter comme la nouvelle grande menace pour les démocraties. Plusieurs exemples de vidéos truquées ont effectivement suscité des inquiétudes quant à l’avenir de la crédibilité de toute communication médiatique, alors que les images, à l’heure des fake news, faisaient encore rempart, du moins partiellement, contre la perte de confiance généralisée. En avril 2018, une annonce publique de Barack Obama attaquant sans vergogne le nouveau président sur sa bêtise a ainsi attisé ces inquiétudes, tant par le réalisme de la production que par l’écho qu’elle a trouvé auprès d’un public crédule. Publiée sur YouTube, la vidéo a accumulé plus de six millions de vues sur la plate-forme. Pourtant, elle était clairement identifiée comme étant un faux par le cinéaste américain Jordan Peele qui l’a réalisée. Son objectif, comme d’autres activistes sensibles à cette problématique, était justement de mettre en lumière les risques liés à ces nouveaux procédés.

Mais qu’est-ce qu’un deep fake ?

Un deep fake est un produit de communication, généré par des algorithmes autoapprenants qui analysent le contenu de vidéos existantes d’un sujet, pour en isoler les éléments sonores le distinguant, ainsi que les expressions faciales correspondantes, avant de reproduire par modèle 3D la partie inférieure du visage de la personne ciblée. Le logiciel est alors apte à générer de nouvelles vidéos présentant la victime en train de tenir des propos qu’elle n’a jamais prononcés. Cette méthode suppose une ingénierie importante et une connaissance fine de la science algorithmique, ainsi que l’accès à une base de données vidéo réelles conséquente. Plus l’algorithme pourra analyser un contenu fourni, meilleur sera le résultat. De ce fait, une telle pratique est particulièrement dangereuse dans le domaine politique puisqu’il est facile d’accéder à des contenus vidéo de personnalités, et les enjeux de propagande ou de déstabilisation politique pourraient justifier que de tels efforts soient déployés.

Est-ce vraiment nouveau ?

La production de faux dans le domaine politique est loin d’être une nouveauté. Les régimes totalitaires du XXe siècle en donnent déjà de nombreux exemples parlants. On pense notamment aux trucages photographiques de Staline qui fait effacer l’image de ses opposants de toute photographie officielle à la suite des Grandes Purges. Plus généralement, la problématique des fake news, ces faux articles ou tweets rédigés et diffusés massivement par des acteurs mal intentionnés, désireux de déstabiliser les processus politiques, a fait l’objet de nombreuses inquiétudes, et ce depuis plusieurs années. La caractéristique nouvelle du deep fake néanmoins réside dans la reconstruction d’une personne à l’identique, indétectable par l’œil humain. Par ailleurs, l’outil n’en est qu’à ses débuts, plusieurs équipes de chercheurs, comme celle associant des scientifiques de Stanford et d’Adobe Research, s’affairent pour le rendre de plus en plus performant.

Alors, faut-il réellement s’en alarmer ?

La pratique n’est pas nouvelle, mais ses résultats sont inédits, à tel point que les départements militaires de plusieurs pays s’en inquiètent. L’agence de recherche du Pentagone (DARPA) a ainsi lancé son propre programme de recherche pour comprendre, maîtriser et détecter la technologie deep fake. Quant à la France, ce sont quatre experts du ministère des Affaires étrangères et de l’Institut de recherche stratégique de l’École militaire qui ont alerté, en septembre 2018, sur les potentielles conséquences négatives de cette technologie. Mais plus que sur la possibilité de créer une vidéo de toutes pièces, ces experts soulignent que le véritable risque du deep fake réside dans la possibilité d’altérer discrètement une partie seulement d’un contenu, et ainsi de diluer « l’authentique dans la confusion ».

En effet, plus que la technologie elle-même, c’est la réaction du public que craignent plusieurs analystes. Selon Emeric Henry, économiste à Sciences Po Paris et spécialiste de la question de la vérification des informations diffusées au public en période électorale, les deep fakes sont moins une révolution technique qu’un nouveau vecteur de désinformation, dans un contexte où les gens sont tout à la fois plus empreints de doutes mais aussi plus sensibles aux théories du complot. Comme le souligne E. Henry, corriger les erreurs factuelles n’est pas toujours un acte suffisant pour ébranler les croyances de personnes soumises à une fausse information.

L’effet initial créé par l’article ou la vidéo altérée s’avère compliqué à corriger. Le neuroscientifique Roberto Cabeza a de fait démontré que la flexibilité du système cérébral pour tout ce qui concerne la mémoire rend tout individu particulièrement susceptible d’intégrer de faux souvenirs de manière irréversible. L’exemple de la vidéo truquée de Nancy Pelosi, députée de Californie, diffusée massivement en mai 2019, est tout à fait révélateur de ce phénomène. La supercherie n’était même pas de l’ordre d’une permutation des visages puisque la vidéo avait simplement été ralentie, donnant le sentiment que N. Pelosi éprouvait des difficultés à s’exprimer [1]. Pourtant, de nombreux internautes y ont cru et des personnalités officielles de la Maison Blanche, opposées à N. Pelosi, n’ont pas manqué de la relayer, aggravant la confusion.

Dès lors, les deep fakes viennent surtout rappeler aux démocraties les enjeux liés à l’éducation du public d’une part, et au contrôle de la production et de la diffusion des contenus sur Internet d’autre part. Comment, à l’ère du doute et des polémiques qui foisonnent, assurer la confiance au sein de la communauté citoyenne, entre les individus et avec leurs représentants politiques ?

À ce stade, deux scénarios d’avenir sont envisageables : ou bien la tendance se poursuit, le doute s’installe en profondeur et seuls les acteurs aux plus gros moyens de communication parviennent à façonner significativement les débats et les actions politiques. C’est ce que semblent préfigurer les conflits entre les plates-formes comme YouTube ou Facebook et leurs usagers, ces dernières acceptant ou refusant tour à tour de censurer un faux contenu avéré. Second scénario possible, se constituent de nouveaux organismes de contrôle (seraient-ils indépendants ? internationaux ?) qui accréditent les contenus et dispensent des certifications de « véracité ». On observe déjà les prémices de telles pratiques dans les expérimentations menées par une équipe de l’université de New York qui souhaiterait intégrer sur toutes les caméras un système qui apposerait sur les images des marqueurs indélébiles pour garantir leur authenticité.

En parallèle, la tendance à vouloir durcir la pénalisation du faux, comme en témoigne la loi « anti-fake news » adoptée fin 2018 en France, inquiète en raison des risques qu’elle fait peser sur la liberté d’opinion. Cette loi permet en effet à n’importe quel électeur ou homme politique de saisir la justice pour demander la suppression d’un contenu sur Internet. Le juge a alors 48 heures pour interdire la diffusion d’une information, en l’absence d’éléments vérifiables pouvant attester de sa véracité. Outre la brièveté du délai (comment mener une enquête en si peu de temps ?), il est possible de s’inquiéter des conditions qui détermineront les critères de la vérité : qui sont ceux qui les établiront ? Quelles seront leurs motivations ? Et comment eux-mêmes les contrôler ?

Ces questionnements sont anciens mais c’est la nouveauté des supports et de leurs caractéristiques (relativement accessibles, capacité à être diffusé massivement par n’importe qui, difficulté croissante de distinguer la supercherie) qui impose de les reposer collectivement. À défaut certains acteurs pourraient décréter, sans débat démocratique, les nouveaux critères du vrai.



[1]Harwell Drew, « Faked Pelosi Video, Slowed to Make her Appear Drunk, Spread on Social Medias », The Washington Post, 24 mai 2019.

À lire également

Devenir membre

Cet article est en accès libre jusqu'au 10/09/2019. Devenez membre pour accéder à l'ensemble des productions de l'association.

Adhérer