Note de veille

Entreprises, travail - Recherche, sciences, techniques - Société, modes de vie

Intelligence artificielle : les dégâts du sexisme

Par

L’Intelligence artificielle, pas sans elles ! Le titre du livre d’Aude Bernheim et de Flora Vincent vaut programme [1]. Cédric Villani résume, dans la préface, le problème qu’avaient déjà souligné son rapport [2] et celui du Parlement français [3] : « Aujourd’hui les femmes sont largement absentes de l’intelligence artificielle (IA) et cela a de calamiteuses conséquences sur la quantité de talents, sur les ambiances de travail, sur la créativité. » Et il ajoute que « ce biais de sous-représentation fait aussi courir un risque à l’objectivité des solutions algorithmiques modernes ». Cette remarque souligne une raison supplémentaire de lire ce livre : il démontre, exemples à l’appui, comment des biais sont présents dans l’IA et réduisent son objectivité. Cette démonstration est nécessaire alors que des personnalités incompétentes ou intéressées veulent nous faire croire que l’IA peut être objective et va utilement remplacer l’homme.

Des biais dès le départ

Les auteurs expliquent que dès la phase de construction du corpus d’apprentissage, des biais sont introduits par le choix de bases de données donnant inévitablement une image imparfaite de la réalité. Dans certains cas, les données n’existent tout simplement pas : comment étudier les violences faites aux femmes dans le monde alors que seuls « 41 % des pays produisent régulièrement des statistiques » sur le sujet ? En cherchant le mot « writer » dans Google Image, on obtient un fichier avec 26 % d’auteurs femmes, alors que celles-ci sont un peu majoritaires parmi les écrivains. Après la constitution de la base de données, le développeur « formalise le problème à traiter en termes mathématiques » et effectue, là encore, des choix nécessairement subjectifs. Des biais se nichent aussi dans les bases d’apprentissage disponibles sur des plates-formes comme GitHub, service Web d’hébergement de codes pour développeurs. Or, les biais non corrigés sont copiés et amplifiés.

Le regard porté sur les femmes, y compris par elles-mêmes, prive de créatifs un secteur qui en manque. Ce gâchis n’est ni spécifique à l’IA ni nouveau. Il a fallu attendre la fin de la Renaissance pour que quelques femmes réussissent à faire reconnaître leur droit d’être des peintres, alors que depuis des siècles des artistes se faisaient aider par leurs épouses et filles [4]. La société se prive de talents en écartant les femmes des postes de création, mais elle perd encore plus en créativité car celle-ci croît de façon non linéaire avec la diversité d’un groupe [5].

La mixité des équipes n’est pas seulement nécessaire, comme l’écrivent les deux auteurs, pour réduire la subjectivité des programmes, elle est économiquement souhaitable. Le BCG a montré que les revenus générés par les innovations bondissent dès que l’on dépasse la barre de 20 % de femmes dans le management [6]. Les auteurs citent un ouvrage, non traduit en français, qui, déjà en 1977, observait que les femmes avaient peu d’influence dans les entreprises tant qu’elles ne représentaient, comme souvent, que 10 % à 15 % des effectifs. À partir de 35 %, elles constitueraient une minorité agissante [7]. Selon Michel Ferrary et l’Observatoire Skema de la féminisation des entreprises [8], les entreprises « dont l’encadrement est le plus féminisé “superforment” le CAC40à la fois sur le long terme » (2009-2019) de quelque 250 % et sur le moyen terme (2013-2019) de près de 100 %. On peut penser que ce gain d’efficacité se retrouve au niveau des équipes de recherche et d’innovation.

Des actions possibles

L’IA peut aussi être mobilisée pour détecter les discriminations, en analysant par exemple les photos des équipes dirigeantes. On découvre ainsi que « 23 des plus grandes entreprises mondiales, majoritairement en Chine et au Japon, n’ont pas une seule femme dans leur conseil d’administration ». Aude Bernheim et Flora Vincent proposent comme objectif d’atteindre d’ici cinq ans le seuil des 35 % de femmes en IA. Possible puisque l’université Carnegie Mellon a fait passer, entre 1995 et 2000, la proportion « de femmes inscrites en licence d’informatique […] de 9 % à 42 % ». L’étude des motivations des étudiantes et des freins rencontrés avait conduit à modifier le cursus des études.

Le principal ennemi de la parité se situe au niveau des stéréotypes. En 2016, l’étude de millions de propositions d’améliorations sur la plate-forme GitHub a montré que les changements venant de femmes avaient plus de chances d’être jugés favorablement par la communauté, sauf lorsque le genre de l’auteur était identifié [9]. Les progrès nécessaires impliquent donc une lutte contre les stéréotypes, les images mentales dominantes. Des actions comme celle du Carnegie Mellon sont possibles là où les dirigeants ont la vision et la volonté nécessaires. Aller plus loin exige « d’intervenir dès l’enfance », puisqu’une étude montre que « les filles se croient moins intelligentes que les garçons dès l’âge de six ans » et « les représentations de métiers deviennent genrées [10] ».

Il faudrait une formation des enseignants, des parents, ainsi qu’une évolution des jouets et des jeux numériques, pour ne pas enfermer les enfants dans des comportements de genre. Les initiatives se multiplient, notamment concernant l’orientation vers les métiers du numérique et de l’IA, mais, estiment les auteurs, « les résistances sont fortes, il faudrait deux décennies avant que des promotions égalitaires n’émergent ». Et de préconiser des mesures plus contraignantes, comme des formations obligatoires sur l’égalité entre les sexes dans les écoles d’informatique, des sensibilisations aux biais, voire « des quotas de 35 % à 40 % de femmes aux niveaux stratégiques du développement et du contrôle de l’IA ».



[1]Bernheim Aude et Vincent Flora, L’Intelligence artificielle, pas sans elles !, Paris : Belin (Égale à égal), 2019.

[2]Donner un sens à l’intelligence artificielle. Pour une stratégie nationale et européenne, Paris : rapport au Premier ministre, mars 2018. URL : https://www.ladocumentationfrancaise.fr/docfra/rapport_telechargement/var/storage/rapports-publics/184000159.pdf. Consulté le 4 juin 2019.

[3]Ganay Claude (de) et Gillot Dominique, Pour une intelligence artificielle maîtrisée, utile et démystifiée, Paris : OPECST (Office parlementaire d’évaluation des choix scientifiques et technologiques), 2017 (analysé sur le site de Futuribles. URL : https://www.futuribles.com/fr/bibliographie/notice/pour-une-intelligence-artificielle-maitrisee-utile/. Consulté le 4 juin 2019).

[4]Portnoff Arlette et André-Yves, « Freins à la création culturelle », Futuribles, n° 387, juillet-août 2012, p. 39-40.

[5]Portnoff André-Yves, « Diversité, créativité et compétitivité », Note de veille, 19 octobre 2017, Futuribles International. URL : https://www.futuribles.com/fr/article/diversite-creativite-et-competitivite/. Consulté le 4 juin 2019.

[6]Rocío Lorenzo et alii, « The Mix That Matters: Innovation Through Diversity » ; et « How Diverse Leadership Teams Boost Innovation », BCG (Boston Consulting Group), respectivement 26 avril 2017. URL : https://www.bcg.com/publications/2017/people-organization-leadership-talent-innovation-through-diversity-mix-that-matters.aspx ; et 23 janvier 2018. URL : https://www.bcg.com/publications/2018/how-diverse-leadership-teams-boost-innovation.aspx. Consultés le 4 juin 2019.

[7]Kanter Rosabeth Moss, Men and Women of the Corporation, New York : Basic Books, 1977 (synthétisé par Laurence Dejouany, Cercle InterElles, 26 novembre 2013. URL : http://www.interelles.com/lu-pour-vous/rosabeth-moss-kanter-comportement-et-situation-de-minorite. Consulté le 4 juin 2019).

[8]Ferrary Michel, Observatoire Skema de la féminisation des entreprises. Édition 2019. URL : https://www.skema-bs.fr/Documents/faculte-recherche/observatoire-skema-de-la-féminisation-des-entreprises-2019.pdf. Consulté le 4 juin 2019.

[9]Terrell Josh et alii, « Gender Bias in Open Source: Pull Request Acceptance of Women Versus Men », PeerJ Computer Science, vol. 3, n° 1, mai 2017. URL : https://peerj.com/articles/cs-111/. Consulté le 4 juin 2019.

[10]Bian Lin, Leslie Sarah-Jane et Cimpian Andrei, « Gender Stereotypes about Intellectual Ability Emerge Early and Influence Children’s Interests », Science, vol. 355, n° 6323, 27 janvier 2017, p. 389-391.

À lire également

Devenir membre

Cet article est en accès libre jusqu'au 19/07/2019. Devenez membre pour accéder à l'ensemble des productions de l'association.

Adhérer