Vanessa Nurock est professeure de philosophie et directrice adjointe du Centre de recherches en histoire des idées (CRHI) de l’Université Côte d’Azur. Elle y est responsable de la chaire Unesco d’éthique du vivant et de l’artificiel.
Amélie Cordier est docteure en intelligence artificielle, fondatrice et présidente de l’association Lyon-iS-Ai, qui fédère les personnes et structures travaillant dans l’intelligence artificielle et vise à promouvoir ce secteur.
Doaa Abu-Elyounes travaille sur l’éthique de l’intelligence artificielle auprès de l’Unesco. Elle est également chercheuse affiliée au Berkman Klein Center for Internet & Society de l’université de Harvard, et réalise une recherche postdoctorale à l’École normale supérieure de Paris.
Les partisan·es de l’intelligence artificielle la présentent comme relativement neutre et efficace. Vanessa Nurock, dans un article de 2019 (1), vous évoquiez déjà le problème que pose ce supposé « point de vue de nulle part » : qu’en est-il aujourd’hui ?
Vanessa Nurock Cette idée selon laquelle l’intelligence artificielle serait neutre, objective et impartiale m’interroge. Ces termes sont distincts et se complètent pour aboutir à ce « point de vue de nulle part » attribué à l’IA. La première idée, c’est celle d’une supposée neutralité technologique, alors que l’IA telle qu’elle s’est imposée propose une conception de la société dominante et très binaire. Chez les employés de l’industrie tech, on considère que le profil le plus fréquent est celui d’un homme, blanc (quoique là-dessus, je reste mesurée, on ne sait pas bien ce qu’il se passe en Chine par exemple), quadragénaire, qui porte une vision patriarcale et pas très diverse du monde. Ensuite, il y a l’idée d’une objectivité pseudoscientifique. L’intelligence artificielle n’est pas une science en tant que telle, mais on a l’impression que l’IA va nous apporter des informations objectives, c’est-à-dire conformes aux faits, parce qu’elle repose sur des données. Or, si on lui donne de mauvaises données, la machine recrachera de mauvaises données… Le troisième élément consiste à penser que l’IA va nous permettre de prendre des décisions éthiques ou politiques impartiales. En politique, cela aboutit à présenter une IA aux élections, comme ça s’est déjà produit dans une commune au Japon, en 2018, ou lors des élections législatives de 2022 au Danemark. Pourquoi est-ce qu’on considère comme presque sacré ce qui est issu de l’IA ? L’une de mes hypothèses, c’est que l’on confond ce qui est artificiel et ce qui est bien ou juste.
Doaa Abu-Elyounes La neutralité est l’un des plus grands mythes de l’IA, probablement parce que c’est un très bon argument de vente. Le secteur public, en particulier, peut dire : « On a un problème, déployons de la technologie pour le résoudre et tout ira bien ». Alors qu’il s’agit d’un choix. Pendant mon doctorat, j’ai étudié entre autres comment l’IA est utilisée pour détecter des fraudes aux aides sociales. Tout le monde est d’accord pour dire que les aides sociales doivent être versées à ceux qui en ont le plus besoin, et non détournées à des fins frauduleuses. Mais il y a un exemple célèbre aux Pays-Bas, où les systèmes d’IA employés pour repérer ce type de fraude ont pris en compte des éléments comme le fait d’avoir une deuxième nationalité, ou de ne pas parler le néerlandais couramment, comme des indicateurs du risque que la personne commette des fraudes (2). Cela s’est également produit aux États-Unis et ailleurs. Dans ce cas précis, le fonctionnement de ces machines pose plusieurs questions : comment définit-on la fraude, quels en sont les indicateurs les plus prédictifs ? Et pourquoi ne pas mesurer aussi la fraude fiscale ?
Amélie Cordier L’IA est un vaste champ, mais l’application dont on parle le plus, actuellement, ce sont les modèles d’apprentissage statistique. Or, ces machines ont beau être très efficaces, elles ne le sont qu’en fonction des données qu’on leur fournit. Les personnes qui les développent peuvent être pétries de bonnes intentions et essayer d’adapter l’apprentissage, si les données utilisées sont générées par la société dans son ensemble, elles en restent dépendantes. Des chercheuses travaillant aux États-Unis ont qualifié ces modèles de « perroquets stochastiques (3) », c’est-à-dire qu’ils n’ont aucun raisonnement propre : ils ne font que reproduire des conclusions qui reflètent les statistiques qu’il est possible de faire sur leurs données d’entraînement. Quand on demande à l’application Stable Diffusion de créer un portrait de médecin par exemple, elle génère l’image d’un homme blanc de 40 ans ; quand on demande une infirmière, on a une femme blanche de 20 ans, peut-être avec une jupe courte, et ça choque. Nous, en tant qu’êtres humains, trouvons que ces résultats ne sont pas représentatifs, on parle de « biais ». Sauf que si ces résultats sortent, c’est parce qu’ils reflètent des idées préconçues répandues dans la société.
« Les IA peuvent être moins racistes si nous les entraînons sur des données qui reflètent davantage notre diversité. »
Doaa Abu-Elyounes
Intelligence artificielle : une multitude d’applications
Le terme « intelligence artificielle » désigne aussi bien un champ de recherche multidisciplinaire que les applications de ce champ de recherche. Selon les acceptions, l’IA englobe des domaines aussi différents que le traitement automatique du langage, la reconnaissance des formes et des images, le dialogue et la traduction automatique… Elle trouve des applications dans l’automatisation de tâches, l’aide au diagnostic et à la prise de décision, la reconnaissance et la synthèse vocale, la génération de textes et d’images plausibles, etc. Ces techniques sont par exemple utilisées dans la finance et l’assurance (pour la détection de fraudes), dans l’industrie, en médecine (pour aider à repérer des lésions sur de l’imagerie médicale), dans les assistants dits « intelligents », dans le jeu vidéo, dans les moteurs de recherche et les réseaux sociaux (indexation des contenus, modération), etc. Le type d’IA dont on parle le plus ces dernières années recouvre plusieurs techniques d’« apprentissage machine » qui se font, souvent, de manière « non supervisée ». Cela consiste à fournir de vastes quantités de données au modèle, puis à le laisser tourner et créer ses propres connexions jusqu’à ce qu’il restitue un résultat. Mais certaines approches permettent plus de contrôle : les techniques d’apprentissage supervisé, d’une part, comme celle qui permet à une machine de reconnaître un chat d’un chien après qu’elle a « ingurgité » des quantités astronomiques d’images étiquetées « chat », « chien » ou « rien » par des humains. Mais aussi des logiques de programmation plus classiques, où, au lieu de laisser la machine se constituer son propre jeu de règles, on les lui fournit explicitement.
Ces biais sexistes, racistes et âgistes sont-ils inévitables ?
Amélie Cordier Quand Amazon a créé un algorithme (4) de tri de CV pour recruter ses employé·es en 2014, et qu’il s’est avéré discriminant envers les femmes, ça m’a beaucoup fait rire parce que tout le monde s’est insurgé. La machine était complètement sexiste, mais c’était normal : elle reproduisait les pratiques d’embauche de l’industrie des nouvelles technologies. C’est un phénomène intéressant, il est presque plus simple pour quelqu’un de dire qu’une IA est raciste que d’admettre que son directeur des ressources humaines l’est. Ce côté froid de la machine permet à la société de parler du sujet de manière dépassionnée, parce qu’il ne s’agit pas d’individus, mais d’un programme.
Doaa Abu-Elyounes Je suis optimiste. Les IA peuvent être moins racistes si nous les entraînons sur des données qui reflètent davantage notre diversité. Les déséquilibres et les discriminations à l’œuvre sont des problèmes sociotechniques, socioéthiques même. En informatique, il est impossible de gérer simultanément tous les enjeux d’équité, en théorie comme en pratique. Quant au droit et à la politique, ils sont souvent conçus de manière très générale, avec des descriptions qui cherchent à s’adapter à un grand nombre de cas. C’est pourquoi les choix de conception nécessitent des expertises interdisciplinaires, des arbitrages et, au bout du compte, il faut prendre des décisions difficiles pour créer des possibilités de travailler ensemble… Mais c’est ce qui permettrait d’obtenir de meilleurs produits.
Toutes les images qui illustrent ce débat ont été générées en juillet 2023 par l’algorithme Midjourney grâce à des requêtes rédigées par l’artiste Karin Crona.
Toutes les images qui illustrent ce débat ont été générées en juillet 2023 par l’algorithme Midjourney grâce à des requêtes rédigées par l’artiste Karin Crona. Prompt utilisé en anglais : « Magazine photography, female tech worker with team workers, spacious and minimalist designed office, realism, optimism » (photographie de magazine, femme travaillant dans la tech avec son équipe, bureau spacieux et minimaliste, réalisme, optimisme). Karin Crona : « Ici, j’ai voulu créer un environnement plus haut de gamme, mais l’image n’est pas très réussie, parce que tout a l’air faux. Ce n’est pas un biais, mais plutôt un manque d’informations visuelles. À chaque nouvelle version de Midjourney, les erreurs de ce type se font plus rares. »
En 2020, dans le monde, seulement 15 % des data scientists étaient des femmes. Dans quelle mesure cette faible représentation a‑t-elle une influence sur les résultats algorithmiques ?
Vanessa Nurock Historiquement, il y avait des femmes dans le numérique (5), mais petit à petit, on a moins encouragé les jeunes filles et les femmes à travailler dans ce domaine. Aujourd’hui, le numérique est un monde si masculinisé que cela pose un vrai problème. Il impose d’autant plus sa vision patriarcale qu’il est devenu un haut lieu de pouvoir.
Amélie Cordier Pour moi, c’est un problème auquel il faut s’attaquer dès 12 ou 13 ans : très peu de filles font des sciences, encore moins des mathématiques et de l’informatique – elles sont donc rares à travailler dans l’IA. Par conséquent, celles qui finissent par exercer dans la tech sont sursollicitées, pour prouver qu’il y a bien des femmes dans ce milieu. L’IA représente pourtant une opportunité : c’est un univers tellement neuf qu’il génère la création d’énormément de nouveaux métiers. Par ailleurs, l’IA, ce ne sont pas que des mathématiques et de l’informatique : il y a beaucoup d’autres métiers – ceux qui concernent l’expérience utilisateur par exemple, ou la création de prompts (6) pour les modèles algorithmiques les plus récents –, qui représentent autant d’occasions de mettre des femmes dans l’équation.
Doaa Abu-Elyounes Quand les développeurs construisent des outils technologiques, tous les petits choix formulés au fil de leur travail peuvent avoir un effet sur le produit fini. Veiller à ce que ceux-ci soient éthiques pour que le produit soit adapté au plus grand nombre, c’est une démarche qu’on appelle « éthique by design ». S’il y avait plus de femmes dans les équipes qui développent les systèmes, ceux-ci seraient presque automatiquement plus inclusifs, non pas parce que les développeurs cherchent ouvertement à discriminer, mais parce qu’ils construisent uniquement en fonction de ce qu’ils connaissent.
Amélie Cordier C’est l’exemple de Joëlle Pineau. À la fin des années 1990, cette doctorante en intelligence artificielle travaillait sur des systèmes de reconnaissance vocale pour les pilotes d’hélicoptère. Le premier jour de son stage, on lui a fait une démonstration du système puis on l’a laissée travailler. Sauf qu’elle n’a jamais pu le faire fonctionner : personne dans l’équipe n’avait envisagé qu’un système de reconnaissance vocale devait aussi pouvoir fonctionner avec des voix de pilotes féminines…
Prompt utilisé en anglais : « Female tech worker surrounded by her team, a decade from now, highly detailed, realism, photography » (femme travaillant dans la tech entourée de son équipe, dans dix ans, très détaillé, réalisme, photographie). Karin Crona : « Ici, “l’équipe”, ce sont des personnages en miniature, peut-être à cause du terme “très détaillé”. Si je demandais “une femme dans la tech”, j’obtiendrais sans doute juste le visage d’une femme (“belle”, bien sûr) avec un ordinateur. Je rajoute donc des mots dans le prompt pour chercher des biais autres que ceux de la beauté. »
Des images artificielles, au cœur des stéréotypes
Trop parfaites, irréelles, décalées. Même si certaines d’entre elles peuvent passer pour « vraies », les images entièrement conçues par des intelligences artificielles ont souvent un petit air dystopique. Elles sont surtout un concentré de stéréotypes. Pour illustrer ce débat, nous avons fait appel à l’artiste visuelle Karin Crona, qui s’intéresse depuis plus d’un an aux images créées par intelligence artificielle. Pour La Déferlante, elle a composé les prompts (ou requêtes – lire note 6) du type « femme travaillant dans la tech » ou « femme d’âge mûr » pour générer les images que nous publions dans ces pages. Celles-ci mettent en évidence les biais des plateformes de création d’images. « Sur la plateforme Midjourney par exemple, les femmes sont par défaut blanches, jeunes, minces et correspondant aux canons de la beauté », explique-t-elle. Les algorithmes sont également biaisés du fait des mots qu’ils censurent ou des erreurs inhérentes à une technologie encore perfectible. Les résultats évoluent très vite. « Il y a quelques mois, je pouvais obtenir une image en utilisant l’expression “women menstruating” (femme menstruée). Ensuite, il fallait utiliser le mot “period” (règles) pour obtenir le même résultat. Depuis, ce mot a été interdit. Midjourney rejette les demandes qu’il juge “indécentes” car pouvant comporter de la nudité ou de la violence. » Ainsi, ce qui devient intéressant pour la plasticienne, ce n’est pas tant les résultats de l’IA que le processus de création qu’ils révèlent. « Je m’amuse beaucoup à perturber ou contourner l’algorithme avec des prompts incohérents ou bizarres, cela génère des images très étranges. »
Par leur faculté à créer du texte et des images, les IA génératives comme ChatGPT ou Stable Diffusion soulèvent des questions politiques et éthiques importantes : démultiplication des fausses informations, explosion de la haine en ligne, etc. À l’inverse, des gens comme Elon Musk (qui a cofondé puis quitté OpenAI, créateur de ChatGPT) qualifient l’IA de « woke », précisément parce que les développeurs y ajoutent des mécanismes d’amélioration des résultats. Qu’en pensez-vous ?
Vanessa Nurock On ne peut avoir ce débat que si on pense que l’IA est neutre. Or elle ne l’est pas : ses résultats dépendent de la vision du monde de ceux qui la construisent ou de ceux qui la financent. Quelquefois, celles et ceux qui la font sont des petites mains dans des pays en voie de développement (Kenya ou Inde pour les États-Unis, Madagascar pour la France, par exemple), et elles doivent appliquer les résultats de certains modèles économiques qu’elles subissent elles-mêmes… Après, on peut discuter de la possibilité de s’accorder sur des critères permettant de décider qu’une IA biaisée est quand même bonne – ce qui est le cas, selon moi, d’une IA qui bénéficie aux plus vulnérables, par exemple. Par contre, si la machine contribue à instaurer ou reproduire des rapports de domination, c’est un problème.
Amélie Cordier Je ne suis pas tout à fait d’accord. Je pense qu’il est très louable que des ingénieur·es observent les résultats de leurs modèles d’IA et se disent : « Ça ne va pas, c’est orienté. » C’est important à la fois pour la recherche et pour la fabrication des produits finis – certain·es développent même des outils destinés à détecter plus facilement les biais, pour permettre de « truquer » les résultats de la machine. Mais dès qu’on prend la décision de faire ça, en tant qu’entreprise ou comme ingénieur·e, on s’exprime depuis un certain point de vue. On a son modèle de société, ses biais, sa culture, et fatalement, même si on essaye de rendre le modèle plus juste, on va le rendre plus juste dans une certaine direction. Ce qui importe vraiment et ce qu’on ne fait pas assez, c’est surtout de partager l’information et de cultiver une culture de l’esprit critique envers les technologies que nous utilisons au quotidien.
Prompt utilisé en anglais : « Woman having period cramps, photography » (femme ayant des douleurs menstruelles, photographie). Karin Crona : « Midjourney fonctionne souvent par association et applique sur l’image la même couleur partout, ici le rouge du sang. »
Prompt utilisé en anglais : « Woman having her period, photography, realism » (femme ayant ses règles, photographie, réalisme). Karin Crona : « Sur Midjourney, les règles sont particulièrement abondantes ! On dirait que quelqu’un·e a jeté un seau rempli de sang au mur et que la jeune femme en a honte : tête baissée, elle a l’air triste. »
La Fondation des femmes porte plainte contre Facebook
En 2022 et en 2023, la Fondation des femmes, l’association Femmes ingénieures et l’ONG Global Witness ont mené une expérience : publier des offres d’emploi écrites de manière neutre sur Facebook et observer qui y est exposé. La raison ? 53 % des PME déclarent recruter en ligne, selon une étude RégionsJob, et 82 % des personnes en recherche d’emploi utilisent les réseaux sociaux pour trouver un nouveau poste.
Or, en France, les publicités pour l’offre d’emploi de pilote de ligne publiée par ces associations ont été reçues par une population… à 85 % masculine. Celles pour le poste de cadre du numérique ont touché 68 % d’hommes. À l’inverse, l’offre d’emploi d’auxiliaire de puériculture a été montrée dans 94 % des cas à des femmes. Les algorithmes et la machinerie globale de Facebook et de sa maison mère Meta sont connus pour la précision de leur ciblage. Après tout, c’est le cœur de leur modèle commercial : proposer à des marques de diffuser des publicités qui toucheront des publics de manière beaucoup plus précise que ce qu’aucun autre média n’avait permis jusque-là. Sauf qu’en France, le droit défend le principe d’un égal accès à l’emploi pour les femmes et les hommes. Les associations argumentent donc que, pour les cas des offres d’emploi, les algorithmes de Facebook créent une discrimination sexiste. En effet, si vous ne recevez même pas l’information sur l’ouverture d’un poste, vous aurez peu de chance d’envisager d’y postuler, pointe la Fondation des femmes.
Autre enjeu, derrière celui de la visibilité : les offres d’emploi testées par les associations sont loin de donner accès au même salaire. Pour un pilote de ligne, par exemple, le salaire moyen en début de carrière est de 2 600 euros par mois et grimpe à 8 500 euros en milieu de carrière. Côté auxiliaire de puériculture, on part de 1 600 euros par mois en moyenne pour atteindre 2 200 euros en milieu de carrière. Le 12 juin 2023, ces trois associations ont donc saisi la Défenseure des droits et la CNIL en France. D’autres plaintes ont été déposées en parallèle auprès des institutions aux Pays-Bas et aux États-Unis.
Doaa, vous travaillez à l’Unesco sur l’éthique de l’IA. Comment cette nouvelle technologie est-elle perçue à travers le monde ?
Doaa Abu-Elyounes Les préoccupations sont similaires dans le monde entier – l’IA ne discrimine pas les femmes et les minorités uniquement aux États-Unis et en Europe. En revanche, ailleurs, ces questions sont très amplifiées. Les modèles de reconnaissance du langage, ou de modération de contenus sur Facebook, attirent par exemple beaucoup de critiques. Ils fonctionnent mal en anglais, mais en réalité, si vous passez au français, à l’arabe ou au turc, les performances sont encore plus faibles. Prenez des langues moins courantes, c’est pire. Avec ChatGPT, qui est basé sur un autre modèle de langage, OpenAI est fier de proposer des réponses dans de nombreuses langues, mais les contenus sont en réalité des traductions de connaissances américaines, même si vous lui posez une question sur la France par exemple. Cela ne rend justice ni aux langues ni aux connaissances locales. L’exploitation des données est un autre problème courant : il est très simple d’aller entraîner des algorithmes dans les régions où il n’existe pas de lois strictes en matière de protection des données, avant d’utiliser ces applications en Occident.
Comment faire quand une machine nous impose un contenu ? Ou quand, sur Facebook ou LinkedIn, on ne reçoit pas la même chose selon qu’on est une femme ou un homme, selon ce que la machine a compris de nous ?
Vanessa Nurock C’est le problème du passage du descriptif au prescriptif. Waze ou Google Maps en sont de bons exemples : leurs suggestions d’itinéraires bis ne sont pas anodines puisque si on se met tous ou toutes à les suivre, on court le risque de créer un embouteillage et que ce nouveau trajet ne soit plus aussi rapide que celui de départ. Cela pose la question de l’utilité de l’outil : si on a un bon sens de l’orientation, peut-être qu’on peut ne pas se reposer constamment sur Maps, peut-être qu’on n’a pas besoin de toujours chercher à remplacer ce qui fonctionne déjà. Qu’est-ce qu’on perd à utiliser Waze pour s’orienter, par exemple, ou bien Tinder plutôt qu’une méthode plus classique de rencontre ?
Doaa Abu-Elyounes Pouvoir garder l’option d’utiliser ou non une technologie, ou de choisir quelle technologie, me paraît important, effectivement. Car sinon, ce choix risque de disparaître : quand tout le monde utilise les paiements mobiles en Chine, je n’ai pas le choix du cash ; quand le serveur par défaut de mon école est Google, je n’ai pas le choix du fournisseur. Par ailleurs, face à l’argument : « Si ça marche, pas besoin de changer les usages déjà en place », on va vite te répondre : « Vous bloquez l’innovation ».
Vanessa Nurock Ma suggestion dans ce cas, c’est de regarder du côté d’autres cultures. Les Japonais·es, par exemple, poussent la technologie très loin, en particulier l’IA, mais continuent à faire certaines choses comme avant, ou en tout cas à transmettre certaines compétences et certains savoirs. Chercher une forme d’harmonie, une société où coexistent la technologie (ou l’IA) et l’humain, ce n’est pas technophobe, mais c’est penser le rapport à la technologie d’une manière qui n’est peut-être pas habituelle dans la société occidentale ni française.
Prompt utilisé en anglais : « Mature woman leading a healthy and active life, natural » (femme mûre menant une vie active et en bonne santé, naturelle). Karin Crona : « Dans Midjourney, la femme mûre est toujours “belle”, et si elle est active, il faut comprendre qu’elle est musclée. J’ai mis le mot “naturelle” pour réaliser un personnage simple et authentique, mais on dirait que c’est la robe qui l’est devenue, couverte de fleurs ! »
Prompt utilisé en français : « Femme 60 ans, active et en bonne santé, photoréalisme ». Karin Crona : « Je préfère écrire les prompts en anglais parce qu’en général, cela donne des images plus exactes, mais c’est intéressant de tenter d’autres langues. Ce qui ne change pas, c’est que Midjourney intègre mal les femmes âgées ! Elles sont forcément “belles” et sportives, comme Jane Fonda. »
Les masculinistes et les suprémacistes à l’assaut de l’IA
L’IA peut servir toutes sortes d’idées politiques et de visions du monde, y compris celles qui n’avantagent pas les femmes. En 2017, l’ingénieur Guillaume Chaslot démontrait avec son association AlgoTransparency que l’algorithme de YouTube favorisait le sensationnel, même fake. Comme les contenus complotistes ou racistes, sexistes, homophobes, etc., captent l’attention de l’auditoire, ils permettent à l’entreprise de diffuser plus de publicité. Résultat, ces types de discours sont plus facilement recommandés par les algorithmes de toutes sortes de réseaux.
En 2018, si les grands médias s’inquiétaient beaucoup du fait que les deepfakes, ces fausses images et fausses vidéos fabriquées grâce à des IA, amplifient la désinformation politique, une étude de l’entreprise Sensity AI démontrait qu’entre 90 et 95 % du contenu créé consistait en réalité en des vidéos pornographiques, dont 90 % étaient non consenties (en collant la tête de la victime sur le corps d’une actrice, par exemple). Avec la qualité des résultats obtenus par des modèles comme GPT‑3 et GPT‑4, la tendance ne peut que s’accentuer.
Ces dernières années, les tenants d’idées conservatrices et réactionnaires ont développé une maîtrise poussée des usages numériques et ainsi pu inonder l’espace public de leur vision du monde. Un phénomène analysé par la sociologue franco-états-unienne Jen Schradie dans L’illusion de la démocratie numérique : Internet est-il de droite ? (EPFL Press, 2022). Avec The Propagandists’ Playbook (Yale University Press, 2022, non traduit), la sociologue Francesca Tripodi démontre comment la compréhension qu’ont les élites conservatrices du fonctionnement des algorithmes « recherche » (sur Google, YouTube et ailleurs) leur permet d’en manipuler les résultats à leur avantage.
Deux épisodes de La fabrique du mensonge, diffusés en 2023 sur France 5, offrent des illustrations éloquentes du pouvoir numérique de l’extrême droite masculiniste et suprémaciste : « Affaire Johnny Depp/Amber Heard – La justice à l’épreuve des réseaux sociaux », et « Affaire Lola, chronique d’une récupération ».
Elon Musk, patron de X (anciennement Twitter), de Space X et de Tesla, Geoffrey Hinton, pionnier de l’IA et ancien de Google, Brad Smith, président de Microsoft… Dans différentes prises de position publiques en 2022 et 2023, tous alertent contre les risques que les IA feraient peser sur l’humanité, quand bien même ils ont œuvré à leur développement. N’est-ce pas paradoxal ? Faut-il freiner le secteur, le réguler ?
Doaa Abu-Elyounes Sur la question de la régulation, l’Unesco a développé un cadre global en 2021 qui prend en compte autant de points de vue que possible dans le monde : la Recommandation sur l’éthique de l’IA. Ce texte a été rédigé par un groupe d’expert·es diversifié, équilibré en termes de genre et d’origine géographique. Il est très concret, sur les politiques publiques en particulier. Le document indique par exemple qu’il faut consacrer un budget à l’amélioration de l’inclusion des femmes dans l’intelligence artificielle et à l’augmentation du nombre de filles dans l’enseignement des sciences, des techniques, de l’informatique et des mathématiques. D’autre part, le texte est suffisamment flexible pour s’adapter aux changements constants des technologies et aux besoins des différents pays. La prochaine étape consiste à travailler sur sa mise en œuvre, au cas par cas. Mon souhait est que les pays soient tenus responsables de l’application de cette résolution, parce qu’ils ont activement accepté de la mettre en œuvre.
Amélie Cordier Que les créateurs de certains modèles se disent qu’il faut prendre le temps de réfléchir, fort bien. Qu’ils demandent un moratoire de six mois sur la recherche en IA et s’en vantent sur la place publique, ça me fait grincer des dents parce qu’ils auraient les moyens d’aider à réfléchir plus vite. Si on décidait de faire une pause, tout le monde sait qu’en réalité, chacun continuera de réfléchir dans son coin. Or, je trouve plus dangereux de faire de la recherche privée que de la recherche publique. On peut difficilement freiner le progrès, mais on peut l’accompagner. Sur le plan de la réglementation, je suis effarée par l’absence totale de préoccupation environnementale et de débat public sur le sujet, pour le développement logiciel en général et pour celui des grands modèles de langage en particulier. Je me penche beaucoup sur les impacts de ces modèles, dont on disait jusque-là : « Attention, ce sont de très gros modèles », en termes de consommation énergétique – avant même d’envisager qu’ils puissent être interrogés par des centaines de milliers de personnes en si peu de temps. Or, je ne suis pas sûre qu’il soit nécessaire de faire fondre trois centimètres de banquise pour écrire des résumés automatisés des matchs de Roland Garros.
Vanessa Nurock Approcher l’IA du point de vue du genre, du point de vue écologique, c’est se poser la question de la société dans laquelle on veut vivre. Or, il n’y a quasiment pas d’initiative qui fasse dialoguer les personnes qui font la tech et celles qui réfléchissent à la tech de manière autonome. Nous, les philosophes, ne sommes pas du tout sollicité·es par les Gafam pour discuter avec eux. Ce que ces entreprises font, c’est monter des comités d’éthique internes et puis en virer les gens (5) quand ceux-ci commencent à aborder des sujets complexes. Je pense que l’Unesco est l’un des rares endroits où l’on essaye vraiment de réfléchir, de mêler actions pratiques et théoriques, de faire se rencontrer des acteurs différents. •
Prompt utilisé en anglais « Three generations of women together in a group portrait » (trois générations de femmes dans un portrait de groupe). Karin Crona : « Ici, il est intéressant de constater le biais de genre. Avec le même prompt, Midjourney est capable de générer trois générations d’hommes, mais quand il s’agit de femmes, il génère systématiquement une femme âgée et deux jeunes. »
Prompt utilisé en anglais : « Three generations of men together in a group portrait » (trois générations d’hommes dans un portrait de groupe).
Débat mené le 31 mai 2023 à Paris, dans les bureaux de l’Unesco par Mathilde Saliou.
Mathilde Saliou
Journaliste, elle s’intéresse à l’impact du numérique sur la société, et inversement. En 2023, elle a publié Technoféminisme. Comment le numérique aggrave les inégalités (Grasset).
1. « L’intelligence artificielle a‑t-elle un genre ? », Vanessa Nurock, Cités, no 80, 2019.
2. En 2021, cela a entraîné la démission du gouvernement : plus de 20 000 familles avaient été accusées à tort de fraude aux aides sociales, au moyen d’un logiciel paramétré pour réaliser une forme de profilage ethnique.
3. Timnit Gebru, Shmargaret Shmitchell, Emily Bender et Angelina McMillan-Major, « On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? », Conference on Fairness, Accountability and Transparency, 2021.
4. Algorithme : suite de règles formelles permettant de réaliser une opération. Ce qu’on appelle intelligence artificielle désigne souvent des applications construites à partir de modèles algorithmiques.
5. Lire par exemple Isabelle Collet, Les Oubliées du numérique, Le Passeur, 2019.
6. Prompt : « Requête », en français. Le mot désigne les commandes écrites que l’on envoie à une IA générative pour lui faire produire du texte ou des images. Les prompts diffèrent du code en ce qu’ils peuvent être écrits en langage naturel (celui qu’on utilise tous les jours).