Comment rendre l’intelligence artificielle plus inclusive ?

Bien que souvent présentée comme une tech­no­lo­gie efficace, neutre et révo­lu­tion­naire, l’intelligence arti­fi­cielle (IA) est truffée de biais sexistes et racistes. Cela est dû à la manière même dont elle est construite et alimentée. Comment la rendre plus inclusive ? Débat entre la phi­lo­sophe Vanessa Nurock, la docteure en intel­li­gence arti­fi­cielle Amélie Cordier et la juriste Doaa Abu-Elyounes.
Publié le 19 octobre 2023
image générée en juillet 2023 par l’algorithme d'intelligence artificielle Midjourney grâce à des requêtes rédigées par l’artiste Karin Crona
Prompt utilisé en anglais : « Woman working in the tech industry, sur­roun­ded by her team, inclusive envi­ron­ment, cinematic, film still, pho­to­gra­phy » (femme tra­vaillant dans l’industrie de la tech, entourée de son équipe, envi­ron­ne­ment inclusif, ciné­ma­tique, photo de plateau, pho­to­gra­phie). Karin Crona : « À force de prompter “envi­ron­ne­ment inclusif”, j’ai compris que Midjourney ne savait pas bien inter­pré­ter cette expres­sion. La femme n’a pas l’air très intégrée à cette équipe d’hommes. Les mots tels que “photo de plateau” me per­mettent d’obtenir une image plus sophis­ti­quée. Par défaut, le monde de la tech est sombre et bleu. »

Vanessa Nurock par Lucile Gautier pour La Déferlante

Vanessa Nurock est pro­fes­seure de phi­lo­so­phie et direc­trice adjointe du Centre de recherches en histoire des idées (CRHI) de l’Université Côte d’Azur. Elle y est res­pon­sable de la chaire Unesco d’éthique du vivant et de l’artificiel.

Amélie Cordier par Lucile Gautier pour La Déferlante Amélie Cordier est docteure en intel­li­gence arti­fi­cielle, fon­da­trice et pré­si­dente de l’association Lyon-iS-Ai, qui fédère les personnes et struc­tures tra­vaillant dans l’intelligence arti­fi­cielle et vise à pro­mou­voir ce secteur.

 

Doaa Abu-Elyounes par Lucile Gautier pour La Déferlante

Doaa Abu-Elyounes travaille sur l’éthique de l’intelligence arti­fi­cielle auprès de l’Unesco. Elle est également cher­cheuse affiliée au Berkman Klein Center for Internet & Society de l’université de Harvard, et réalise une recherche post­doc­to­rale à l’École normale supé­rieure de Paris.

 

 

 

Les partisan·es de l’intelligence arti­fi­cielle la pré­sentent comme rela­ti­ve­ment neutre et efficace. Vanessa Nurock, dans un article de 2019 (1), vous évoquiez déjà le problème que pose ce supposé « point de vue de nulle part » : qu’en est-il aujourd’hui ?

Vanessa Nurock Cette idée selon laquelle l’intelligence arti­fi­cielle serait neutre, objective et impar­tiale m’interroge. Ces termes sont distincts et se com­plètent pour aboutir à ce « point de vue de nulle part » attribué à l’IA. La première idée, c’est celle d’une supposée neu­tra­li­té tech­no­lo­gique, alors que l’IA telle qu’elle s’est imposée propose une concep­tion de la société dominante et très binaire. Chez les employés de l’industrie tech, on considère que le profil le plus fréquent est celui d’un homme, blanc (quoique là-dessus, je reste mesurée, on ne sait pas bien ce qu’il se passe en Chine par exemple), qua­dra­gé­naire, qui porte une vision patriar­cale et pas très diverse du monde. Ensuite, il y a l’idée d’une objec­ti­vi­té pseu­dos­cien­ti­fique. L’intelligence arti­fi­cielle n’est pas une science en tant que telle, mais on a l’impression que l’IA va nous apporter des infor­ma­tions objec­tives, c’est-à-dire conformes aux faits, parce qu’elle repose sur des données. Or, si on lui donne de mauvaises données, la machine recra­che­ra de mauvaises données… Le troisième élément consiste à penser que l’IA va nous permettre de prendre des décisions éthiques ou poli­tiques impar­tiales. En politique, cela aboutit à présenter une IA aux élections, comme ça s’est déjà produit dans une commune au Japon, en 2018, ou lors des élections légis­la­tives de 2022 au Danemark. Pourquoi est-ce qu’on considère comme presque sacré ce qui est issu de l’IA ? L’une de mes hypo­thèses, c’est que l’on confond ce qui est arti­fi­ciel et ce qui est bien ou juste.

Doaa Abu-Elyounes La neu­tra­li­té est l’un des plus grands mythes de l’IA, pro­ba­ble­ment parce que c’est un très bon argument de vente. Le secteur public, en par­ti­cu­lier, peut dire : « On a un problème, déployons de la tech­no­lo­gie pour le résoudre et tout ira bien ». Alors qu’il s’agit d’un choix. Pendant mon doctorat, j’ai étudié entre autres comment l’IA est utilisée pour détecter des fraudes aux aides sociales. Tout le monde est d’accord pour dire que les aides sociales doivent être versées à ceux qui en ont le plus besoin, et non détour­nées à des fins frau­du­leuses. Mais il y a un exemple célèbre aux Pays-Bas, où les systèmes d’IA employés pour repérer ce type de fraude ont pris en compte des éléments comme le fait d’avoir une deuxième natio­na­li­té, ou de ne pas parler le néer­lan­dais cou­ram­ment, comme des indi­ca­teurs du risque que la personne commette des fraudes (2). Cela s’est également produit aux États-Unis et ailleurs. Dans ce cas précis, le fonc­tion­ne­ment de ces machines pose plusieurs questions : comment définit-on la fraude, quels en sont les indi­ca­teurs les plus pré­dic­tifs ? Et pourquoi ne pas mesurer aussi la fraude fiscale ?

Amélie Cordier L’IA est un vaste champ, mais l’application dont on parle le plus, actuel­le­ment, ce sont les modèles d’apprentissage sta­tis­tique. Or, ces machines ont beau être très efficaces, elles ne le sont qu’en fonction des données qu’on leur fournit. Les personnes qui les déve­loppent peuvent être pétries de bonnes inten­tions et essayer d’adapter l’apprentissage, si les données utilisées sont générées par la société dans son ensemble, elles en restent dépen­dantes. Des cher­cheuses tra­vaillant aux États-Unis ont qualifié ces modèles de « per­ro­quets sto­chas­tiques (3) », c’est-à-dire qu’ils n’ont aucun rai­son­ne­ment propre : ils ne font que repro­duire des conclu­sions qui reflètent les sta­tis­tiques qu’il est possible de faire sur leurs données d’entraînement. Quand on demande à l’application Stable Diffusion de créer un portrait de médecin par exemple, elle génère l’image d’un homme blanc de 40 ans ; quand on demande une infir­mière, on a une femme blanche de 20 ans, peut-être avec une jupe courte, et ça choque. Nous, en tant qu’êtres humains, trouvons que ces résultats ne sont pas repré­sen­ta­tifs, on parle de « biais ». Sauf que si ces résultats sortent, c’est parce qu’ils reflètent des idées pré­con­çues répandues dans la société.


« Les IA peuvent être moins racistes si nous les entraî­nons sur des données qui reflètent davantage notre diversité. »

Doaa Abu-Elyounes


Intelligence artificielle : une multitude d’applications

Le terme « intel­li­gence arti­fi­cielle » désigne aussi bien un champ de recherche mul­ti­dis­ci­pli­naire que les appli­ca­tions de ce champ de recherche. Selon les accep­tions, l’IA englobe des domaines aussi dif­fé­rents que le trai­te­ment auto­ma­tique du langage, la recon­nais­sance des formes et des images, le dialogue et la tra­duc­tion auto­ma­tique… Elle trouve des appli­ca­tions dans l’automatisation de tâches, l’aide au diag­nos­tic et à la prise de décision, la recon­nais­sance et la synthèse vocale, la géné­ra­tion de textes et d’images plau­sibles, etc. Ces tech­niques sont par exemple utilisées dans la finance et l’assurance (pour la détection de fraudes), dans l’industrie, en médecine (pour aider à repérer des lésions sur de l’imagerie médicale), dans les assis­tants dits « intel­li­gents », dans le jeu vidéo, dans les moteurs de recherche et les réseaux sociaux (indexa­tion des contenus, modé­ra­tion), etc. Le type d’IA dont on parle le plus ces dernières années recouvre plusieurs tech­niques d’« appren­tis­sage machine » qui se font, souvent, de manière « non super­vi­sée ». Cela consiste à fournir de vastes quantités de données au modèle, puis à le laisser tourner et créer ses propres connexions jusqu’à ce qu’il restitue un résultat. Mais certaines approches per­mettent plus de contrôle : les tech­niques d’apprentissage supervisé, d’une part, comme celle qui permet à une machine de recon­naître un chat d’un chien après qu’elle a « ingurgité » des quantités astro­no­miques d’images éti­que­tées « chat », « chien » ou « rien » par des humains. Mais aussi des logiques de pro­gram­ma­tion plus clas­siques, où, au lieu de laisser la machine se consti­tuer son propre jeu de règles, on les lui fournit explicitement.

Ces biais sexistes, racistes et âgistes sont-ils inévitables ?

Amélie Cordier Quand Amazon a créé un algo­rithme (4) de tri de CV pour recruter ses employé·es en 2014, et qu’il s’est avéré dis­cri­mi­nant envers les femmes, ça m’a beaucoup fait rire parce que tout le monde s’est insurgé. La machine était com­plè­te­ment sexiste, mais c’était normal : elle repro­dui­sait les pratiques d’embauche de l’industrie des nouvelles tech­no­lo­gies. C’est un phénomène inté­res­sant, il est presque plus simple pour quelqu’un de dire qu’une IA est raciste que d’admettre que son directeur des res­sources humaines l’est. Ce côté froid de la machine permet à la société de parler du sujet de manière dépas­sion­née, parce qu’il ne s’agit pas d’individus, mais d’un programme.

Doaa Abu-Elyounes Je suis optimiste. Les IA peuvent être moins racistes si nous les entraî­nons sur des données qui reflètent davantage notre diversité. Les dés­équi­libres et les dis­cri­mi­na­tions à l’œuvre sont des problèmes socio­tech­niques, socioé­thiques même. En infor­ma­tique, il est impos­sible de gérer simul­ta­né­ment tous les enjeux d’équité, en théorie comme en pratique. Quant au droit et à la politique, ils sont souvent conçus de manière très générale, avec des des­crip­tions qui cherchent à s’adapter à un grand nombre de cas. C’est pourquoi les choix de concep­tion néces­sitent des exper­tises inter­dis­ci­pli­naires, des arbi­trages et, au bout du compte, il faut prendre des décisions dif­fi­ciles pour créer des pos­si­bi­li­tés de tra­vailler ensemble… Mais c’est ce qui per­met­trait d’obtenir de meilleurs produits.

Toutes les images qui illus­trent ce débat ont été générées en juillet 2023 par l’algorithme Midjourney grâce à des requêtes rédigées par l’artiste Karin Crona.

image générée en juillet 2023 par l’algorithme Midjourney grâce à des requêtes rédigées par l’artiste Karin Crona

Toutes les images qui illus­trent ce débat ont été générées en juillet 2023 par l’algorithme Midjourney grâce à des requêtes rédigées par l’artiste Karin Crona. Prompt utilisé en anglais : « Magazine pho­to­gra­phy, female tech worker with team workers, spacious and mini­ma­list designed office, realism, optimism » (pho­to­gra­phie de magazine, femme tra­vaillant dans la tech avec son équipe, bureau spacieux et mini­ma­liste, réalisme, optimisme). Karin Crona : « Ici, j’ai voulu créer un envi­ron­ne­ment plus haut de gamme, mais l’image n’est pas très réussie, parce que tout a l’air faux. Ce n’est pas un biais, mais plutôt un manque d’informations visuelles. À chaque nouvelle version de Midjourney, les erreurs de ce type se font plus rares. »

 

En 2020, dans le monde, seulement 15 % des data scien­tists étaient des femmes. Dans quelle mesure cette faible repré­sen­ta­tion a‑t-elle une influence sur les résultats algorithmiques ?

Vanessa Nurock Historiquement, il y avait des femmes dans le numérique (5), mais petit à petit, on a moins encouragé les jeunes filles et les femmes à tra­vailler dans ce domaine. Aujourd’hui, le numérique est un monde si mas­cu­li­ni­sé que cela pose un vrai problème. Il impose d’autant plus sa vision patriar­cale qu’il est devenu un haut lieu de pouvoir.

Amélie Cordier Pour moi, c’est un problème auquel il faut s’attaquer dès 12 ou 13 ans : très peu de filles font des sciences, encore moins des mathé­ma­tiques et de l’informatique – elles sont donc rares à tra­vailler dans l’IA. Par consé­quent, celles qui finissent par exercer dans la tech sont sur­sol­li­ci­tées, pour prouver qu’il y a bien des femmes dans ce milieu. L’IA repré­sente pourtant une oppor­tu­ni­té : c’est un univers tellement neuf qu’il génère la création d’énormément de nouveaux métiers. Par ailleurs, l’IA, ce ne sont pas que des mathé­ma­tiques et de l’informatique : il y a beaucoup d’autres métiers – ceux qui concernent l’expérience uti­li­sa­teur par exemple, ou la création de prompts (6) pour les modèles algo­rith­miques les plus récents –, qui repré­sentent autant d’occasions de mettre des femmes dans l’équation.

Doaa Abu-Elyounes Quand les déve­lop­peurs construisent des outils tech­no­lo­giques, tous les petits choix formulés au fil de leur travail peuvent avoir un effet sur le produit fini. Veiller à ce que ceux-ci soient éthiques pour que le produit soit adapté au plus grand nombre, c’est une démarche qu’on appelle « éthique by design ». S’il y avait plus de femmes dans les équipes qui déve­loppent les systèmes, ceux-ci seraient presque auto­ma­ti­que­ment plus inclusifs, non pas parce que les déve­lop­peurs cherchent ouver­te­ment à dis­cri­mi­ner, mais parce qu’ils construisent uni­que­ment en fonction de ce qu’ils connaissent.

Amélie Cordier C’est l’exemple de Joëlle Pineau. À la fin des années 1990, cette doc­to­rante en intel­li­gence arti­fi­cielle tra­vaillait sur des systèmes de recon­nais­sance vocale pour les pilotes d’hélicoptère. Le premier jour de son stage, on lui a fait une démons­tra­tion du système puis on l’a laissée tra­vailler. Sauf qu’elle n’a jamais pu le faire fonc­tion­ner : personne dans l’équipe n’avait envisagé qu’un système de recon­nais­sance vocale devait aussi pouvoir fonc­tion­ner avec des voix de pilotes féminines…

image générée en juillet 2023 par l’algorithme Midjourney grâce à des requêtes rédigées par l’artiste Karin Crona

Prompt utilisé en anglais : « Female tech worker sur­roun­ded by her team, a decade from now, highly detailed, realism, pho­to­gra­phy » (femme tra­vaillant dans la tech entourée de son équipe, dans dix ans, très détaillé, réalisme, pho­to­gra­phie). Karin Crona : « Ici, “l’équipe”, ce sont des per­son­nages en miniature, peut-être à cause du terme “très détaillé”. Si je demandais “une femme dans la tech”, j’obtiendrais sans doute juste le visage d’une femme (“belle”, bien sûr) avec un ordi­na­teur. Je rajoute donc des mots dans le prompt pour chercher des biais autres que ceux de la beauté. »

Des images artificielles, au cœur des stéréotypes

Trop parfaites, irréelles, décalées. Même si certaines d’entre elles peuvent passer pour « vraies », les images entiè­re­ment conçues par des intel­li­gences arti­fi­cielles ont souvent un petit air dys­to­pique. Elles sont surtout un concentré de sté­réo­types. Pour illustrer ce débat, nous avons fait appel à l’artiste visuelle Karin Crona, qui s’intéresse depuis plus d’un an aux images créées par intel­li­gence arti­fi­cielle. Pour La Déferlante, elle a composé les prompts (ou requêtes – lire note 6) du type « femme tra­vaillant dans la tech » ou « femme d’âge mûr » pour générer les images que nous publions dans ces pages. Celles-ci mettent en évidence les biais des pla­te­formes de création d’images. « Sur la pla­te­forme Midjourney par exemple, les femmes sont par défaut blanches, jeunes, minces et cor­res­pon­dant aux canons de la beauté », explique-t-elle. Les algo­rithmes sont également biaisés du fait des mots qu’ils censurent ou des erreurs inhé­rentes à une tech­no­lo­gie encore per­fec­tible. Les résultats évoluent très vite. « Il y a quelques mois, je pouvais obtenir une image en utilisant l’expression “women mens­trua­ting” (femme menstruée). Ensuite, il fallait utiliser le mot “period” (règles) pour obtenir le même résultat.  Depuis, ce mot a été interdit. Midjourney rejette les demandes qu’il juge “indé­centes” car pouvant comporter de la nudité ou de la violence. » Ainsi, ce qui devient inté­res­sant pour la plas­ti­cienne, ce n’est pas tant les résultats de l’IA que le processus de création qu’ils révèlent. « Je m’amuse beaucoup à perturber ou contour­ner l’algorithme avec des prompts inco­hé­rents ou bizarres, cela génère des images très étranges. »

Par leur faculté à créer du texte et des images, les IA géné­ra­tives comme ChatGPT ou Stable Diffusion soulèvent des questions poli­tiques et éthiques impor­tantes : démul­ti­pli­ca­tion des fausses infor­ma­tions, explosion de la haine en ligne, etc. À l’inverse, des gens comme Elon Musk (qui a cofondé puis quitté OpenAI, créateur de ChatGPT) qua­li­fient l’IA de « woke », pré­ci­sé­ment parce que les déve­lop­peurs y ajoutent des méca­nismes d’amélioration des résultats. Qu’en pensez-vous ?

Vanessa Nurock On ne peut avoir ce débat que si on pense que l’IA est neutre. Or elle ne l’est pas : ses résultats dépendent de la vision du monde de ceux qui la construisent ou de ceux qui la financent. Quelquefois, celles et ceux qui la font sont des petites mains dans des pays en voie de déve­lop­pe­ment (Kenya ou Inde pour les États-Unis, Madagascar pour la France, par exemple), et elles doivent appliquer les résultats de certains modèles éco­no­miques qu’elles subissent elles-mêmes… Après, on peut discuter de la pos­si­bi­li­té de s’accorder sur des critères per­met­tant de décider qu’une IA biaisée est quand même bonne – ce qui est le cas, selon moi, d’une IA qui bénéficie aux plus vul­né­rables, par exemple. Par contre, si la machine contribue à instaurer ou repro­duire des rapports de domi­na­tion, c’est un problème.

Amélie Cordier Je ne suis pas tout à fait d’accord. Je pense qu’il est très louable que des ingénieur·es observent les résultats de leurs modèles d’IA et se disent : « Ça ne va pas, c’est orienté. » C’est important à la fois pour la recherche et pour la fabri­ca­tion des produits finis – certain·es déve­loppent même des outils destinés à détecter plus faci­le­ment les biais, pour permettre de « truquer » les résultats de la machine. Mais dès qu’on prend la décision de faire ça, en tant qu’entreprise ou comme ingénieur·e, on s’exprime depuis un certain point de vue. On a son modèle de société, ses biais, sa culture, et fata­le­ment, même si on essaye de rendre le modèle plus juste, on va le rendre plus juste dans une certaine direction. Ce qui importe vraiment et ce qu’on ne fait pas assez, c’est surtout de partager l’information et de cultiver une culture de l’esprit critique envers les tech­no­lo­gies que nous utilisons au quotidien.

image générée en juillet 2023 par l’algorithme Midjourney grâce à des requêtes rédigées par l’artiste Karin Crona

Prompt utilisé en anglais : « Woman having period cramps, pho­to­gra­phy » (femme ayant des douleurs mens­truelles, pho­to­gra­phie). Karin Crona : « Midjourney fonc­tionne souvent par asso­cia­tion et applique sur l’image la même couleur partout, ici le rouge du sang. »

image générée en juillet 2023 par l’algorithme Midjourney grâce à des requêtes rédigées par l’artiste Karin Crona

Prompt utilisé en anglais : « Woman having her period, pho­to­gra­phy, realism » (femme ayant ses règles, pho­to­gra­phie, réalisme). Karin Crona : « Sur Midjourney, les règles sont par­ti­cu­liè­re­ment abon­dantes ! On dirait que quelqu’un·e a jeté un seau rempli de sang au mur et que la jeune femme en a honte : tête baissée, elle a l’air triste. »

La Fondation des femmes porte plainte contre Facebook

En 2022 et en 2023, la Fondation des femmes, l’association Femmes ingé­nieures et l’ONG Global Witness ont mené une expé­rience : publier des offres d’emploi écrites de manière neutre sur Facebook et observer qui y est exposé. La raison ? 53 % des PME déclarent recruter en ligne, selon une étude RégionsJob, et 82 % des personnes en recherche d’emploi utilisent les réseaux sociaux pour trouver un nouveau poste.

Or, en France, les publi­ci­tés pour l’offre d’emploi de pilote de ligne publiée par ces asso­cia­tions ont été reçues par une popu­la­tion… à 85 % masculine. Celles pour le poste de cadre du numérique ont touché 68 % d’hommes. À l’inverse, l’offre d’emploi d’auxiliaire de pué­ri­cul­ture a été montrée dans 94 % des cas à des femmes. Les algo­rithmes et la machi­ne­rie globale de Facebook et de sa maison mère Meta sont connus pour la précision de leur ciblage. Après tout, c’est le cœur de leur modèle com­mer­cial : proposer à des marques de diffuser des publi­ci­tés qui tou­che­ront des publics de manière beaucoup plus précise que ce qu’aucun autre média n’avait permis jusque-là. Sauf qu’en France, le droit défend le principe d’un égal accès à l’emploi pour les femmes et les hommes. Les asso­cia­tions argu­mentent donc que, pour les cas des offres d’emploi, les algo­rithmes de Facebook créent une dis­cri­mi­na­tion sexiste. En effet, si vous ne recevez même pas l’information sur l’ouverture d’un poste, vous aurez peu de chance d’envisager d’y postuler, pointe la Fondation des femmes.

Autre enjeu, derrière celui de la visi­bi­li­té : les offres d’emploi testées par les asso­cia­tions sont loin de donner accès au même salaire. Pour un pilote de ligne, par exemple, le salaire moyen en début de carrière est de 2 600 euros par mois et grimpe à 8 500 euros en milieu de carrière. Côté auxi­liaire de pué­ri­cul­ture, on part de 1 600 euros par mois en moyenne pour atteindre 2 200 euros en milieu de carrière. Le 12 juin 2023, ces trois asso­cia­tions ont donc saisi la Défenseure des droits et la CNIL en France. D’autres plaintes ont été déposées en parallèle auprès des ins­ti­tu­tions aux Pays-Bas et aux États-Unis.

Doaa, vous tra­vaillez à l’Unesco sur l’éthique de l’IA. Comment cette nouvelle tech­no­lo­gie est-elle perçue à travers le monde ?

Doaa Abu-Elyounes Les pré­oc­cu­pa­tions ­sont simi­laires dans le monde entier – l’IA ne dis­cri­mine pas les femmes et les minorités uni­que­ment aux États-Unis et en Europe. En revanche, ailleurs, ces questions sont très ampli­fiées. Les modèles de recon­nais­sance du langage, ou de modé­ra­tion de contenus sur Facebook, attirent par exemple beaucoup de critiques. Ils fonc­tionnent mal en anglais, mais en réalité, si vous passez au français, à l’arabe ou au turc, les per­for­mances sont encore plus faibles. Prenez des langues moins courantes, c’est pire. Avec ChatGPT, qui est basé sur un autre modèle de langage, OpenAI est fier de proposer des réponses dans de nom­breuses langues, mais les contenus sont en réalité des tra­duc­tions de connais­sances amé­ri­caines, même si vous lui posez une question sur la France par exemple. Cela ne rend justice ni aux langues ni aux connais­sances locales. L’exploitation des données est un autre problème courant : il est très simple d’aller entraîner des algo­rithmes dans les régions où il n’existe pas de lois strictes en matière de pro­tec­tion des données, avant d’utiliser ces appli­ca­tions en Occident.

Comment faire quand une machine nous impose un contenu ? Ou quand, sur Facebook ou LinkedIn, on ne reçoit pas la même chose selon qu’on est une femme ou un homme, selon ce que la machine a compris de nous ?

Vanessa Nurock C’est le problème du passage du des­crip­tif au pres­crip­tif. Waze ou Google Maps en sont de bons exemples : leurs sug­ges­tions d’itinéraires bis ne sont pas anodines puisque si on se met tous ou toutes à les suivre, on court le risque de créer un embou­teillage et que ce nouveau trajet ne soit plus aussi rapide que celui de départ. Cela pose la question de l’utilité de l’outil : si on a un bon sens de l’orientation, peut-être qu’on peut ne pas se reposer constam­ment sur Maps, peut-être qu’on n’a pas besoin de toujours chercher à remplacer ce qui fonc­tionne déjà. Qu’est-ce qu’on perd à utiliser Waze pour s’orienter, par exemple, ou bien Tinder plutôt qu’une méthode plus classique de rencontre ?

Doaa Abu-Elyounes Pouvoir garder l’option d’utiliser ou non une tech­no­lo­gie, ou de choisir quelle tech­no­lo­gie, me paraît important, effec­ti­ve­ment. Car sinon, ce choix risque de dis­pa­raître : quand tout le monde utilise les paiements mobiles en Chine, je n’ai pas le choix du cash ; quand le serveur par défaut de mon école est Google, je n’ai pas le choix du four­nis­seur. Par ailleurs, face à l’argument : « Si ça marche, pas besoin de changer les usages déjà en place », on va vite te répondre : « Vous bloquez l’innovation ».

Vanessa Nurock Ma sug­ges­tion dans ce cas, c’est de regarder du côté d’autres cultures. Les Japonais·es, par exemple, poussent la tech­no­lo­gie très loin, en par­ti­cu­lier l’IA, mais conti­nuent à faire certaines choses comme avant, ou en tout cas à trans­mettre certaines com­pé­tences et certains savoirs. Chercher une forme d’harmonie, une société où coexistent la tech­no­lo­gie (ou l’IA) et l’humain, ce n’est pas tech­no­phobe, mais c’est penser le rapport à la tech­no­lo­gie d’une manière qui n’est peut-être pas habi­tuelle dans la société occi­den­tale ni française.

image générée en juillet 2023 par l’algorithme Midjourney grâce à des requêtes rédigées par l’artiste Karin Crona

Prompt utilisé en anglais : « Mature woman leading a healthy and active life, natural » (femme mûre menant une vie active et en bonne santé, naturelle). Karin Crona : « Dans Midjourney, la femme mûre est toujours “belle”, et si elle est active, il faut com­prendre qu’elle est musclée. J’ai mis le mot “naturelle” pour réaliser un per­son­nage simple et authen­tique, mais on dirait que c’est la robe qui l’est devenue, couverte de fleurs ! »

image générée en juillet 2023 par l’algorithme Midjourney grâce à des requêtes rédigées par l’artiste Karin Crona

Prompt utilisé en français : « Femme 60 ans, active et en bonne santé, pho­to­réa­lisme ». Karin Crona : « Je préfère écrire les prompts en anglais parce qu’en général, cela donne des images plus exactes, mais c’est inté­res­sant de tenter d’autres langues. Ce qui ne change pas, c’est que Midjourney intègre mal les femmes âgées ! Elles sont forcément “belles” et sportives, comme Jane Fonda. »

Les masculinistes et les suprémacistes à l’assaut de l’IA

L’IA peut servir toutes sortes d’idées poli­tiques et de visions du monde, y compris celles qui n’avantagent pas les femmes. En 2017, l’ingénieur Guillaume Chaslot démon­trait avec son asso­cia­tion AlgoTransparency que l’algorithme de YouTube favo­ri­sait le sen­sa­tion­nel, même fake. Comme les contenus com­plo­tistes ou racistes, sexistes, homo­phobes, etc., captent l’attention de l’auditoire, ils per­mettent à l’entreprise de diffuser plus de publicité. Résultat, ces types de discours sont plus faci­le­ment recom­man­dés par les algo­rithmes de toutes sortes de réseaux.

En 2018, si les grands médias s’inquiétaient beaucoup du fait que les deepfakes, ces fausses images et fausses vidéos fabri­quées grâce à des IA, ampli­fient la dés­in­for­ma­tion politique, une étude de l’entreprise Sensity AI démon­trait qu’entre 90 et 95 % du contenu créé consis­tait en réalité en des vidéos por­no­gra­phiques, dont 90 % étaient non consen­ties (en collant la tête de la victime sur le corps d’une actrice, par exemple). Avec la qualité des résultats obtenus par des modèles comme GPT‑3 et GPT‑4, la tendance ne peut que s’accentuer.

Ces dernières années, les tenants d’idées conser­va­trices et réac­tion­naires ont développé une maîtrise poussée des usages numé­riques et ainsi pu inonder l’espace public de leur vision du monde. Un phénomène analysé par la socio­logue franco-états-unienne Jen Schradie dans L’illusion de la démo­cra­tie numérique : Internet est-il de droite ? (EPFL Press, 2022). Avec The Propagandists’ Playbook (Yale University Press, 2022, non traduit), la socio­logue Francesca Tripodi démontre comment la com­pré­hen­sion qu’ont les élites conser­va­trices du fonc­tion­ne­ment des algo­rithmes « recherche » (sur Google, YouTube et ailleurs) leur permet d’en manipuler les résultats à leur avantage.

Deux épisodes de La fabrique du mensonge, diffusés en 2023 sur France 5, offrent des illus­tra­tions élo­quentes du pouvoir numérique de l’extrême droite mas­cu­li­niste et supré­ma­ciste : « Affaire Johnny Depp/Amber Heard – La justice à l’épreuve des réseaux sociaux », et « Affaire Lola, chronique d’une récupération ».

Elon Musk, patron de X (ancien­ne­ment Twitter), de Space X et de Tesla, Geoffrey Hinton, pionnier de l’IA et ancien de Google, Brad Smith, président de Microsoft… Dans dif­fé­rentes prises de position publiques en 2022 et 2023, tous alertent contre les risques que les IA feraient peser sur l’humanité, quand bien même ils ont œuvré à leur déve­lop­pe­ment. N’est-ce pas paradoxal ? Faut-il freiner le secteur, le réguler ?

Doaa Abu-Elyounes Sur la question de la régu­la­tion, l’Unesco a développé un cadre global en 2021 qui prend en compte autant de points de vue que possible dans le monde : la Recommandation sur l’éthique de l’IA. Ce texte a été rédigé par un groupe d’expert·es diver­si­fié, équilibré en termes de genre et d’origine géo­gra­phique. Il est très concret, sur les poli­tiques publiques en par­ti­cu­lier. Le document indique par exemple qu’il faut consacrer un budget à l’amélioration de l’inclusion des femmes dans l’intelligence arti­fi­cielle et à l’augmentation du nombre de filles dans l’enseignement des sciences, des tech­niques, de l’informatique et des mathé­ma­tiques. D’autre part, le texte est suf­fi­sam­ment flexible pour s’adapter aux chan­ge­ments constants des tech­no­lo­gies et aux besoins des dif­fé­rents pays. La prochaine étape consiste à tra­vailler sur sa mise en œuvre, au cas par cas. Mon souhait est que les pays soient tenus res­pon­sables de l’application de cette réso­lu­tion, parce qu’ils ont acti­ve­ment accepté de la mettre en œuvre.

Amélie Cordier Que les créateurs de certains modèles se disent qu’il faut prendre le temps de réfléchir, fort bien. Qu’ils demandent un moratoire de six mois sur la recherche en IA et s’en vantent sur la place publique, ça me fait grincer des dents parce qu’ils auraient les moyens d’aider à réfléchir plus vite. Si on décidait de faire une pause, tout le monde sait qu’en réalité, chacun conti­nue­ra de réfléchir dans son coin. Or, je trouve plus dangereux de faire de la recherche privée que de la recherche publique. On peut dif­fi­ci­le­ment freiner le progrès, mais on peut l’accompagner. Sur le plan de la régle­men­ta­tion, je suis effarée par l’absence totale de pré­oc­cu­pa­tion envi­ron­ne­men­tale et de débat public sur le sujet, pour le déve­lop­pe­ment logiciel en général et pour celui des grands modèles de langage en par­ti­cu­lier. Je me penche beaucoup sur les impacts de ces modèles, dont on disait jusque-là : « Attention, ce sont de très gros modèles », en termes de consom­ma­tion éner­gé­tique – avant même d’envisager qu’ils puissent être inter­ro­gés par des centaines de milliers de personnes en si peu de temps. Or, je ne suis pas sûre qu’il soit néces­saire de faire fondre trois cen­ti­mètres de banquise pour écrire des résumés auto­ma­ti­sés des matchs de Roland Garros.

Vanessa Nurock Approcher l’IA du point de vue du genre, du point de vue éco­lo­gique, c’est se poser la question de la société dans laquelle on veut vivre. Or, il n’y a quasiment pas d’initiative qui fasse dialoguer les personnes qui font la tech et celles qui réflé­chissent à la tech de manière autonome. Nous, les phi­lo­sophes, ne sommes pas du tout sollicité·es par les Gafam pour discuter avec eux. Ce que ces entre­prises font, c’est monter des comités d’éthique internes et puis en virer les gens (5) quand ceux-ci com­mencent à aborder des sujets complexes. Je pense que l’Unesco est l’un des rares endroits où l’on essaye vraiment de réfléchir, de mêler actions pratiques et théo­riques, de faire se ren­con­trer des acteurs différents. •

image générée en juillet 2023 par l’algorithme Midjourney grâce à des requêtes rédigées par l’artiste Karin Crona

Prompt utilisé en anglais « Three gene­ra­tions of women together in a group portrait » (trois géné­ra­tions de femmes dans un portrait de groupe). Karin Crona : « Ici, il est inté­res­sant de constater le biais de genre. Avec le même prompt, Midjourney est capable de générer trois géné­ra­tions d’hommes, mais quand il s’agit de femmes, il génère sys­té­ma­ti­que­ment une femme âgée et deux jeunes. »

image générée en juillet 2023 par l’algorithme Midjourney grâce à des requêtes rédigées par l’artiste Karin Crona

Prompt utilisé en anglais : « Three gene­ra­tions of men together in a group portrait » (trois géné­ra­tions d’hommes dans un portrait de groupe).

Débat mené le 31 mai 2023 à Paris, dans les bureaux de l’Unesco par Mathilde Saliou.

Mathilde Saliou Mathilde Saliou

Journaliste, elle s’intéresse à l’impact du numérique sur la société, et inver­se­ment. En 2023, elle a publié Technoféminisme. Comment le numérique aggrave les inéga­li­tés (Grasset).

 

 

1. « L’intelligence arti­fi­cielle a‑t-elle un genre ? », Vanessa Nurock, Cités, no 80, 2019.

2. En 2021, cela a entraîné la démission du gou­ver­ne­ment : plus de 20 000 familles avaient été accusées à tort de fraude aux aides sociales, au moyen d’un logiciel paramétré pour réaliser une forme de profilage ethnique.

3. Timnit Gebru, Shmargaret Shmitchell, Emily Bender et Angelina McMillan-Major, « On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? », Conference on Fairness, Accountability and Transparency, 2021.

4. Algorithme : suite de règles formelles per­met­tant de réaliser une opération. Ce qu’on appelle intel­li­gence arti­fi­cielle désigne souvent des appli­ca­tions construites à partir de modèles algorithmiques.

5. Lire par exemple Isabelle Collet, Les Oubliées du numérique, Le Passeur, 2019.

6. Prompt : « Requête », en français. Le mot désigne les commandes écrites que l’on envoie à une IA géné­ra­tive pour lui faire produire du texte ou des images. Les prompts diffèrent du code en ce qu’ils peuvent être écrits en langage naturel (celui qu’on utilise tous les jours).

Rêver : La révolte des imaginaires

Retrouvez cet article dans la revue La Déferlante n°12 Rêver, paru en novembre 2023. Consultez le sommaire.

Dans la même catégorie