IA, quelle réalité reflètes-tu?

ENTRETIEN · Les 13 et 14 février derniers se tenait à l’EPFL la troisième édition du festival des Assises, qui proposait des conférences sur les dynamiques de pouvoirs et les biais genrés de l’intelligence artificielle (IA). Dans ce cadre, L’auditoire a rencontré Olivier Glassey, sociologue spécialisé dans les usages du numérique, pour mieux comprendre ces enjeux liés à une technologie en plein essor.

Idées de recettes de cuisine, recommandations de voyage, écriture d’un faire-part de condoléances ou message à quelqu’un sur un site de rencontre, l’intelligence artificielle est aujourd’hui présente dans presque tous les domaines du quotidien. Cependant, de récentes études démontrent que l’IA a tendance à reproduire les préjugés (raciaux, genrés, etc.) déjà présents dans notre société. Comment se fait-il que cette représentation de biais existe? A quelles reproductions de pouvoir participe-t-elle? Quels sont les risques pour la recherche?

Jamais deux biais sans trois

À la question «quels biais peut-on trouver dans l’IA?», Olivier Glassey répond: «J’aurais presque envie de dire: quels sont les biais qu’on ne retrouve pas dans l’IA tellement il y en a!» La phrase en dit long. Mais comment ces biais se retrouvent-ils partie intégrante de l’IA? Nous pouvons identifier deux mécanismes principaux. Le premier concerne les données d’apprentissage de l’IA, qui peuvent provenir d’Internet, de livres, de Wikipédia, etc. Chacun de ces univers informationnels s’avère être pétri par les biais issus de nos sociétés, que les IA reproduisent en apprenant.

Fournir des bases de données aux IA avec le moins de biais possible relève aujourd’hui d’un véritable enjeu de recherche, d’autant plus que ces biais sont de plus en plus souvent invisibles à première vue.

Un deuxième processus de création de biais est l’étape de «socialisation» de l’IA, communément appelée alignement. Cette étape permet aux données «brut de décoffrage» des IA d’être pertinentes, à la fois en termes de résultats et de normes sociétales. «Il y a tout un travail par lequel on essaie de “socialiser” l’IA, de lui dire ce qu’elle a le droit (ou pas) de dire. Des sommes importantes sont dépensées pour cela, et des biais peuvent apparaître et disparaître à ce moment-là aussi», explique le sociologue.

(En)jeux de pouvoir

Les IA génératives sont donc façonnées par les représentations de leurs données d’entraînement. Elles reproduisent dès lors le pouvoir des personnes qui leur ont fourni ces données. «Tout le monde n’a pas la même capacité à produire des données», met en garde Olivier Glassey. «Pour vous donner un exemple, il y a des langues pour lesquelles il n’existe presque aucune trace numérique. Ces cultures orales partagées parfois par des millions de personnes se trouvent invisibilisées dans les réponses de l’IA.» Un second enjeu de pouvoir est de savoir qui possède les IA et si elles sont ouvertes ou non. Il existe aujourd’hui un véritable défi autour de la traçabilité de la production de contenu d’une IA. «L’IA vous donne une réponse, mais in fine vous ne savez pas forcément exactement comment elle a été entraînée.

On voit apparaître aujourd’hui une myriade d’IA, qui sont adaptées à des visions du monde très différentes, en termes de représentations, de valeurs morales, de valeurs spirituelles, de cultures», précise le sociologue.

Un troisième enjeu de pouvoir est finalement que, lorsque nous utilisons une IA, nous contribuons à la renforcer. Plus on utilise une IA, plus on lui communique des informations, plus nous donnons du pouvoir à ceux·celles qui contrôlent cette IA. Et ces données dans nos questions, nos échanges, nos corrections de formulations pourront être utilisées pour la prochaine génération d’IA. «Il est possible de sélectionner son modèle d’IA selon certains critères par rapport à l’utilisation de nos données, ou alors sur le fait que nos données vont peut-être servir à des apprentissages que nous considérons davantage responsables», ajoute Olivier Glassey.

De l’ignorance des réponses ignorées

«Dans le monde de la recherche, il existe un problème qu’on pourrait appeler la “datafication” du monde, ou le monde transformé en données. Est-ce qu’une technologie pourra un jour embarquer la complexité du monde?» questionne le sociologue. Mais à ses yeux, le plus grand enjeu de l’utilisation de l’IA dans la recherche réside dans la peine d’une IA à évaluer ses propres erreurs. «Elle va toujours nous donner des réponses, mais on ne sait pas quelle en est la qualité si on ne la vérifie pas», explique Olivier Glassey, qui ajoute: «et surtout, on ignore absolument toutes les réponses qu’elle a ignorées, et pour quelles raisons elle les a ignorées. Quels choix l’IA a fait à notre place? Quand on est chercheur·euse, on se doit d’explorer plusieurs hypothèses. Il y a peut-être un risque de perte à la fois d’autonomie de notre agentivité, mais aussi peut-être, à termes, une perte de capacité de curiosité.» Comment pouvons-nous ainsi éviter de nous faire enfermer dans les univers de pertinence que calcule l’IA à notre place, qui plus est des univers potentiellement biaisés? Finalement, alors que les biais des IA peuvent être invisibilisés derrière une apparente objectivité technologique, cachés derrière le choix de critères d’un alignement, ou noyés dans la complexité de paramètres utilisés, il conviendra à l’utilisateur·rice d’être conscient·e de l’existence de cette problématique, aux concepteur·ices d’être le plus explicites sur la manière dont a été entraînée et fonctionne leur IA, et enfin, aux États de prévenir toutes dérives potentielles. De tels garde-fous éthiques, techniques et légaux devraient permettre d’éviter le mythe du créateur dépassé par sa créature.

Flavia Mizel

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.