Skip to main content

Le point faible des IA est leur intelligence « artificielle ». Comme nous, les IA ont besoin d’apprendre, de tester et de s’entraîner dans un ou plusieurs contextes donnés pour pouvoir exprimer tout leur potentiel. Assez similaires à l’espèce humaine au final, les IA, en fonction de leur éducation, ne sont pas infaillibles aux idées reçues, aux stéréotypes et aux préjugés sur les femmes, la communauté LGBTQIA+ ou à être discriminante à l’égard de plusieurs minorités.

Les systèmes d’intelligence artificielle ne sont pas naturellement racistes, sexistes ou homophobes, mais ces orientations peuvent s’expliquer en raison de plusieurs facteurs, principalement liés aux données sur lesquelles les IA sont entraînées et à la manière dont elles sont conçues. Les IA ne sont pas grand chose sans leurs précieuses données et algorithmes qui les composent. C’est un peu l’équivalent de leur cerveau et de leur ADN.

“Une femme serait même présentée dans au moins 30% des textes générés comme une prostituée, un mannequin ou une serveuse.” — Unesco

Biais dans les données d’entraînement.

La qualité des données utilisées pour leurs apprentissages conditionne les résultats futurs. Et aujourd’hui les données utilisées en majorité pour faire grandir les IA, sont malheureusement assez représentative du clivage actuel de notre monde où les minorités sont souvent sous représentées.

Les modèles d’IA sont entraînés sur de grandes quantités de données textuelles, visuelles ou autres. Si ces données contiennent des biais racistes, sexistes ou homophobes présents dans la société, l’IA peut apprendre et reproduire ces biais.

Par exemple, si une IA de reconnaissance faciale est principalement entraînée sur des images de personnes blanches, elle pourrait avoir des performances moindres sur les visages de personnes d’autres groupes ethniques. Ou bien encore, si un modèle de langage est entraîné sur des textes où les hommes sont souvent décrits dans des rôles de leader et les femmes dans des rôles de femmes au foyer, ces stéréotypes peuvent perpétuer. De même avec l’homophobie, si les données d’entraînement incluent des textes homophobes ou marginalisants pour ces communautés, l’IA pourrait reproduire ces attitudes dans ses réponses ou actions.

Biais dans la conception et l’implémentation.

Outre la qualité et la diversité des données utilisées pour l’apprentissage des IA, la manière dont elles sont conçues peut également influencer ces biais. Les concepteurs d’IA peuvent, consciemment ou non, introduire des biais dans les modèles qu’ils développent. Cela peut être dû à un manque de diversité dans les équipes de développement ou à des hypothèses implicites sur les utilisateurs cibles. Des équipes souvent constituées d’hommes ou seulement à peine 22% de femmes travaillent sur des projets IA a l’échelle mondial, selon les chiffres du forum économique mondial. L’éducation, la culture, les à-priori, les croyances, etc. de chaque concepteur peuvent se retrouver dans l’ADN de l’IA est donc jouer un rôle important dans l’amplification des stéréotypes racistes, sexistes ou homophobes.

C’est le cas, par exemple, des algorithmes de recommandation qui privilégient certains groupes d’utilisateurs par rapport à d’autres. Ou encore, des systèmes d’évaluation de CV qui favorisent certains profils en fonction de critères biaisés.

Biais dans l’utilisation et l’interprétation.

Même si un modèle d’IA est bien conçu et entraîné sur des données équilibrées, il peut être utilisé de manière biaisée. Les utilisateurs peuvent interpréter les résultats de l’IA de manière à renforcer leurs propres préjugés. Comme par exemple l’utilisation des résultats d’un système de notation automatique pour justifier des décisions discriminatoires ou bien encore l’interprétation des prédictions d’un modèle de manière à confirmer des stéréotypes existants.

D’où l’importance de rendre les modèles d’intelligences artificielles plus éthiques.

Construire des intelligences artificielles plus éthiques.

De nombreux chercheurs et entreprises travaillent activement pour identifier et atténuer les biais dans les systèmes d’IA. Une ouverture plus large sur le monde est nécessaire avec l’intégration de jeux de données variées, mais aussi de tester, et d’ouvrir les résultats à des feed-back et pour permettre des ajustements continus. Intégrer des experts de la diversité permettront de donner au IA une vision plus humaniste et donc des résultats plus adaptés à chaque situation et à chaque profil d’utilisateur.

Ainsi, pour que cela soit une réussite il est cruciale de définir des politiques de développement d’IA éthique en passant par :

  • L’intégration d’une diversité dans les données d’entraînement afin d’assurer que les ensembles de données utilisés pour l’entraînement sont représentatifs de différentes populations y compris les minorités.
  • De réaliser régulièrement des audits de biais pour évaluer les modèles, détecter et corriger ces biais.
  • Recruter des équipes de développement aux profils et origines variés afin de promouvoir une certaine mixité dans les équipes qui conçoivent et testent les systèmes d’IA.
  • S’aligner autour de valeurs de transparence et de responsabilité pour expliquer comment et pourquoi les modèles d’IA prennent des décisions.

Les systèmes d’IA peuvent manifester des biais racistes, sexistes et homophobes, principalement en raison des données et des hypothèses sous-jacentes utilisées pour les entraîner et les concevoir. Cependant, ces biais ne sont pas inévitables, et des efforts significatifs sont en cours pour les identifier et les réduire afin de créer des systèmes plus équitables et inclusifs. Les IA ne sont finalement que le reflet de notre monde et le combat qui doit être mené dans ce monde virtuel et le même que celui dans le monde réel. En œuvrant au quotidien pour élever la société a un niveau plus altruiste, plus diversifié, plus mixte, ça se répercutera intrinsèquement sur les projets numériques de demain.

Une opération déjà menée par l’Unesco qui partage des recommandations pour développer des IA plus éthiques ou l’humain occupe une place centrale.

Ces recommandations s’articulent autour de 4 valeurs fondamentales :

  • Dans le respect des droits de l’homme et de la dignité humaine
  • Dans le but de vivre dans des sociétés pacifiques, justes et interdépendantes
  • D’assurer la diversité et l’inclusion
  • De préserver un environnement et des écosystèmes qui prospèrent

Des recommandations qui n’ont rien d’obligatoire, mais qui je l’espère permettra de guider les géants de la Tech vers le développement de systèmes d’IA fonctionnant pour le bien de l’humanité, des individus, des sociétés et de l’environnement.

Crédits : Photo de Shingi Rice sur Unsplash

©2024 • Nicolas Matrat