L’artiste Stephanie Dinkins est la pionnière d’une nouvelle façon d’aborder l’intelligence artificielle (IA) — non pas comme un outil neutre, mais comme un système profondément façonné par les données dont il apprend. Son travail met l’industrie technologique au défi de s’attaquer aux préjugés inhérents aux ensembles de données qui perpétuent les inégalités systémiques.

Le problème avec les systèmes d’IA actuels

Depuis des années, les algorithmes d’IA sont formés sur des données qui reflètent souvent les préjugés sociaux existants. Cela signifie que l’IA peut renforcer la discrimination, par exemple en identifiant mal les personnes de couleur ou en proposant des recommandations de peines plus sévères dans le cadre de la justice pénale. Le travail de Dinkins expose la « violence » inhérente à ces ensembles de données : les rôles limités attribués aux groupes marginalisés dans les médias, les préjugés historiques au sein des systèmes juridiques et le manque général de représentation dans les supports de formation fondamentaux sur l’IA.

Le tournant : la rencontre avec Bina48

Le voyage de Dinkins a commencé par une rencontre avec Bina48, un robot social avancé inspiré d’une femme noire. Elle a rapidement découvert que l’IA n’avait pas la compréhension nuancée de la race qu’aurait une personne réelle, soulevant une question cruciale : si même des développeurs bien intentionnés ne parviennent pas à lutter contre les préjugés, que se passe-t-il lorsque personne ne s’en soucie ?

Cette prise de conscience l’a conduite à un projet principal intitulé “Not the Only One”, basé sur les histoires orales de sa famille. Il lui était presque impossible de trouver des données existantes qui semblaient « suffisamment aimantes » pour étayer les histoires de sa famille, ce qui l’a obligée à créer son propre ensemble de données. Le résultat était imparfait mais éthiquement solide : une IA bancale qui parle parfois de manière non-séquentielle plutôt que de perpétuer la cruauté historique.

La solution : des données pilotées par la communauté

Dinkins préconise de « doter » les systèmes d’IA de données provenant de communautés sous-représentées. Son application, « Les histoires que nous racontons à nos machines », permet aux utilisateurs de contribuer à des récits personnels, garantissant ainsi que l’IA apprend de l’intérieur. Elle souligne que même si l’exploitation des données est réelle, l’alternative – laisser l’IA définir des communautés sur la base de sources biaisées – est pire.

L’objectif ultime est de créer des ensembles de données largement distribuables capables d’affiner les systèmes d’IA sans les retirer de leur contexte culturel. Dinkins envisage un avenir dans lequel les individus défavorisés pourront tirer parti des outils d’IA pour rivaliser avec les industries établies, comme la création indépendante de films de haute qualité.

“Ce que nous entendons dans le monde, c’est : “Non, ils prennent nos données. Nous sommes exploités”, ce qui est le cas. Mais nous savons aussi que si nous n’encourageons pas ces systèmes à mieux nous connaître, ils utiliseront probablement des définitions qui ne proviennent pas des communautés définies.”

Le travail de Dinkins est un appel aux développeurs et aux chercheurs en IA à donner la priorité à l’approvisionnement éthique en données, à l’engagement communautaire et à la sensibilité culturelle. C’est un rappel que l’IA n’est pas seulement une question d’algorithmes ; il s’agit de pouvoir, de responsabilité et des histoires que nous choisissons de raconter à nos machines.