Kunstenaar Stephanie Dinkins pioniert met een nieuwe manier om kunstmatige intelligentie (AI) te benaderen – niet als een neutraal hulpmiddel, maar als een systeem dat diepgaand wordt gevormd door de gegevens waarvan het leert. Haar werk daagt de technologie-industrie uit om inherente vooroordelen in datasets aan te pakken die systemische ongelijkheid in stand houden.

Het probleem met de huidige AI-systemen

Jarenlang zijn AI-algoritmen getraind op gegevens die vaak bestaande sociale vooroordelen weerspiegelen. Dit betekent dat AI discriminatie kan versterken, bijvoorbeeld door gekleurde mensen verkeerd te identificeren of door zwaardere strafaanbevelingen te geven in het strafrecht. Het werk van Dinkins legt het ‘geweld’ bloot dat in deze datasets is ingebed: de beperkte rol die aan gemarginaliseerde groepen in de media wordt toegekend, de historische vooroordelen binnen rechtssystemen en het algemene gebrek aan vertegenwoordiging in fundamenteel AI-trainingsmateriaal.

Het keerpunt: ontmoeting met Bina48

De reis van Dinkins begon met een ontmoeting met Bina48, een geavanceerde sociale robot gemodelleerd naar een zwarte vrouw. Ze ontdekte al snel dat de AI het genuanceerde begrip van ras ontbeerde dat een echt persoon zou hebben, wat een kritische vraag opriep: als zelfs goedbedoelende ontwikkelaars er niet in slagen om vooroordelen aan te pakken, wat gebeurt er dan als het niemand iets kan schelen?

Dit besef leidde haar naar een kernproject genaamd ‘Not the Only One’, gebaseerd op mondelinge geschiedenissen van haar familie. Ze vond het bijna onmogelijk om bestaande gegevens te vinden die ‘liefdevol genoeg’ leken om de verhalen van haar familie te ondersteunen, waardoor ze gedwongen werd haar eigen dataset te creëren. Het resultaat was onvolmaakt maar ethisch verantwoord: een wankele AI die soms non-sequiturs spreekt in plaats van historische wreedheid in stand te houden.

De oplossing: gemeenschapsgestuurde gegevens

Dinkins pleit ervoor om AI-systemen te ‘schenken’ met gegevens van ondervertegenwoordigde gemeenschappen. Met haar app, ‘The Stories We Tell Our Machines’, kunnen mensen persoonlijke verhalen bijdragen, waardoor AI van binnenuit leert. Ze benadrukt dat hoewel data-exploitatie reëel is, het alternatief – AI gemeenschappen laten definiëren op basis van bevooroordeelde bronnen – erger is.

Het uiteindelijke doel is het creëren van breed verspreidbare datasets die AI-systemen kunnen verfijnen zonder ze van de culturele context te ontdoen. Dinkins voorziet een toekomst waarin kansarme individuen AI-tools kunnen gebruiken om te concurreren met gevestigde industrieën, zoals het zelfstandig maken van films van hoge kwaliteit.

“Wat we in de wereld horen is: ‘Nee, ze nemen onze gegevens af. We worden uitgebuit’, wat ook het geval is. Maar we weten ook dat als we deze systemen niet koesteren om ons beter te leren kennen, ze waarschijnlijk definities gebruiken die niet afkomstig zijn van de gemeenschappen die worden gedefinieerd. ”

Het werk van Dinkins is een oproep aan AI-ontwikkelaars en onderzoekers om prioriteit te geven aan ethische datasourcing, betrokkenheid van de gemeenschap en culturele gevoeligheid. Het herinnert ons eraan dat AI niet alleen over algoritmen gaat; het gaat over macht, verantwoordelijkheid en de verhalen die we onze machines willen vertellen.