L’artista Stephanie Dinkins sta aprendo la strada a un nuovo modo di avvicinarsi all’intelligenza artificiale (AI), non come uno strumento neutrale, ma come un sistema profondamente modellato dai dati da cui apprende. Il suo lavoro sfida l’industria tecnologica ad affrontare i pregiudizi intrinseci nei set di dati che perpetuano le disuguaglianze sistemiche.

Il problema con gli attuali sistemi di intelligenza artificiale

Per anni, gli algoritmi di intelligenza artificiale sono stati addestrati su dati che spesso riflettono i pregiudizi sociali esistenti. Ciò significa che l’intelligenza artificiale può rafforzare la discriminazione, ad esempio, identificando erroneamente le persone di colore o fornendo raccomandazioni di condanna più severe nella giustizia penale. Il lavoro di Dinkins mette in luce la “violenza” incorporata in questi set di dati: i ruoli limitati assegnati ai gruppi emarginati nei media, i pregiudizi storici all’interno dei sistemi legali e la generale mancanza di rappresentanza nei materiali di formazione fondamentali sull’IA.

Il punto di svolta: l’incontro con Bina48

Il viaggio di Dinkins è iniziato con l’incontro con Bina48, un robot sociale avanzato modellato su una donna nera. Scoprì rapidamente che l’intelligenza artificiale non aveva la comprensione sfumata della razza che avrebbe una persona reale, sollevando una domanda critica: se anche gli sviluppatori ben intenzionati non riescono ad affrontare i pregiudizi, cosa succede quando a nessuno importa?

Questa consapevolezza l’ha portata a un progetto fondamentale chiamato “Not the Only One”, basato sulle storie orali della sua famiglia. Trovava quasi impossibile trovare dati esistenti che sembrassero “abbastanza amorevoli” da supportare le storie della sua famiglia, costringendola a creare il proprio set di dati. Il risultato è stato imperfetto ma eticamente valido: un’intelligenza artificiale traballante che a volte parla in modo non sequiturs piuttosto che perpetuare la crudeltà storica.

La soluzione: dati guidati dalla comunità

Dinkins sostiene la necessità di “regalare” ai sistemi di intelligenza artificiale dati provenienti da comunità sottorappresentate. La sua app, “The Stories We Tell Our Machines”, consente alle persone di contribuire con narrazioni personali, garantendo che l’intelligenza artificiale impari dall’interno. Sottolinea che, sebbene lo sfruttamento dei dati sia reale, l’alternativa – lasciare che l’intelligenza artificiale definisca le comunità sulla base di fonti distorte – è peggiore.

L’obiettivo finale è creare set di dati ampiamente distribuibili in grado di mettere a punto i sistemi di intelligenza artificiale senza privarli del contesto culturale. Dinkins immagina un futuro in cui gli individui svantaggiati possano sfruttare gli strumenti di intelligenza artificiale per competere con le industrie consolidate, ad esempio creando film di alta qualità in modo indipendente.

“Quello che sentiamo nel mondo è: ‘No, stanno prendendo i nostri dati. Siamo sfruttati’, e in effetti lo siamo. Ma sappiamo anche che se non coltiviamo questi sistemi per conoscerci meglio, probabilmente useranno definizioni che non provengono dalle comunità in fase di definizione.”

Il lavoro di Dinkins è un appello rivolto agli sviluppatori e ai ricercatori di intelligenza artificiale a dare priorità all’approvvigionamento etico dei dati, al coinvolgimento della comunità e alla sensibilità culturale. Ci ricorda che l’intelligenza artificiale non riguarda solo gli algoritmi; riguarda il potere, la responsabilità e le storie che scegliamo di raccontare alle nostre macchine.