Artystka Stephanie Dinks wyznacza nowe możliwości w pracy ze sztuczną inteligencją (AI) – nie jako neutralnym narzędziem, ale jako systemem głęboko ukształtowanym przez dane, z których się uczy. Jej praca rzuca wyzwanie branży technologicznej, aby zajęła się nieodłącznymi błędami w zbiorach danych, które utrwalają nierówności systemowe.

Problem z istniejącymi systemami AI

Przez lata algorytmy sztucznej inteligencji były szkolone na danych, które często odzwierciedlają istniejące uprzedzenia społeczne. Oznacza to, że sztuczna inteligencja może zwiększyć dyskryminację, na przykład poprzez błędną identyfikację osób o innym kolorze skóry lub wydawanie surowszych zaleceń w sprawach karnych. Praca Dinksa obnaża „przemoc” nieodłącznie związaną z tymi zbiorami danych: ograniczone role przypisywane grupom marginalizowanym w mediach, historyczne uprzedzenia w systemach prawnych oraz ogólny brak reprezentacji w podstawowych materiałach szkoleniowych dotyczących sztucznej inteligencji.

Punkt zwrotny: spotkanie z Biną48

Podróż Dinx rozpoczęła się od spotkania z Biną48, zaawansowanym robotem społecznym wzorowanym na czarnej kobiecie. Szybko odkryła, że ​​sztucznej inteligencji brakowało szczegółowego zrozumienia rasy, jakie ma prawdziwa osoba, zadając kluczowe pytanie: jeśli nawet programiści mający dobre intencje nie wyeliminują uprzedzeń, co się stanie, gdy nikogo to nie obchodzi?

Ta świadomość doprowadziła ją do dużego projektu o nazwie „Nie jedyny”, opartego na ustnych historiach jej rodziny. Stwierdziła, że ​​prawie niemożliwe jest znalezienie istniejących danych, które byłyby „wystarczająco kochające”, aby wesprzeć historie jej rodziny, co zmusiło ją do stworzenia własnego zbioru danych. Rezultat był niedoskonały, ale zdrowy pod względem etycznym: dziwna sztuczna inteligencja, która czasami przemawia niespójnie, zamiast utrwalać historyczne okrucieństwo.

Rozwiązanie: dane społecznościowe

Dinks opowiada się za „obdarowywaniem” systemów sztucznej inteligencji danymi pochodzącymi od niedostatecznie reprezentowanych społeczności. Jej aplikacja, Historie, które opowiadamy naszym maszynom, umożliwia ludziom dzielenie się osobistymi historiami, zapewniając szkolenie w zakresie sztucznej inteligencji od wewnątrz. Zwraca uwagę, że chociaż wykorzystywanie danych jest realne, alternatywa – pozwolenie sztucznej inteligencji na definiowanie społeczności w oparciu o stronnicze źródła – jest jeszcze gorsza.

Ostatecznym celem jest utworzenie szeroko udostępnianych zbiorów danych, które pozwolą na dostrojenie systemów sztucznej inteligencji bez pozbawiania ich kontekstu kulturowego. Dinks przewiduje przyszłość, w której osoby znajdujące się w niekorzystnej sytuacji będą mogły wykorzystywać narzędzia sztucznej inteligencji do konkurowania z uznanymi branżami, takimi jak niezależna produkcja wysokiej jakości filmów.

„Na świecie słyszymy: „Nie, oni kradną nasze dane. Jesteśmy wykorzystywani” i to prawda. Ale wiemy też, że jeśli nie przeszkolimy tych systemów, aby lepiej nas znały, prawdopodobnie będą używać definicji, które nie pochodzą od definiowanych społeczności”.

Praca Dinksa wzywa twórców i badaczy sztucznej inteligencji do nadania priorytetu gromadzeniu danych etycznych, zaangażowaniu społeczności i wrażliwości kulturowej. Przypomina to, że sztuczna inteligencja to nie tylko algorytmy; chodzi o władzę, odpowiedzialność i historie, które opowiadamy naszym maszynom.