Die Künstlerin Stephanie Dinkins ist Vorreiterin einer neuen Herangehensweise an künstliche Intelligenz (KI) – nicht als neutrales Werkzeug, sondern als System, das stark von den Daten geprägt ist, aus denen es lernt. Ihre Arbeit stellt die Technologiebranche vor die Herausforderung, inhärente Verzerrungen in Datensätzen anzugehen, die systemische Ungleichheiten aufrechterhalten.
Das Problem mit aktuellen KI-Systemen
Seit Jahren werden KI-Algorithmen anhand von Daten trainiert, die häufig bestehende soziale Vorurteile widerspiegeln. Dies bedeutet, dass KI Diskriminierung verstärken kann, indem sie beispielsweise farbige Menschen falsch identifiziert oder härtere Strafempfehlungen in der Strafjustiz gibt. Dinkins‘ Arbeit deckt die in diesen Datensätzen verankerte „Gewalt“ auf: die begrenzten Rollen, die marginalisierten Gruppen in den Medien zugewiesen werden, die historischen Vorurteile innerhalb der Rechtssysteme und die allgemeine mangelnde Darstellung in grundlegenden KI-Trainingsmaterialien.
Der Wendepunkt: Treffen mit Bina48
Dinkins‘ Reise begann mit einer Begegnung mit Bina48, einem fortschrittlichen sozialen Roboter, der einer schwarzen Frau nachempfunden ist. Sie stellte schnell fest, dass der KI das differenzierte Verständnis der Rasse fehlte, das eine reale Person hätte, was eine kritische Frage aufwirft: Wenn selbst gut gemeinte Entwickler es versäumen, Voreingenommenheit anzugehen, was passiert, wenn sich niemand darum kümmert?
Diese Erkenntnis führte sie zu einem Kernprojekt namens „Not the Only One“, das auf mündlichen Überlieferungen ihrer Familie basiert. Sie fand es nahezu unmöglich, vorhandene Daten zu finden, die „liebevoll genug“ waren, um die Geschichten ihrer Familie zu stützen, und war daher gezwungen, einen eigenen Datensatz zu erstellen. Das Ergebnis war unvollkommen, aber ethisch einwandfrei: eine skurrile KI, die manchmal in unzusammenhängenden Worten spricht, anstatt historische Grausamkeiten fortzusetzen.
Die Lösung: Community-gesteuerte Daten
Dinkins plädiert dafür, KI-Systeme mit Daten aus unterrepräsentierten Gemeinschaften zu „beschenken“. Ihre App „The Stories We Tell Our Machines“ ermöglicht es Menschen, persönliche Erzählungen beizusteuern und sorgt so dafür, dass die KI von innen heraus lernt. Sie betont, dass die Ausbeutung von Daten zwar real ist, die Alternative – die KI die Definition von Gemeinschaften auf der Grundlage voreingenommener Quellen zu ermöglichen – jedoch noch schlimmer ist.
Das ultimative Ziel besteht darin, weit verbreitete Datensätze zu erstellen, die KI-Systeme verfeinern können, ohne ihnen den kulturellen Kontext zu entziehen. Dinkins stellt sich eine Zukunft vor, in der benachteiligte Menschen KI-Tools nutzen können, um mit etablierten Branchen zu konkurrieren, beispielsweise indem sie unabhängig hochwertige Filme erstellen.
„Was wir in der Welt hören, ist: ‚Nein, sie nehmen unsere Daten. Wir werden ausgebeutet‘, was wir auch tun. Aber wir wissen auch, dass sie wahrscheinlich Definitionen verwenden, die nicht von den zu definierenden Gemeinschaften stammen, wenn wir diese Systeme nicht fördern, um uns besser kennenzulernen.“
Dinkins‘ Arbeit ist ein Aufruf an KI-Entwickler und -Forscher, der ethischen Datenbeschaffung, dem Engagement der Gemeinschaft und der kulturellen Sensibilität Priorität einzuräumen. Es ist eine Erinnerung daran, dass es bei KI nicht nur um Algorithmen geht; Es geht um Macht, Verantwortung und die Geschichten, die wir unseren Maschinen erzählen.























