Художница Стефани Динкс открывает новый путь в работе с искусственным интеллектом (ИИ) — не как с нейтральным инструментом, а как с системой, глубоко сформированной данными, на которых она учится. Её работа бросает вызов технологической индустрии, требуя решения заложенных в наборах данных предвзятостей, которые увековечивают системное неравенство.

Проблема существующих ИИ-систем

На протяжении многих лет ИИ-алгоритмы обучались на данных, которые часто отражают существующие социальные предубеждения. Это означает, что ИИ может усиливать дискриминацию, например, неправильно идентифицируя людей с другим цветом кожи или давая более суровые рекомендации по вынесению приговоров в уголовном правосудии. Работа Динкс обнажает «насилие», заложенное в этих наборах данных: ограниченные роли, отводимые маргинализированным группам в медиа, исторические предубеждения в правовых системах и общее отсутствие представленности в базовых материалах для обучения ИИ.

Переломный момент: встреча с Bina48

Путь Динкс начался со встречи с Bina48 — продвинутым социальным роботом, смоделированным по образу темнокожей женщины. Она быстро обнаружила, что у ИИ отсутствует тонкое понимание расы, которым обладает реальный человек, что поставило критический вопрос: если даже добронамеренные разработчики не устраняют предвзятость, что произойдет, когда никому нет дела?

Это осознание привело её к основному проекту под названием «Not the Only One», основанному на устных историях из её семьи. Она обнаружила, что почти невозможно найти существующие данные, которые были бы «достаточно любящими», чтобы поддержать истории её семьи, что вынудило её создать собственный набор данных. Результат был несовершенным, но этически обоснованным: странным ИИ, который иногда говорит бессвязно, вместо того чтобы увековечивать историческую жестокость.

Решение: управляемые сообществом данные

Динкс выступает за «дарение» ИИ-системам данных из недостаточно представленных сообществ. Её приложение «The Stories We Tell Our Machines» позволяет людям вносить личные истории, обеспечивая обучение ИИ изнутри. Она подчеркивает, что хотя эксплуатация данных реальна, альтернатива — позволить ИИ определять сообщества на основе предвзятых источников — ещё хуже.

Конечная цель — создать широко распространяемые наборы данных, которые могут точно настраивать ИИ-системы, не лишая их культурного контекста. Динкс представляет будущее, в котором неблагополучные люди могут использовать ИИ-инструменты для конкуренции с устоявшимися отраслями, например, для независимого создания высококачественных фильмов.

«То, что мы слышим в мире, — это: «Нет, они крадут наши данные. Нас эксплуатируют», и это правда. Но мы также знаем, что если мы не будем обучать эти системы знать нас лучше, они, скорее всего, будут использовать определения, которые не пришли от определяемых сообществ».

Работа Динкс — это призыв к разработчикам и исследователям ИИ уделять приоритетное внимание этичному сбору данных, взаимодействию с сообществами и культурной чуткости. Это напоминание о том, что ИИ — это не просто алгоритмы; это власть, ответственность и истории, которые мы выбираем рассказывать нашим машинам.