A artista Stephanie Dinkins é pioneira numa nova forma de abordar a inteligência artificial (IA) — não como uma ferramenta neutra, mas como um sistema profundamente moldado pelos dados com os quais aprende. O seu trabalho desafia a indústria tecnológica a abordar os preconceitos inerentes aos conjuntos de dados que perpetuam as desigualdades sistémicas.
O problema com os atuais sistemas de IA
Durante anos, os algoritmos de IA foram treinados com base em dados que muitas vezes refletem preconceitos sociais existentes. Isto significa que a IA pode reforçar a discriminação, por exemplo, identificando erroneamente pessoas de cor ou fornecendo recomendações de sentenças mais duras na justiça criminal. O trabalho de Dinkins expõe a “violência” incorporada nestes conjuntos de dados: os papéis limitados atribuídos a grupos marginalizados nos meios de comunicação social, os preconceitos históricos nos sistemas jurídicos e a falta geral de representação nos materiais fundamentais de formação em IA.
O ponto de viragem: Conhecendo Bina48
A jornada de Dinkins começou com um encontro com Bina48, um robô social avançado inspirado em uma mulher negra. Ela rapidamente descobriu que faltava à IA a compreensão diferenciada da raça que uma pessoa real teria, levantando uma questão crítica: se mesmo os desenvolvedores bem-intencionados não conseguem lidar com o preconceito, o que acontece quando ninguém se importa?
Essa constatação a levou a um projeto central chamado “Not the Only One”, baseado em histórias orais de sua família. Ela achou quase impossível encontrar dados existentes que parecessem “amorosos o suficiente” para apoiar as histórias de sua família, forçando-a a criar seu próprio conjunto de dados. O resultado foi imperfeito, mas eticamente correto: uma IA instável que às vezes fala sem sequências, em vez de perpetuar a crueldade histórica.
A solução: dados orientados pela comunidade
Dinkins defende “presentear” sistemas de IA com dados de comunidades sub-representadas. Seu aplicativo, “The Stories We Tell Our Machines”, permite que as pessoas contribuam com narrativas pessoais, garantindo que a IA aprenda de dentro para fora. Ela sublinha que, embora a exploração de dados seja real, a alternativa – deixar a IA definir comunidades com base em fontes tendenciosas – é pior.
O objetivo final é criar conjuntos de dados amplamente distribuíveis que possam ajustar os sistemas de IA sem privá-los do contexto cultural. Dinkins prevê um futuro onde indivíduos desfavorecidos possam aproveitar ferramentas de IA para competir com indústrias estabelecidas, como a criação independente de filmes de alta qualidade.
“O que ouvimos no mundo é: ‘Não, eles estão pegando nossos dados. Estamos sendo explorados’, e estamos. Mas também sabemos que, se não nutrirmos esses sistemas para nos conhecerem melhor, eles provavelmente usarão definições que não vieram das comunidades que estão sendo definidas.”
O trabalho de Dinkins é um apelo aos desenvolvedores e pesquisadores de IA para que priorizem a fonte ética de dados, o envolvimento da comunidade e a sensibilidade cultural. É um lembrete de que a IA não envolve apenas algoritmos; trata-se de poder, responsabilidade e das histórias que escolhemos contar às nossas máquinas.























