La artista Stephanie Dinkins es pionera en una nueva forma de abordar la inteligencia artificial (IA), no como una herramienta neutral, sino como un sistema profundamente moldeado por los datos de los que aprende. Su trabajo desafía a la industria tecnológica a abordar los sesgos inherentes en los conjuntos de datos que perpetúan las desigualdades sistémicas.

El problema con los sistemas de IA actuales

Durante años, los algoritmos de IA se han entrenado con datos que a menudo reflejan prejuicios sociales existentes. Esto significa que la IA puede reforzar la discriminación, por ejemplo, identificando erróneamente a las personas de color o proporcionando recomendaciones de sentencias más severas en la justicia penal. El trabajo de Dinkins expone la “violencia” incorporada en estos conjuntos de datos: los roles limitados asignados a los grupos marginados en los medios, los sesgos históricos dentro de los sistemas legales y la falta general de representación en los materiales fundamentales de capacitación en IA.

El punto de inflexión: el encuentro con Bina48

El viaje de Dinkins comenzó con un encuentro con Bina48, un robot social avanzado inspirado en una mujer negra. Rápidamente descubrió que la IA carecía de la comprensión matizada de la raza que tendría una persona real, lo que plantea una pregunta crítica: si incluso los desarrolladores bien intencionados no logran abordar los prejuicios, ¿qué sucede cuando a nadie le importa?

Esta comprensión la llevó a un proyecto central llamado “No es el único”, basado en historias orales de su familia. Le resultó casi imposible encontrar datos existentes que fueran “lo suficientemente amorosos” como para respaldar las historias de su familia, lo que la obligó a crear su propio conjunto de datos. El resultado fue imperfecto pero éticamente sólido: una IA torpe que a veces habla de manera inconsecuente en lugar de perpetuar la crueldad histórica.

La solución: datos impulsados por la comunidad

Dinkins aboga por “regalar” a los sistemas de inteligencia artificial datos de comunidades subrepresentadas. Su aplicación, “Las historias que contamos a nuestras máquinas”, permite a las personas contribuir con narrativas personales, garantizando que la IA aprenda de adentro hacia afuera. Ella enfatiza que si bien la explotación de datos es real, la alternativa (dejar que la IA defina comunidades basándose en fuentes sesgadas) es peor.

El objetivo final es crear conjuntos de datos ampliamente distribuibles que puedan ajustar los sistemas de IA sin despojarlos de su contexto cultural. Dinkins imagina un futuro en el que las personas desfavorecidas puedan aprovechar las herramientas de inteligencia artificial para competir con industrias establecidas, como la creación de películas de alta calidad de forma independiente.

“Lo que escuchamos en el mundo es: ‘No, están tomando nuestros datos. Estamos siendo explotados’, lo cual es así. Pero también sabemos que si no nutrimos estos sistemas para que nos conozcan mejor, probablemente estén usando definiciones que no provienen de las comunidades que se están definiendo”.

El trabajo de Dinkins es un llamado a los desarrolladores e investigadores de IA para que prioricen el abastecimiento ético de datos, la participación comunitaria y la sensibilidad cultural. Es un recordatorio de que la IA no se trata sólo de algoritmos; se trata de poder, responsabilidad y las historias que elegimos contar a nuestras máquinas.