L’ascesa dell’intelligenza artificiale nell’arte ha creato un paradosso: più le persone capiscono come l’intelligenza artificiale genera immagini, meno si sentono eticamente a proprio agio con questa pratica. Non si tratta di estetica; si tratta di consapevolezza del processo dietro i pixel. Una recente ondata di opere d’arte generate dall’intelligenza artificiale, che hanno raggiunto anche prestigiose case d’asta come Christie’s, ha messo in luce un crescente disagio nei confronti del diritto d’autore, del lavoro e della definizione stessa di creatività.

La reazione contro la creazione non accreditata

Il dibattito non è nuovo. Gli artisti hanno protestato quando pezzi generati dall’intelligenza artificiale, formati su milioni di immagini protette da copyright senza consenso, sono stati venduti come arte legittima. La fretta dell’industria di commercializzare questa tecnologia è vista da molti come uno sfruttamento del lavoro creativo non retribuito. Anche i professionisti temono lo spostamento: un sondaggio britannico ha rilevato che oltre la metà dei romanzieri teme che l’intelligenza artificiale possa porre fine alla propria carriera, e il pubblico ha sentimenti contrastanti riguardo alla sostituzione dell’intelligenza artificiale con gli artisti umani.

La conoscenza cambia la percezione

I ricercatori di neuroestetica hanno scoperto un chiaro legame tra la comprensione del funzionamento interno dell’intelligenza artificiale e un maggiore controllo morale. Lo studio, condotto attraverso tre esperimenti con 300 partecipanti, ha rivelato che più le persone apprendono su set di dati, processi di formazione e tecniche di suggerimento, meno si sentono eticamente a proprio agio con l’arte generata dall’intelligenza artificiale. L’apprezzamento estetico rimane coerente; il cambiamento è puramente morale.

Risultati dell’esperimento

Il primo esperimento ha dimostrato che semplicemente spiegare come l’intelligenza artificiale crea immagini – imparando dall’arte esistente, generando dal testo – ha fatto sì che le persone vedessero l’arte risultante come meno moralmente accettabile, soprattutto quando erano coinvolti il profitto o il prestigio. Test successivi hanno rivelato che anche il riconoscimento del successo di un lavoro non influenzava le opinioni di coloro che erano a conoscenza del processo di intelligenza artificiale.

Un test finale ha utilizzato attività di associazione a risposta rapida (collegando immagini con “buono” o “cattivo”) e non ha riscontrato pregiudizi intrinseci contro l’arte dell’intelligenza artificiale nelle persone che non avevano conoscenze pregresse. Ciò suggerisce che la resistenza morale non è istintiva, ma appresa attraverso la comprensione di come funziona la tecnologia.

La strada da seguire: trasparenza ed educazione

Lo studio suggerisce che educare il pubblico, gli artisti, i curatori e i politici sui processi di intelligenza artificiale potrebbe plasmare il futuro di questa tecnologia. Una maggiore trasparenza (gli artisti che rivelano i propri strumenti di intelligenza artificiale, fonti di dati e input creativi) può invitare alle critiche ma potrebbe anche creare credibilità e incoraggiare il pensiero critico.

La conclusione fondamentale non è che l’arte basata sull’intelligenza artificiale sia intrinsecamente immorale. È che la consapevolezza della sua creazione altera fondamentalmente il modo in cui le persone percepiscono le sue implicazioni etiche. La trasparenza, piuttosto che la segretezza, potrebbe essere l’unico modo per orientarsi in questo panorama emergente.

Il dibattito sull’arte basata sull’intelligenza artificiale riguarda meno l’arte in sé e più le dinamiche di potere che rivela. Il futuro di questa tecnologia dipende dal fatto che l’industria abbraccerà l’istruzione e le considerazioni etiche o continuerà ad andare avanti senza riconoscere il costo umano.