Rozwój sztucznej inteligencji w sztuce stworzył paradoks: im lepiej ludzie rozumieją, w jaki sposób sztuczna inteligencja generuje obrazy, tym mniej etycznie czują się komfortowo w związku z tą praktyką. Nie chodzi o estetykę, ale o zrozumienie procesu stojącego za każdym pikselem. Niedawny wzrost liczby dzieł generowanych przez sztuczną inteligencję, aż do prestiżowych domów aukcyjnych, takich jak Christie’s, ujawnił rosnące obawy dotyczące praw autorskich, pracy i samej definicji kreatywności.
Niezadowolenie z niewymienionej kreatywności
Debata nie jest nowa. Artyści protestowali, gdy dzieła wygenerowane przez sztuczną inteligencję wytrenowane na milionach obrazów chronionych prawem autorskim zostały sprzedane jako legalne dzieła sztuki bez ich zgody. Dążenie branży do komercjalizacji tej technologii jest przez wielu postrzegane jako wyzysk nieodpłatnej pracy twórczej. Nawet profesjonaliści boją się wysiedlenia: badanie przeprowadzone w Wielkiej Brytanii wykazało, że ponad połowa pisarzy obawia się, że sztuczna inteligencja może zakończyć ich karierę, a opinia publiczna ma ambiwalentny stosunek do sztucznej inteligencji, która zastąpi ludzkich artystów.
Wiedza zmienia postrzeganie
Naukowcy zajmujący się neuroestetyką odkryli wyraźny związek między zrozumieniem wewnętrznego działania sztucznej inteligencji a zwiększoną krytycznością moralną. Badanie, przeprowadzone w ramach trzech eksperymentów z udziałem 300 respondentów, wykazało, że im więcej ludzie dowiedzieli się o zbiorach danych, procesach uczenia się i technikach podpowiedzi, tym mniej etycznie czuli się komfortowo w stosunku do sztuki generowanej przez sztuczną inteligencję. Ocena estetyczna pozostaje niezmieniona; zmiana ma charakter czysto moralny.
Wyniki eksperymentów
Pierwszy eksperyment pokazał, że samo wyjaśnienie, w jaki sposób sztuczna inteligencja tworzy obrazy — ucząc się na istniejącej sztuce i generując na podstawie tekstu — powoduje, że ludzie postrzegają powstałe dzieła jako mniej akceptowalne moralnie, zwłaszcza gdy w grę wchodzi zysk lub prestiż. Kolejne testy wykazały, że nawet uznanie sukcesu dzieła nie zmieniło opinii osób znających proces AI.
W ostatnim teście wykorzystano zadania szybkiego skojarzenia (kojarzenia obrazów z „dobrymi” lub „złymi”) i nie stwierdzono wrodzonych uprzedzeń wobec sztuki sztucznej inteligencji u osób bez wcześniejszej wiedzy. Sugeruje to, że opór moralny nie jest instynktowny, ale wyuczony poprzez zrozumienie, jak działa technologia.
Dalsze działania: przejrzystość i edukacja
Badanie sugeruje, że edukowanie odbiorców, artystów, kuratorów i decydentów na temat procesów AI może ukształtować przyszłość tej technologii. Większa przejrzystość – gdy artyści ujawniają swoje narzędzia sztucznej inteligencji, źródła danych i wkład twórczy – może zachęcić do krytyki, ale może także budować zaufanie i zachęcać do krytycznego myślenia.
Główny wniosek nie jest taki, że sztuka sztucznej inteligencji jest z natury niemoralna. Rzecz w tym, że świadomość jego powstania zasadniczo zmienia sposób, w jaki ludzie postrzegają jego etyczne implikacje. Przejrzystość, a nie tajemnica, może być jedynym sposobem poruszania się w tej nowej rzeczywistości.
Debata wokół sztuki AI w mniejszym stopniu dotyczy samej sztuki, a bardziej dynamiki mocy, jaką ujawnia. Przyszłość tej technologii zależy od tego, czy branża uwzględni kwestie edukacyjne i etyczne, czy też będzie nadal posuwać się do przodu, nie zdając sobie sprawy z kosztów ludzkich.






















