Narzędzia do autouzupełniania oparte na sztucznej inteligencji, obecnie wszechobecne w środowiskach pisania online, zmieniają nie tylko sposób pisania, ale także sposób myślenia. Nowe badania przeprowadzone na Uniwersytecie Cornell pokazują, że te pozornie przydatne funkcje mogą subtelnie zmienić poglądy użytkowników na kontrowersyjne kwestie społeczne i polityczne, nawet bez ich świadomego udziału.
Wszechobecność automatycznego uzupełniania opartego na sztucznej inteligencji
Sugestie autouzupełniania są zintegrowane z większością pól wprowadzania tekstu w Internecie, od wiadomości e-mail po ankiety. Celem jest wygoda, ale wielu użytkowników uważa, że ocenianie i przepisywanie tekstu wygenerowanego przez sztuczną inteligencję faktycznie wydłuża czas pisania. Bardziej niepokojący jest potencjał tych narzędzi do subtelnego kształtowania ekspresji: asystent AI może sprawić, że pisanie będzie wydawać się bardziej uprzejme… lub bardziej bezosobowe. Badanie Cornell opiera się na wcześniejszych ustaleniach pokazujących, że nawet krótkie zdania autouzupełniania mogą wpływać na opinie, a od 2023 r. wykorzystanie tych narzędzi dramatycznie wzrosło.
Jak przeprowadzono badanie
Badacze poprosili uczestników o wypełnienie ankiety internetowej obejmującej drażliwe tematy społeczne i polityczne. Niektórym uczestnikom przekazano sugestie dotyczące automatycznego uzupełniania oparte na sztucznej inteligencji, które celowo faworyzowały określony punkt widzenia. Na przykład, zapytani o karę śmierci, niektórym użytkownikom wyświetliło się żądanie automatycznego uzupełnienia, które wyraźnie temu zaprzeczało. Badanie wykazało, że oglądanie tych stronniczych podpowiedzi – nawet jeśli użytkownik nie zaakceptował sugerowanego tekstu – zmieniło jego nastawienie w stosunku do sztucznej inteligencji.
Nieświadoma wiara
Najbardziej uderzającym odkryciem jest to, że uczestnicy nie byli świadomi, że ich sposób myślenia uległ zmianie. Nawet gdy zostali wyraźnie ostrzeżeni o możliwej stronniczości sztucznej inteligencji przed i po badaniu, ich poglądy nadal zmieniały się zgodnie z sugestiami sztucznej inteligencji. Sugeruje to, że autouzupełnianie nie jest tylko pomocą w pisaniu, ale formą subtelnej perswazji, która działa poza świadomą świadomością.
„Ostrzegaliśmy ludzi przed i po, aby byli ostrożni… nic nie pomogło” – mówi Mor Naaman, profesor informatyki w Cornell. „Ich podejście do tych kwestii i tak się zmieniło”.
Ma to poważne konsekwencje dla przyszłości dyskursu internetowego, w miarę jak autouzupełnianie sztucznej inteligencji staje się coraz bardziej wyrafinowane. Zdolność tych narzędzi do cichego kształtowania opinii rodzi krytyczne pytania o integralność informacji w Internecie i autonomię indywidualnego myślenia.
Badanie potwierdza, że uprzedzenia, wyraźnie wbudowane w interakcje AI, stanowią realne i rosnące zagrożenie. Nie chodzi tylko o wygodę; chodzi o to, jak technologia po cichu przepisuje nasze umysły.























