Sztuczna inteligencja szybko integruje się z życiem codziennym, a giganci technologiczni inwestują miliardy w jej rozwój. Pomimo tego postępu nadal istnieją poważne obawy dotyczące bezpieczeństwa, o czym świadczą niedawne eksperymenty pokazujące, jak łatwo można wykorzystać narzędzia sztucznej inteligencji, takie jak ChatGPT i „Przegląd sztucznej inteligencji” Google, do rozpowszechniania dezinformacji.

Reporter techniczny BBC, Thomas Germain, ujawnił, że „zhakował” ChatGPT, publikując na swojej osobistej stronie internetowej sfabrykowany artykuł, w którym twierdził, że jest najlepszym na świecie zawodowym zjadaczem hot dogów. W ciągu 24 godzin zarówno ChatGPT, jak i „Przegląd AI” Google zgłosiły tę fałszywą informację jako fakt, ujawniając podstawową wadę: systemy AI chętnie akceptują niezweryfikowane treści z Internetu jako prawdę. Nie ogranicza się to do trywialnych przykładów; firmy już manipulują sztuczną inteligencją, aby wpływać na opinie na temat zdrowia, finansów i innych ważnych tematów.

Problem polega na tym, jak działają przeglądy AI. Wczesne wersje sztucznej inteligencji Google były zawodne i czasami sugerowały niebezpieczne działania, takie jak dodawanie kleju do pizzy, aby zapobiec zsuwaniu się sera. Chociaż firmy twierdzą, że pracują nad poprawkami, eksperci twierdzą, że obecne rozwiązania są niewystarczające. Problemem nie są tylko niedokładne odpowiedzi, ale także sposób, w jaki sztuczna inteligencja prezentuje informacje. W przeciwieństwie do tradycyjnych wyników wyszukiwania, które zawierają linki do źródeł, sztuczna inteligencja często przedstawia swoje ustalenia jako prawdę absolutną, zmniejszając sceptycyzm użytkowników.

Ruch na zewnętrznych stronach internetowych spadł nawet o 70% od czasu wprowadzenia przeglądów AI, ponieważ użytkownicy akceptują podsumowania wygenerowane przez sztuczną inteligencję bez dalszego sprawdzania. Brak krytycznej analizy sprawia, że ​​manipulacja jest jeszcze bardziej skuteczna. Firmy mogą zalewać sztuczną inteligencję fałszywymi danymi, wiedząc, że użytkownicy będą mniej skłonni je sprawdzić.

W prawie istnieje potencjalna luka: chociaż art. 230 chroni firmy technologiczne przed treściami generowanymi przez użytkowników, bezpośrednie reakcje sztucznej inteligencji mogą narazić je na odpowiedzialność za dezinformację. Eksperci wątpią jednak, czy istotne regulacje zostaną szybko przyjęte.

Na razie użytkownicy mogą zmniejszyć ryzyko, wyłączając sztuczną inteligencję w ustawieniach wyszukiwania (używając „-AI” w zapytaniach Google) lub przechodząc na rozwiązania zapewniające prywatność, takie jak DuckDuckGo. Ale ostatecznie najważniejszym krokiem jest uznanie, że narzędzia AI są niedoskonałe. Specjalizują się w podsumowywaniu powszechnie zweryfikowanych faktów, ale borykają się z tematami niszowymi, aktualnymi lub subiektywnymi.

Firmy tworzące te narzędzia AI mają obowiązek zmniejszać tarcia w systemie i chronić użytkowników. Na razie jednak niezbędny jest sceptycyzm: informacje generowane przez sztuczną inteligencję należy traktować z taką samą ostrożnością, z jaką traktuje się każde niezweryfikowane źródło.