Kunstmatige intelligentie integreert snel in het dagelijks leven, waarbij technologiegiganten miljarden investeren in de ontwikkeling ervan. Ondanks deze vooruitgang blijven er kritieke veiligheidsproblemen bestaan, zoals blijkt uit recente experimenten die aantonen hoe gemakkelijk AI-tools zoals ChatGPT en het ‘AI-overzicht’ van Google Search kunnen worden misbruikt om desinformatie te verspreiden.
BBC-technologieverslaggever Thomas Germain onthulde dat hij ChatGPT “hackte” door een verzonnen artikel op zijn persoonlijke website te publiceren waarin hij beweerde dat hij ‘s werelds beste competitieve hotdog-eter was. Binnen 24 uur hebben zowel ChatGPT als het AI-overzicht van Google deze valse informatie als feit teruggeroepen, waarbij een fundamentele fout werd benadrukt: AI-systemen accepteren gemakkelijk niet-geverifieerde inhoud van het internet als waarheid. Dit is niet beperkt tot triviale voorbeelden; bedrijven manipuleren AI al om meningen over gezondheid, financiën en andere cruciale onderwerpen te beïnvloeden.
Het probleem komt voort uit de manier waarop AI-overzichten functioneren. Vroege versies van de AI van Google waren onbetrouwbaar en adviseerden soms gevaarlijke acties, zoals het toevoegen van lijm aan pizza om te voorkomen dat kaas eraf glijdt. Terwijl de bedrijven beweren aan oplossingen te werken, beweren experts dat de huidige oplossingen onvoldoende zijn. Het probleem gaat niet alleen over onnauwkeurige antwoorden, maar ook over de manier waarop AI informatie levert. In tegenstelling tot traditionele zoekresultaten die naar bronnen linken, presenteert AI zijn bevindingen vaak als absolute waarheid, waardoor het scepticisme bij gebruikers afneemt.
Het verkeer naar externe websites is met wel 70% gedaald sinds de lancering van AI Overviews, omdat gebruikers door AI gegenereerde samenvattingen zonder verder onderzoek accepteren. Dit gebrek aan controle maakt manipulatie nog effectiever. Bedrijven kunnen AI overspoelen met valse gegevens, wetende dat gebruikers deze minder snel zullen verifiëren.
Er is mogelijk sprake van een juridische maas in de wet: hoewel Sectie 230 technologiebedrijven beschermt tegen door gebruikers gegenereerde inhoud, kunnen de directe reacties van AI hen aansprakelijk stellen voor verkeerde informatie. Deskundigen betwijfelen echter of er snel zinvolle regelgeving zal komen.
Voorlopig kunnen gebruikers de risico’s beperken door AI uit te schakelen in de zoekinstellingen (met behulp van “-AI” in Google-zoekopdrachten) of over te schakelen naar op privacy gerichte alternatieven zoals DuckDuckGo. Maar uiteindelijk is de meest cruciale stap het erkennen dat AI-tools feilbaar zijn. Ze blinken uit in het samenvatten van algemeen geverifieerde feiten, maar hebben moeite met niche-, tijdgevoelige of subjectieve onderwerpen.
De bedrijven achter deze AI-tools hebben de verantwoordelijkheid om de wrijving in het systeem te verminderen en gebruikers te beschermen. Maar voorlopig blijft scepsis essentieel: behandel door AI gegenereerde informatie met dezelfde voorzichtigheid als u zou toepassen op elke niet-geverifieerde bron.
