L’intelligenza artificiale si sta rapidamente integrando nella vita quotidiana, con i giganti della tecnologia che investono miliardi nel suo sviluppo. Nonostante questi progressi, persistono gravi preoccupazioni in materia di sicurezza, come evidenziato da recenti esperimenti che dimostrano con quanta facilità strumenti di intelligenza artificiale come ChatGPT e “Panoramica AI” di Ricerca Google possono essere sfruttati per diffondere disinformazione.
Il giornalista tecnico della BBC Thomas Germain ha rivelato di aver “hackerato” ChatGPT pubblicando un articolo inventato sul suo sito web personale in cui affermava di essere il miglior mangiatore di hot dog competitivo al mondo. Nel giro di 24 ore, sia ChatGPT che AI Overview di Google hanno rigurgitato queste false informazioni come fatti, evidenziando un difetto fondamentale: i sistemi di intelligenza artificiale accettano prontamente i contenuti non verificati dal web come verità. Questo non si limita a esempi banali; le aziende stanno già manipolando l’intelligenza artificiale per influenzare le opinioni su salute, finanza e altri argomenti critici.
Il problema deriva dal modo in cui funzionano le panoramiche AI. Le prime iterazioni dell’intelligenza artificiale di Google erano inaffidabili e talvolta consigliavano azioni pericolose come aggiungere colla alla pizza per evitare che il formaggio scivolasse via. Mentre le aziende affermano di essere al lavoro per trovare soluzioni, gli esperti sostengono che le soluzioni attuali sono insufficienti. Il problema non riguarda solo le risposte imprecise, ma il modo in cui l’intelligenza artificiale fornisce informazioni. A differenza dei risultati di ricerca tradizionali che si collegano alle fonti, l’intelligenza artificiale spesso presenta i suoi risultati come verità assoluta, riducendo lo scetticismo degli utenti.
Il traffico verso i siti Web esterni è diminuito fino al 70% dal lancio di AI Overviews, poiché gli utenti accettano i riepiloghi generati dall’intelligenza artificiale senza ulteriori indagini. Questa mancanza di controllo rende la manipolazione ancora più efficace. Le aziende possono inondare l’intelligenza artificiale di dati falsi, sapendo che gli utenti hanno meno probabilità di verificarli.
Esiste una potenziale scappatoia legale: mentre la Sezione 230 protegge le aziende tecnologiche dai contenuti generati dagli utenti, le risposte dirette dell’intelligenza artificiale potrebbero ritenerle responsabili di disinformazione. Tuttavia, gli esperti dubitano che una regolamentazione significativa arriverà rapidamente.
Per ora, gli utenti possono mitigare i rischi disabilitando l’intelligenza artificiale nelle impostazioni di ricerca (utilizzando “-AI” nelle ricerche su Google) o passando ad alternative incentrate sulla privacy come DuckDuckGo. Ma alla fine, il passo più cruciale è riconoscere che gli strumenti di intelligenza artificiale sono fallibili. Eccellono nel riassumere fatti ampiamente verificati, ma hanno difficoltà con argomenti di nicchia, urgenti o soggettivi.
Le aziende dietro questi strumenti di intelligenza artificiale hanno la responsabilità di ridurre gli attriti nel sistema e proteggere gli utenti. Ma per ora, lo scetticismo rimane essenziale: trattate le informazioni generate dall’intelligenza artificiale con la stessa cautela che applichereste a qualsiasi fonte non verificata.























