L’intelligence artificielle s’intègre rapidement dans la vie quotidienne, les géants de la technologie investissant des milliards dans son développement. Malgré ces progrès, des problèmes de sécurité critiques persistent, comme en témoignent des expériences récentes démontrant avec quelle facilité des outils d’IA tels que ChatGPT et « AI Overview » de la recherche Google peuvent être exploités pour diffuser de la désinformation.
Le journaliste technique de la BBC, Thomas Germain, a révélé qu’il avait “piraté” ChatGPT en publiant un article fabriqué sur son site Web personnel affirmant qu’il était le meilleur mangeur de hot-dogs compétitif au monde. En 24 heures, ChatGPT et AI Overview de Google ont régurgité ces fausses informations comme des faits, soulignant un défaut fondamental : les systèmes d’IA acceptent facilement le contenu non vérifié du Web comme étant la vérité. Cela ne se limite pas à des exemples triviaux ; les entreprises manipulent déjà l’IA pour influencer les opinions sur la santé, la finance et d’autres sujets critiques.
Le problème vient du fonctionnement des aperçus IA. Les premières itérations de l’IA de Google n’étaient pas fiables, recommandant parfois des actions dangereuses comme l’ajout de colle à la pizza pour empêcher le fromage de glisser. Alors que les entreprises prétendent travailler sur des correctifs, les experts affirment que les solutions actuelles sont insuffisantes. Le problème ne concerne pas seulement les réponses inexactes, mais aussi la manière dont l’IA fournit les informations. Contrairement aux résultats de recherche traditionnels qui renvoient à des sources, l’IA présente souvent ses résultats comme une vérité absolue, réduisant ainsi le scepticisme des utilisateurs.
Le trafic vers les sites Web externes a chuté jusqu’à 70 % depuis le lancement des aperçus de l’IA, car les utilisateurs acceptent les résumés générés par l’IA sans autre enquête. Ce manque de contrôle rend la manipulation encore plus efficace. Les entreprises peuvent inonder l’IA de fausses données, sachant que les utilisateurs sont moins susceptibles de les vérifier.
Il existe une faille juridique potentielle : alors que l’article 230 protège les entreprises technologiques du contenu généré par les utilisateurs, les réponses directes d’IA pourraient les tenir responsables de désinformation. Toutefois, les experts doutent qu’une réglementation significative soit rapidement mise en place.
Pour l’instant, les utilisateurs peuvent atténuer les risques en désactivant l’IA dans les paramètres de recherche (en utilisant « -AI » dans les recherches Google) ou en passant à des alternatives axées sur la confidentialité comme DuckDuckGo. Mais en fin de compte, l’étape la plus cruciale consiste à reconnaître que les outils d’IA sont faillibles. Ils excellent dans la synthèse de faits largement vérifiés, mais ont du mal à aborder des sujets spécialisés, sensibles au facteur temps ou subjectifs.
Les entreprises à l’origine de ces outils d’IA ont la responsabilité de réduire les frictions au sein du système et de protéger les utilisateurs. Mais pour l’instant, le scepticisme reste de mise : traitez les informations générées par l’IA avec la même prudence que vous appliqueriez à toute source non vérifiée.























