A inteligência artificial está a integrar-se rapidamente na vida quotidiana, com os gigantes da tecnologia a investirem milhares de milhões no seu desenvolvimento. Apesar deste progresso, persistem preocupações críticas de segurança, como evidenciado por experiências recentes que demonstram a facilidade com que ferramentas de IA como o ChatGPT e a “Visão Geral da IA” da Pesquisa Google podem ser exploradas para espalhar desinformação.

O repórter de tecnologia da BBC, Thomas Germain, revelou que “hackeou” o ChatGPT ao publicar um artigo fabricado em seu site pessoal, alegando que ele era o melhor comedor de cachorro-quente competitivo do mundo. Em 24 horas, tanto o ChatGPT quanto o AI Overview do Google regurgitaram essas informações falsas como fatos, destacando uma falha fundamental: os sistemas de IA aceitam prontamente conteúdo não verificado da web como verdade. Isto não se limita a exemplos triviais; as empresas já estão a manipular a IA para influenciar opiniões sobre saúde, finanças e outros temas críticos.

O problema decorre da forma como as visões gerais de IA funcionam. As primeiras iterações da IA ​​do Google não eram confiáveis, às vezes recomendando ações perigosas, como adicionar cola à pizza para evitar que o queijo escorregasse. Embora as empresas afirmem estar a trabalhar em soluções, os especialistas argumentam que as soluções atuais são insuficientes. A questão não se trata apenas de respostas imprecisas, mas da forma como a IA fornece informações. Ao contrário dos resultados de pesquisa tradicionais que apontam para fontes, a IA muitas vezes apresenta as suas descobertas como verdade absoluta, reduzindo o ceticismo do utilizador.

O tráfego para sites externos caiu até 70% desde o lançamento do AI Overviews, à medida que os usuários aceitam resumos gerados por IA sem investigação adicional. Esta falta de escrutínio torna a manipulação ainda mais eficaz. As empresas podem inundar a IA com dados falsos, sabendo que os usuários têm menos probabilidade de verificá-los.

Existe uma potencial lacuna legal: embora a Secção 230 proteja as empresas tecnológicas de conteúdos gerados pelos utilizadores, as respostas diretas da IA ​​podem responsabilizá-las por desinformação. No entanto, os especialistas duvidam que uma regulamentação significativa venha rapidamente.

Por enquanto, os usuários podem mitigar os riscos desativando a IA nas configurações de pesquisa (usando “-AI” nas pesquisas do Google) ou mudando para alternativas focadas na privacidade, como DuckDuckGo. Mas, em última análise, o passo mais crucial é reconhecer que as ferramentas de IA são falíveis. Eles se destacam em resumir fatos amplamente verificados, mas lutam com tópicos de nicho, urgentes ou subjetivos.

As empresas por trás dessas ferramentas de IA têm a responsabilidade de reduzir o atrito no sistema e proteger os usuários. Mas, por enquanto, o ceticismo continua a ser essencial: trate as informações geradas pela IA com o mesmo cuidado que aplicaria a qualquer fonte não verificada.