La inteligencia artificial se está integrando rápidamente en la vida diaria y los gigantes tecnológicos están invirtiendo miles de millones en su desarrollo. A pesar de este progreso, persisten preocupaciones críticas de seguridad, como lo demuestran experimentos recientes que demuestran con qué facilidad se pueden explotar herramientas de inteligencia artificial como ChatGPT y “AI Overview” de la Búsqueda de Google para difundir información errónea.

El reportero de tecnología de la BBC, Thomas Germain, reveló que “hackeó” ChatGPT al publicar un artículo inventado en su sitio web personal afirmando que era el mejor comedor competitivo de hot dogs del mundo. En 24 horas, tanto ChatGPT como AI Overview de Google regurgitaron esta información falsa como un hecho, destacando un defecto fundamental: los sistemas de IA aceptan fácilmente contenido no verificado de la web como verdad. Esto no se limita a ejemplos triviales; Las empresas ya están manipulando la IA para influir en las opiniones sobre salud, finanzas y otros temas críticos.

El problema surge de la forma en que funcionan las descripciones generales de IA. Las primeras versiones de la IA de Google no eran confiables y en ocasiones recomendaban acciones peligrosas como agregar pegamento a la pizza para evitar que el queso se resbalara. Si bien las empresas afirman estar trabajando en soluciones, los expertos sostienen que las soluciones actuales son insuficientes. El problema no se trata sólo de respuestas inexactas, sino también de la forma en que la IA entrega información. A diferencia de los resultados de búsqueda tradicionales que enlazan con fuentes, la IA a menudo presenta sus hallazgos como una verdad absoluta, lo que reduce el escepticismo de los usuarios.

El tráfico a sitios web externos se ha reducido hasta en un 70% desde que se lanzó AI Overviews, ya que los usuarios aceptan resúmenes generados por AI sin mayor investigación. Esta falta de escrutinio hace que la manipulación sea aún más efectiva. Las empresas pueden inundar la IA con datos falsos, sabiendo que es menos probable que los usuarios los verifiquen.

Existe un posible vacío legal: si bien la Sección 230 protege a las empresas de tecnología del contenido generado por los usuarios, las respuestas directas de la IA podrían responsabilizarlas por desinformación. Sin embargo, los expertos dudan de que llegue pronto una regulación significativa.

Por ahora, los usuarios pueden mitigar los riesgos desactivando la IA en la configuración de búsqueda (usando “-AI” en las búsquedas de Google) o cambiando a alternativas centradas en la privacidad como DuckDuckGo. Pero, en última instancia, el paso más crucial es reconocer que las herramientas de IA son falibles. Se destacan en resumir hechos ampliamente verificados, pero tienen dificultades con temas específicos, urgentes o subjetivos.

Las empresas detrás de estas herramientas de inteligencia artificial tienen la responsabilidad de reducir la fricción en el sistema y proteger a los usuarios. Pero por ahora, el escepticismo sigue siendo esencial: trate la información generada por IA con la misma precaución que aplicaría a cualquier fuente no verificada.