Künstliche Intelligenz integriert sich rasch in das tägliche Leben und Technologiegiganten investieren Milliarden in ihre Entwicklung. Trotz dieser Fortschritte bestehen weiterhin erhebliche Sicherheitsbedenken, wie jüngste Experimente belegen, die zeigen, wie leicht KI-Tools wie ChatGPT und die „KI-Übersicht“ der Google-Suche zur Verbreitung von Fehlinformationen ausgenutzt werden können.
Der BBC-Technikreporter Thomas Germain enthüllte, dass er ChatGPT „gehackt“ habe, indem er auf seiner persönlichen Website einen erfundenen Artikel veröffentlichte, in dem er behauptete, er sei der beste Hot-Dog-Esser der Welt. Innerhalb von 24 Stunden haben sowohl ChatGPT als auch Googles AI Overview diese falschen Informationen als Tatsachen wiedergegeben und einen grundlegenden Fehler hervorgehoben: KI-Systeme akzeptieren unbestätigte Inhalte aus dem Web bereitwillig als Wahrheit. Dies ist nicht auf triviale Beispiele beschränkt; Unternehmen manipulieren bereits KI, um Meinungen zu Gesundheit, Finanzen und anderen kritischen Themen zu beeinflussen.
Das Problem ergibt sich aus der Funktionsweise von KI-Übersichten. Frühe Versionen der KI von Google waren unzuverlässig und empfahlen manchmal gefährliche Maßnahmen wie das Hinzufügen von Klebstoff zur Pizza, um ein Abrutschen des Käses zu verhindern. Während die Unternehmen behaupten, an Lösungen zu arbeiten, argumentieren Experten, dass die aktuellen Lösungen unzureichend seien. Das Problem liegt nicht nur in ungenauen Antworten, sondern auch in der Art und Weise, wie KI Informationen liefert. Im Gegensatz zu herkömmlichen Suchergebnissen, die auf Quellen verweisen, präsentiert KI ihre Ergebnisse oft als absolute Wahrheit und verringert so die Skepsis der Benutzer.
Der Verkehr auf externen Websites ist seit der Einführung von AI Overviews um bis zu 70 % zurückgegangen, da Benutzer von AI generierte Zusammenfassungen ohne weitere Untersuchung akzeptieren. Dieser Mangel an Kontrolle macht Manipulationen noch effektiver. Unternehmen können KI mit falschen Daten überfluten, da sie wissen, dass die Wahrscheinlichkeit, dass Benutzer diese verifizieren, geringer ist.
Es gibt eine potenzielle Gesetzeslücke: Während Abschnitt 230 Technologieunternehmen vor nutzergenerierten Inhalten schützt, könnten sie durch die direkten Reaktionen von KI für Fehlinformationen haftbar gemacht werden. Allerdings bezweifeln Experten, dass es bald zu einer sinnvollen Regulierung kommen wird.
Derzeit können Benutzer Risiken mindern, indem sie KI in den Sucheinstellungen deaktivieren (durch Verwendung von „-AI“ in Google-Suchen) oder auf datenschutzorientierte Alternativen wie DuckDuckGo umsteigen. Aber letztendlich ist der wichtigste Schritt die Erkenntnis, dass KI-Tools fehlbar sind. Sie zeichnen sich dadurch aus, dass sie weithin bestätigte Fakten zusammenfassen, haben aber Schwierigkeiten mit Nischenthemen, zeitkritischen oder subjektiven Themen.
Die Unternehmen, die hinter diesen KI-Tools stehen, haben die Verantwortung, die Reibung im System zu verringern und die Benutzer zu schützen. Aber vorerst bleibt Skepsis geboten: Behandeln Sie von KI generierte Informationen mit der gleichen Vorsicht, die Sie bei jeder ungeprüften Quelle anwenden würden.























