KI-gestützte Autovervollständigungstools – mittlerweile allgegenwärtig in Online-Schreibumgebungen – verändern nicht nur die Art und Weise, wie wir schreiben; Sie verändern unsere Denkweise. Eine neue Studie der Cornell University zeigt, dass diese scheinbar hilfreichen Funktionen die Einstellung der Benutzer zu umstrittenen sozialen und politischen Themen subtil verändern können, selbst ohne dass sie sich dessen bewusst sind.
Die Verbreitung der KI-Autovervollständigung
Vorschläge zur automatischen Vervollständigung sind in die meisten Online-Texteingabefelder integriert, von E-Mails bis hin zu Umfragen. Die Absicht ist Bequemlichkeit, doch viele Benutzer stellen fest, dass das Auswerten und Umschreiben von KI-generiertem Text tatsächlich die Schreibzeit verlängert. Noch besorgniserregender ist das Potenzial dieser Tools, den Ausdruck auf subtile Weise zu formen: Ein KI-Assistent könnte das Schreiben höflicher … oder langweiliger machen. Die Cornell-Forschung baut auf früheren Erkenntnissen auf, die zeigen, dass selbst kurze Autovervollständigungsvorschläge die Meinung beeinflussen können, und die Nutzung dieser Tools hat seit 2023 stark zugenommen.
Wie die Studie funktionierte
Die Forscher baten die Teilnehmer, an einer Online-Umfrage zu sensiblen sozialen und politischen Themen teilzunehmen. Einige Teilnehmer erhielten KI-Aufforderungen zur automatischen Vervollständigung, die bewusst auf einen bestimmten Standpunkt ausgerichtet waren. Als man beispielsweise nach der Todesstrafe fragte, wurde einigen Nutzern ein KI-Vorschlag vorgelegt, der sich eindeutig dagegen aussprach. Die Studie ergab, dass das Sehen dieser voreingenommenen Aufforderungen – selbst wenn der Benutzer den vorgeschlagenen Text nicht übernahm – seine Einstellung gegenüber der Position der KI veränderte.
Unbewusste Überzeugung
Das auffälligste Ergebnis ist, dass die Teilnehmer nicht bemerkten, dass sich ihr Denken verändert hatte. Selbst als sie vor und nach der Umfrage ausdrücklich vor einer möglichen KI-Voreingenommenheit gewarnt wurden, stimmten ihre Ansichten immer noch mit den Vorschlägen der KI überein. Dies deutet darauf hin, dass die automatische Vervollständigung nicht nur eine Schreibhilfe ist, sondern eine Form der subtilen Überzeugung, die unterhalb des bewussten Bewusstseins abläuft.
„Wir haben den Leuten vorher und nachher gesagt, sie sollten vorsichtig sein … nichts hat geholfen“, sagt Mor Naaman, Professor für Informationswissenschaft an der Cornell University. „Ihre Einstellung zu den Themen änderte sich immer noch.“
Dies hat erhebliche Auswirkungen auf die Zukunft des Online-Diskurses, da die KI-gesteuerte Autovervollständigung immer ausgefeilter wird. Die Fähigkeit dieser Tools, Meinungen ohne Entdeckung zu formen, wirft kritische Fragen zur Integrität von Online-Informationen und zur Autonomie des individuellen Denkens auf.
Die Studie bestärkt die Idee, dass Voreingenommenheit, die explizit in KI-Interaktionen eingebaut ist, eine reale und wachsende Gefahr darstellt. Es geht nicht mehr nur um Bequemlichkeit; Es geht darum, wie die Technologie still und leise unser Denken umschreibt.























