Warum KI die menschliche Wahrnehmung verzerrt
Psychologische Faktoren machen uns besonders anfällig dafür, Informationen von künstlichen Intelligenzen nicht zu hinterfragen
Dass Künstliche Intelligenzen wie Chat GPT & Co. nicht nur wertvolle Informationen liefern, sondern auch Falschinformationen, Vorurteile und kompletten Blödsinn verbreiten, wird derzeit überall diskutiert. Forscher:innen um Abeba Birhane vom Trinity College Dublin haben nun in einem Artikel beschrieben, warum sich KI-generierte Informationen besonders hartnäckig im menschlichen Gehirn verankern, so dass sie nur schwer wieder herauszubekommen sind.
Kompetent und ohne jeden Zweifel?
Hierfür spielen verschiedene psychologische Faktoren eine Rolle - etwa, dass wir eine Person vertrauenswürdig finden, die kompetent und sicher wirkt. Anders als Menschen, die gerne mal Formulierungen einflechten, die eine Unsicherheit ausdrücken ("Ich glaube..."), die zögern, bevor sie auf eine Frage antworten oder sich korrigieren, kontert die KI direkt und ohne jede Unsicherheit. Uns erscheint das als überaus kompetent und wir sind verführt, dieser vermeintlich sicheren Quelle zu vertrauen.
Vermenschlicht dargestellt
Auch werden KI oft vermenschlicht dargestellt und wahrgenommen. Wenn wir eine KI als denkendes Wesen mit Intentionen wahrnehmen, das sprechen, sehen und zeichnen kann, dann sind wir leichter bereit, ihren Antworten Glauben zu schenken, als wenn uns mögliche Antworten als Liste in einer Suchmaschine präsentiert werden. Hierzu tragen auch die Anbieter bei, die ihren Modellen Menschliches andichten, das sie gar nicht haben. Sie sind weder freundlich, empathisch noch kindlich.
KI Fähigkeiten werden übertrieben dargestellt
Die Fähigkeiten künstlicher Intelligenzen werden den Forschenden zufolge zudem sehr oft übertrieben dargestellt - vor allem von den Anbietern. Wie viele Überschriften habt ihr schon gelesen, in welchen Bereichen KI den Menschen alles toppt (von Schach bis Chirurgie)? Verständlich, dass wir KI als überlegen und unfehlbar betrachten und sie darum auch für besonders kompetent und vertrauenswürdig halten.
Bei Unsicherheit besonders offen
Hinzu kommt, dass Menschen dann am beeinflussbarsten sind, wenn sie unsicher sind und nach Informationen suchen. Finden sie in diesem kleinen Zeitfenster ihrer Meinungsbildung eine Antwort auf ihre Fragen durch eine KI, dann sinkt die Unsicherheit und die Neugier lässt nach. Oft halten sie an diesen gefundenen Informationen dann besonders sturköpfig fest. Da Künstliche Intelligenz besonders häufig in Suchkontexten eingesetzt wird, könnte es schwierig werden, diese einmal gefundenen (möglicherweise falschen) Informationen wieder loszuwerden.
Darüber hinaus verankern sich Informationen, mit denen wir sehr häufig konfrontiert werden, besonders stark in uns. Die Forschenden gehen darum davon aus, dass mit der Verbreitung der Technologie auch die Menschen immer häufiger mit Fälschungen und Verzerrungen konfrontiert werden und sie dann auch glauben.
Teufelskreis der Verzerrungen
Ein weiteres Problem: KI-Modelle werden mit Daten aus dem Internet trainiert, die ja bekanntlich nicht vorurteilsfrei und schon gar nicht immer wahr sind. KI produzieren dann aber ihrerseits auf Basis der Trainingsdaten weitere Inhalte für das Internet. Die nächste Generation wird wieder mit diesen Internetinhalten trainiert. Es entsteht ein Teufelskreis aus Verzerrungen.
Weil diese Technologie noch sehr jung ist und noch nicht alle Menschen mit KI-generierten Informationen geflutet wurden, sei jetzt eine gute Gelegenheit, in interdisziplinären Studien zu untersuchen, wie sich menschliche Überzeugungen und Vorurteile verändern – vor und nach dem Kontakt mit KI-generierten Informationen.
Der Artikel ist in der rennommierten Fachzeitschrift Science erschienen.
Quelle:
Autorin / Autor: Redaktion / Presseinformation - Stand: 30. Juni 2023