Forschung: Wir trauen eher den Formulierungsvorschlägen unseres Computers als denen von Menschen
Zugegeben: Autokorrekturen und automatisch generierte E-Mail-Antworten sind oft eine große Hilfe beim Formulieren. Neue Forschungsergebnisse der University of Georgia zeigen jedoch, dass Menschen, die sich bei sprachlichen und kreativen Aufgaben auf Algorithmen verlassen, ihre Leistung nicht verbessern und eher minderwertigen Ratschlägen vertrauen.
Die Arbeit ist die zweite im Rahmen der Untersuchung des Forschungseams über das individuelle Vertrauen in von Algorithmen generierte Ratschläge. In einer Arbeit vom April 2021 stellte das Team fest, dass sich Menschen bei Zählaufgaben mehr auf algorithmische Ratschläge verlassen als auf Tipps von anderen Teilnehmer_innen.
In dieser Studie sollte untersucht werden, ob Menschen bei kreativeren und sprachlichen Aufgaben ebenfalls eher den Ratschlägen eines Computers folgen. Das Ergebnis: die Teilnehmer_innen nahmen mit 92,3 % höherer Wahrscheinlichkeit die Ratschläge eines Algorithmus an als die Tipps von Menschen.
"Diese Aufgabe erforderte nicht dieselbe Art von Denken (wie die Zählaufgabe in der vorherigen Studie), aber wir sahen die gleichen Verzerrungen", sagte Aaron Schecter, Assistenzprofessor für Management-Informationssysteme am Terry College of Business.
*Verwendung eines Algorithmus bei der Wortassoziation*
Um herauszufinden, ob sich Menschen bei sprachlichen Aufgaben mehr auf die Vorschläge von Computern verlassen würden, gaben Schecter und seine Co-Autor_innen 154 Online-Teilnehmer_innen Teile eines Wortassoziationstests, der seit sechs Jahrzehnten verwendet wird, um die Kreativität zu bewerten.
Es handele sich nicht um reine Kreativität, aber die Wortassoziation sei eine grundlegend andere Art von Aufgabe als das Zählen von Objekten auf einem Foto, so der Forscher. Bei dem Test wurden die Teilnehmenden gebeten, ein Wort zu finden, das drei Beispielwörter miteinander verbindet. Wenn die Wörter zum Beispiel Basis, Raum und Bowling lauteten, wäre die Antwort Ball gewesen. Die Teilnehmenden wählten ein Wort, um die Frage zu beantworten, und bekamen einen Hinweis, der einem Algorithmus zugeschrieben wurde, oder einen Tipp, der einer Person zugeschrieben wurde, und durften ihre Antwort ändern. Es zeigte sich: der dem Algorithmus zugeschriebenen Tipp wurde viel lieber gefolgt, unabhängig von der Schwierigkeit der Frage, der Formulierung des Vorschlags oder seiner Qualität.
Zusätzlich waren diejenigen, die den Rat des Algorithmus befolgten auch doppelt so zuversichtlich, was ihre Antworten anging, wie die Teilnehmenden, die sich auf den Tipp von Person verließen. Aber: die Wahrscheinlichkeit, dass die Computeranhänger_innen die richtigen Antworten wählten, lag um 13 % unter der Quote, die diejenigen erreichten, die sich von Menschen beraten gelassen hatten. "Sie hatten zwar ein größeres Selbstvertrauen und fühlten sich besser, wenn sie die algorithmischen Vorschläge nutzten, aber sie lagen nicht unbedingt richtig", so das Fazit des Wissenschaftlers.
*Sollte man die Autokorrektur beim Schreiben einer E-Mail akzeptieren?*
"Wenn ich eine Autovervollständigungs- oder Autokorrekturfunktion in meiner E-Mail habe, denke ich vielleicht nicht darüber nach, ob sie mich verbessert. Ich benutze sie einfach, weil ich mich sicher dabei fühle." Schechter und Kolleg_innen bezeichnen diese Tendenz, computergenerierte Vorschläge ohne Rücksicht auf ihre Qualität zu akzeptieren, als Automatisierungsvoreingenommenheit. Zu verstehen, wie und warum menschliche Entscheidungsträger_innen sich bei der Lösung von Problemen auf maschinelle Lernsoftware verlassen, sei wichtig, um herauszufinden, was an modernen Arbeitsplätzen schief laufen könnte und wie man Abhilfe schaffen könne.
"Wenn wir darüber nachdenken, ob wir Algorithmen erlauben können, Entscheidungen zu treffen, wird oft als Lösung der Mensch genannt, der ja dann immer noch Fehler oder schlechte Ergebnisse vermeiden könne", so Schecter. Aber das könne nicht die Lösung sein, wenn die Menschen zu wenig in Frage stellen, was der Algorithmus vorschlägt.