Roboter verleiten zum Faulenzen
Wenn wir in Teams arbeiten, verlassen wir uns gerne auf die anderen. Das ist auch bei Mensch-Maschine-Partnerschaften so, sagt eine neue Studie
Kennt ihr das Phänomen, dass man sich automatisch zurücklehnt, sobald man in einem Team arbeitet, weil man sich auf die Leistung der anderen verlässt? Das nennt die Wissenschaft "Social Loafing“. In rein menschlichen Teams ist diese Verhaltensweise bereits gut dokumentiert. Dass dies auch in einem gemischten Mensch-Roboter-Team passieren kann, legt nun eine Studie von Forscherinnen der TU Berlin mit 42 Teilnehmenden nahe. In der Studie fanden Menschen, die im Team mit einem Roboter eine doppelte Qualitätsprüfung vollzogen, weniger Fehler als eine Vergleichsgruppe, die ohne Unterstützung des Roboters arbeitete.
Schon heute arbeiten - besonders in großen Unternehmen - viele Menschen mit Künstlicher Intelligenz (KI) und Robotern zusammen, und sie sehen in diesen technischen Hilfsmitteln tatsächlich Teampartner. Kann das dazu führen, dass sie soziale Regeln, Erwartungen und Verhaltensmuster aus der menschlichen Zusammenarbeit auch in die Mensch-Maschine-Interaktion übernehmen? „Bei der Zusammenarbeit mit Robotern könnte diese Tendenz noch stärker ausgeprägt sein. Da lag es nahe, zu überprüfen, ob auch typische gruppenpsychologische Phänomene wie das Social Loafing in Mensch-Roboter-Teams auftreten können“, sagt Prof. Dr. Linda Onnasch, Leiterin des Fachgebiets „Handlungs- und Automationspsychologie“ an der TU Berlin.
Fehlersuche mit und ohne Roboter Panda
Um das herauszufinden, teilten die Autorinnen der Studie 42 Studierende in zwei Gruppen ein. Beide mussten auf einem Bildschirm elektronische Bauteile auf Leiterplatten kontrollieren, was durch einige Arbeitsschrite erschwert wurde. Während die eine Gruppe die Fehlersuche allein bewältigen musste, bekam die andere Unterstützung von einem Roboter mit dem Spitznamen „Panda“. Er fotografierte und untersuchte die Leiterplatten mit hörbaren Geräuschen hinter einer Trennwand, bevor die Bildaufnahmen mit Fehlermarkierungen dann auf dem Bildschirm der Proband*in erschienen. Panda fand fast alle Fehler - außer im letzten Viertel. Darin wurden fünf Fehler von Panda nicht markiert. Beide Gruppen wurden nach dem Experiment gefragt, wie sie ihr eigenes Engagement bei der Arbeit einschätzen, wie verantwortlich sie sich für die Aufgabe gefühlt und wie gut sie ihrer Meinung nach gearbeitet hatten. Außerdem ermittelten die Forscherinnen, wie viele Fehler, die von Panda nicht markiert wurden, die Teilnehmenden fanden und wie häufig dies in der Vergleichsgruppe der Fall war.
Unbewusst weniger Mühe
Auf den ersten Blick sah es so aus, als ob die Anwesenheit von Panda keinen Unterschied gemacht hätte. Als die Forscherinnen die Fehlerquoten aber genauer untersuchten, stellten sie fest: Die Versuchspersonen, die mit Panda arbeiteten und bereits gesehen hatten, wie erfolgreich er war, entdeckten die späteren Fehler seltener als die Vergleichsgruppe. Sie leisteten also merklich schlechtere Arbeit. „Obwohl die Teilnehmenden dachten, sie würden gleich viel Aufmerksamkeit aufbringen, gingen sie unbewusst offenbar davon aus, dass Panda keine Fehler übersehen hatte und nahmen ihre mentale Anstrengung bei der Suche zurück“, vermutet Helene Cymek, die Erstautorin der Studie.
Menschen verlassen sich auf die Maschinen
Dass dieser Effekt bereits nach einer Versuchsdauer von nur 90 Minuten auftritt, sei besorgniserregend, erklärt Linda Onnasch. „In längeren Arbeitsschichten, bei denen viel Routineaufgaben erledigt werden müssen und wo es kein sofortiges Feedback zur eigenen Arbeitsqualität gibt, müssen wir davon ausgehen, dass solche Effekte in Mensch-Roboter-Teams noch stärker ausgeprägt sind.“ Für Produktionsbetriebe und alle Arbeitssituationen, wo aus Sicherheitsgründen doppelte Kontrollen durch Maschinen und Menschen stattfinden, sei das keine gute Nachricht.
Quelle:
Autorin / Autor: Redaktion/ Pressemitteiung - Stand: 4. Dezember 2023