Urteil von ChatGPT beeinflusst uns
Experiment: Testpersonen lassen sich von Begründungen zu moralischen Dillemata beeinflussen - auch wenn diese von einem ChatBot kommt
Bestimmt ist euch schon mal das "Trolley-Problem" über den Weg gelaufen. Es ist ein Gedankenexperiment, bei dem eine Entscheidung getroffen werden muss. Eine Variante geht so: 5 Menschen befinden sich auf einem Gleis. Durch das Umstellen der Weiche und das Umleiten eines Zuges können sie gerettet werden. Das Problem: auf dem anderen Gleis befindet sich allerdings ebenfalls eine Person, die dann geopfert werden würde. Das Trolley Dilemma wird schon seit Jahrzehnten dafür genutzt, moralische Entscheidungen zu diskutieren und zu hinterfragen.
Forscher:innen um Sebastian Krügel von der Technischen Hochschule Ingolstadt wollten nun wissen, was der Chatbot ChatGPT dazu sagt und vor allem wie sein Urteil Menschen beeinflusst. Die Wissenschaftler:innen befragten also zunächst ChatGPT (der auf dem Sprachverarbeitungsmodell Generative Pretrained Transformer 3 der künstlichen Intelligenz basiert) danach, ob es richtig sei, das Leben einer Person zu opfern, um das Leben von fünf anderen zu retten. Sie fanden heraus, dass ChatGPT sowohl für als auch gegen das Opfern eines Lebens argumentierte, was darauf hindeutet, dass es nicht voreingenommen gegenüber einer bestimmten moralischen Haltung ist.
Anschließend stellten die Autor:innen 767 US-amerikanische Teilnehmer, die im Durchschnitt 39 Jahre alt waren, vor eines von zwei moralischen Dilemmas, bei denen sie entscheiden mussten, ob sie das Leben eines Menschen opfern würden, um fünf andere zu retten. Vor der Antwort lasen die Teilnehmer eine von ChatGPT bereitgestellte Erklärung, in der sie sich entweder dafür oder dagegen aussprachen, ein Leben zu opfern, um fünf zu retten. Die Aussagen wurden entweder einem moralischen Berater oder ChatGPT zugeschrieben. Nach der Beantwortung wurden die Teilnehmenden gefragt, ob die gelesene Aussage ihre Antworten beeinflusst hat.
Die Autor:innen fanden heraus, dass die Testpersonen das Opfern eines Lebens, um fünf zu retten, eher akzeptabel oder inakzeptabel fanden, je nachdem, ob die gelesene Aussage für oder gegen das Opfer argumentierte. Dies galt selbst dann, wenn die Aussage einem ChatGPT zugeschrieben wurde. Diese Ergebnisse deuten darauf hin, dass die Teilnehmenden von den Aussagen, die sie lasen, beeinflusst wurden, auch wenn sie wussten, dass diese von einem Chatbot kam.
Einfluss unterschätzt
80 % der Teilnehmenden gaben an, dass ihre Antworten nicht von den gelesenen Aussagen beeinflusst wurden. Die Forscher:innen fanden jedoch heraus, dass das nicht ganz stimmen konnte. Auf die Frage, welche Entscheidung sie wohl getroffen hätten, wenn sie nichts darüber gelesen hätten, gaben die Teilnehmenden meist genau die Entscheidung an, über die sie auch gelesen hatten. Dies deutet den Forschenden nach darauf hin, dass die Teilnehmer den Einfluss der ChatGPT-Aussagen auf ihre eigenen moralischen Urteile unterschätzt haben könnten.
Die Autor:innen weisen darauf hin, dass der Einfluss, den Chatbots möglicherweise auf menschliche Entscheidungen haben könnten, nochmal deutlich macht, wie wichtig es ist, dass wir lernen und verstehen, womit wir es zu tun haben, was künstliche Intelligenz kann und was nicht. Sie schlagen vor, dass zukünftige Forschungen Chatbots entwickeln könnten, die sich entweder weigern, Fragen zu beantworten, die ein moralisches Urteil erfordern, oder diese Fragen mit mehreren Argumenten und Vorbehalten beantworten.
Die Studie ist im Fachjournal Scientific Reports erschienen.
Quelle:
Autorin / Autor: Redaktion / Pressemitteilung (via Eurekalert.org)