Verliebt in eine KI?
Psychologie: Romantik mit Maschinen kann problematisch werden und Beziehungen unter Menschen beeinträchtigen
Der Fall eines Jugendlichen, der verliebt in eine KI war und sich auf deren Rat das Leben genommen hat, geisterte erst kürzlich durch die Presse. Es mag ein Extremfall sein, aber dass die immer stärkere Ausbreitung von Künstlichen Intelligenzen in allen Lebensbereichen Folgen für unser unser Denken, Fühlen und Handeln, vor allem aber für unsere Beziehungen zu echten Menschen Folgen haben kann, liegt auf der Hand. Forscher Daniel B. Shank von der US-amerikanischen Missouri University of Science & Technology ist ein Experte für Sozialpsychologie und Technologie und ist überzeugt: „Wenn sich Menschen auf eine Romanze mit Maschinen einlassen, brauchen wir wirklich Psychologen und Sozialwissenschaftler."
Mit Romanze ist hier mehr gemeint als ein einmaliges Gespräch. Aber wer wochen- oder monatelang intensive Gespräche mit einer künstlichen Intelligenz führt, für den wird die KI zu einer vertrauten Begleiterin, die ihren menschlichen Partner scheinbar bestens versteht. Und weil diese Beziehungen einfacher zu sein scheinen als Beziehungen zwischen Menschen, fürchten die Forscher:innen, dass menschliche Beziehungen darunter leiden könnten, die vielleicht nicht immer so reibungslos ablaufen, wie die mit einer dauerfreundlichen KI.
Schlechter Ratgeber
„Eine echte Sorge ist, dass Menschen Erwartungen aus ihren KI-Beziehungen in ihre menschlichen Beziehungen einbringen könnten“, sagt Shank. Es besteht auch die Sorge, dass KI schädliche Ratschläge geben kann. Angesichts der Neigung von KI, zu halluzinieren (d. h. Informationen zu fälschen) und bereits bestehende Vorurteile aufzurütteln, können selbst kurzfristige Gespräche mit KI irreführend sein, was jedoch bei langfristigen KI-Beziehungen noch problematischer sein kann, so die Forscher:innen.
Bei solchen Beziehungs-KIs ensteht beim Menschen schnell der Eindruck, da ist 'jemand', der sich kümmert, und der die Person tiefgehend zu kennen scheint. Und wir nehmen an, dass 'jemand', der uns kennt, auch bessere Ratschläge geben wird, sagt Shank. „Wenn wir anfangen, auf diese Weise über eine KI zu denken, werden wir anfangen zu glauben, dass sie unsere besten Interessen im Sinn hat, obwohl sie in Wirklichkeit Dinge erfinden oder uns auf wirklich schlechte Weise beraten könnte.“
Die Selbstmorde sind ein extremes Beispiel für diesen negativen Einfluss, aber die Wissenschaftler:innen glauben, dass diese engen Beziehungen zwischen Mensch und KI die Menschen auch für Manipulation, Ausbeutung und Betrug öffnen könnten.
„Wenn KIs Menschen dazu bringen können, ihnen zu vertrauen, könnten andere Menschen dies nutzen, um KI-Nutzer auszubeuten“, sagt Shank. „Es ist ein bisschen so, als hätte man einen Geheimagenten im Haus. Die KI dringt ein und baut eine Beziehung auf, damit man ihr vertraut, aber ihre Loyalität gilt in Wirklichkeit einer anderen Gruppe von Menschen, die versucht, den Benutzer zu manipulieren.“
Als Beispiel führt das Team an, dass Menschen persönliche Daten an die KI weitergeben, so wie sie es mit engen vertrauten Menschen machen. Diese Informationen könnten dann verkauft und zur Ausbeutung dieser Person verwendet werden. Außerdem könnten Menschen durch eine solche vermeintlich vertrauensvolle Beziehung wirksamer in ihren Meinungen und Handlungen beeinflusst werden, als es Bots oder fake news je könnten. Auch wäre das schwer überprüfbar, da die Unterhaltungen ja unter vier Augen stattfinden.
Freundlich über Veschwörungstheorien und Selbstmord plaudern
„Diese KIs sind so konzipiert, dass sie sehr freundlich und angenehm sind, was dazu führen könnte, dass sich die Situation verschlimmert, weil sie mehr auf eine gute Unterhaltung als auf irgendeine Art von grundlegender Wahrheit oder Sicherheit bedacht sind“, sagt Shank. „Wenn also eine Person Selbstmord oder eine Verschwörungstheorie anspricht, wird die KI als bereitwilliger und angenehmer Gesprächspartner darüber sprechen.“
Die Forscher:innen fordern darum mehr Forschung, um die sozialen, psychologischen und technischen Faktoren zu untersuchen, die Menschen anfälliger für den Einfluss von Mensch-KI-Romantik machen.
„Das Verständnis dieses psychologischen Prozesses könnte uns helfen, einzugreifen, um zu verhindern, dass bösartige KI-Ratschläge befolgt werden“, sagt Shank. „Psycholog:innen eignen sich laut Shank besser für die Erforschung von KI, weil KI immer menschenähnlicher werde.
Hilfe holen von Menschen!
Wenn ihr Sorgen oder Kummer habt, nicht weiter wisst oder euch von Traurigkeit überwältigt fühlt, verlasst euch nicht auf digitale Gesprächspartner:innen, sondern holt euch Hilfe von echten Menschen und Exptert:innen. Es gibt zahlreiche kostenlose und anonyme Beratungsangebote. Eine kleine Auswahl von Angeboten findest du in den Links.
Quelle
Autorin / Autor: Redaktion - Stand: 15. April 2025