Digitale Heimsuchung
Forschung: Sogenannte Deadbots lassen geliebte Angehörige digital wiederauferstehen. Diese Technologie kann psychologischen Schaden anrichten und ist ein ethisches Minenfeld, mahnen Forschende der University of Cambridge.
Stell dir vor, deine verstorbene Großmutter bietet dir in sozialen Netzwerken plötzlich die neusten Schmink-Accessoires feil. Oder eine verunglückte Freundin geistert durch deine Accounts und schickt dir Benachrichtigungen - täuschend echt in Bild und Ton. Klingt gruselig? Ist aber ein reales Bedrohungsszenario, wie Forscher:innen der University of Cambridge aktuell in einem Forschungsartikel warnen.
Künstliche Intelligenz, die es Nutzer:innen ermöglicht, Text- und Sprachkonversationen mit verstorbenen Angehörigen zu führen, birgt den Wissenschaftler:innen zufolge das Risiko, psychologischen Schaden anzurichten und die Hinterbliebenen digital „heimzusuchen“, wenn keine Sicherheitsstandards entwickelt werden.
Postmortale Präsenz
Sogenannte "Deadbots“ oder "Griefbots" (dt.: Trauerbots) sind KI-Chatbots, die die Sprachmuster und Persönlichkeitsmerkmale der Verstorbenen anhand der von ihnen hinterlassenen digitalen Fußspuren simulieren. Einige Unternehmen bieten diese Dienste bereits an und ermöglichen so eine völlig neue Art der postmortalen Präsenz.
Den Forschenden zeigen auf, wie eine „digitale Jenseitsindustrie“ aussehen und welche Folgen sie haben könnte, wenn sie unvorsichtig eingesetzt wird. So könnten Unternehmen tote Roboter einsetzen, um Nutzern heimlich Produkte im Stil eines verstorbenen geliebten Menschen anzubieten oder trauernde Kinder verunsichern, indem sie behaupten, ein toter Elternteil sei noch bei ihnen.
Von Toten gestalkt
Wenn sich Lebende freiwillig anmelden, um nach ihrem Tod virtuell nachgebildet zu werden, könnten die daraus resultierenden Chatbots von Unternehmen eingesetzt werden, um die Hinterbliebenen mit unaufgeforderten Benachrichtigungen, Erinnerungen und Aktualisierungen zu den von ihnen angebotenen Diensten zuzuspammen - so als würden sie digital von den Toten gestalkt.
Die Würde der Verstorbenen in den Vordergrund stellen
Weil aufgrund des rasanten Fortschritts fast jede:r mit ein paar grundlegenden Kenntnissen die Möglichkeit hat, einen verstorbenen Angehörigen (digital) wiederzubeleben, sei dieser Bereich der KI ein "ethisches Minenfeld". "Es ist wichtig, die Würde des Verstorbenen in den Vordergrund zu stellen und dafür zu sorgen, dass diese nicht durch finanzielle Motive von digitalen Dienstleistungen für das Leben nach dem Tod beeinträchtigt wird", sagt Dr. Katarzyna Nowaczyk-Basińska, Mitautorin der Studie und Forscherin am Leverhulme Centre for the Future of Intelligence (LCFI) in Cambridge.
Es gibt auch Menschen, die ihren Angehörigen eine digitale Version von sich selbst als eine Art Abschiedsgeschenk hinterlassen möchten. Aber in solchen Fällen sind die Rechte der Datenspender als auch der Menschen, die mit den Deadbots kommunizieren, nicht geklärt. Was passiert, wenn eine sterbende Person einen Vertrag mit dem Bot-Dienstleister abschließt, der beinhaltet, dass der Bot 20 Jahre die Hinterbliebenden "trösten" und begleiten soll, die Angehörigen das aber absolut gruselig finden und möchten, dass er abgeschaltet wird? Ist dann der Vertrag entscheidend? Oder der Wunsch der Angehörigen? Hierfür müssten Regelungen geschaffen werden, fordern die Forschenden.
Ein weiteres Schreckensszenario der Forschenden ist, dass es dann irgendwann auch die Möglichkeit gibt, ohne die Zustimmung der "wiederhergestellten Person" einen Deadbot zu erstellen. Was passiert, wenn man plötzlich diesen Deadbot doch unwürdig findet und abschalten möchte? Wie fühlt es sich an, wenn man eine emotionale Bindung zu dieser virtuellen Präsenz eines geliebten Menschen aufgebaut hat und diese dann abschalten lässt?
Die Forschenden empfehlen, solche möglichen Szenarien zu überdenken und einzuplanen - etwa durch mögliche "Rituale für eine würdige Beerdigung von Deadbots" oder Richtlinien, die verhindern, dass Deadbots für Werbung eingesetzt werden. Sie fordern außerdem Altersbeschränkungen, um sicherzustellen, dass die Nutzer:innen sich bewusst sind, dass sie nicht mit einem realen Menschen, sondern mit einer KI reden. Geade für trauernde Kinder könnten sich sonst heikle Situationen ergeben.
Die Forschungsergebnisse wurden in der Fachzeitschrift Philosophy and Technology veröffentlicht.
Quelle:
Autorin / Autor: Redaktion / Pressemitteilung - Stand: 13. Mai 2024