Lügende Roboter
US-Forscher entwickeln mobile Maschinen, die betrügen können
Ein Roboter versteckt sich, legt eine falsche Spur und täuscht so einen feindlichen Soldaten, in der Hoffnung, nicht erwischt zu werden. Das klingt wie eine Szene aus einem Terminator-Film, in Wirklichkeit ist es das Szenario eines kürzlich durchgeführten Experiments von Forschern des Georgia Institute of Technology. Sie wollten heraus finden, ob man Robotern beibringen kann, zu lügen und zu betrügen.
Die Ergebnisse der Roboter-Experimente, die am 3. September im International Journal of Social Robotics online veröffentlicht wurden, zeigen, dass Roboter tatsächlich in Zukunft fähig sein könnten, Täuschungsmanöver in militärischen, aber auch in Such- und Rettungsaktionen zu inszenieren. Lügende Roboter in diesen Bereichen könnten beispielsweise panische Opfer beruhigen und sie ermutigen, sie bei der weiteren Opfersuche zu unterstützen. Roboter auf dem Schlachtfeld, die lügen können, hätten den Vorteil, sich erfolgreich verstecken zu können und den Feind in die Irre zu führen, um etwas bestimmtes schützen zu können.
"Die meisten sozialen Roboter werden wahrscheinlich nur selten Täuschungsmanöver einsetzen, aber lügen zu können ist ein wichtiges Instrument für interaktive Roboter, denn die Maschinen, die erkennen können, wann es vorteilhaft ist zu täuschen, erzielen bessere Ergebnisse als die, die diese Fähigkeit nicht haben", sagte der Co-Autor der Studie, Alan Wagner, ein Forschungs-Ingenieur am Georgia Tech Research Institute.
Lernen, wann Lügen nützlich ist
Um den Robotern das Betrügen beizubringen, konzentrierten sich die Forscher auf die Aktionen, Überzeugungen und das Kommunikationsverhalten der Maschinen. Die ansonsten so fehlerfrei Handelnden sollten jetzt lernen, bewusst fehlerhaftes Verhalten an den Tag zu legen. Ihr erster Schritt war, den betrügenden Robotern beizubringen, wie man eine Situation erkennt, in der es nützlich ist zu täuschen. Wagner und Arkin verwendeten dazu verschiedene Instrumente, wie die Interdependenztheorie und Spieltheorie, und entwickelten daraus Algorithmen, die den Nutzen der Täuschung in einer konkreten Situation prüfte. Eine solche Situation, so stellten sie fest, musste zwei wichtige Bedingungen erfüllen, um eine Täuschung zu rechtfertigen: Es musste einen Konflikt zwischen dem betrügerischen Roboter und seinem "Feind" geben und der Betrüger muss von der Täuschung profitieren. Sobald der Roboter eine Situation so einschätzte, dass sie eine Täuschung rechtfertigte, sollte er also eine "Lüge" produzieren, von der er selbst profitierte.
Um ihre Algorithmen zu testen, führten die Forscher 20 Versteckspiel-Experimente mit zwei autonomen Robotern, einem Sucher und einem "Verstecker", durch. Entlang dreier möglicher Wege zu Orten, an denen der Roboter sich versteckt halten könnte, wurden farbige Markierungen angebracht. Das Vorhandensein oder Fehlen der Markierungen sollte dem Such-Roboter den Ort seines Gegners verraten. Der "Verstecker" wählte per Zufall eins dieser drei Verstecke und zerschlug die farbigen Markierungen entlang des Weges, während er sich dort hin bewegte. Sobald er die Markierungen passiert hatte, änderte er seine Richtung nach bestimmten Mustern, die programmiert worden waren und versteckte sich in einem der beiden anderen Standorte. Die Versteck-Roboter konnten die Such-Roboter so in 75 Prozent der Versuche täuschen.
"Die experimentellen Ergebnisse waren zwar nicht perfekt, aber sie zeigen, dass Roboter das Betrügen lernen können durch Algorithmen, die sie veranlassen, gewollt fehlerhaftes Verhalten auszuüben", sagte Wagner.
Neben der Freude über das gelungene Experiment empfinden die Forscher aber auch Verantwortung für die Schaffung solcher Maschinen. Es müsse immer auf dem Hintergrund von Ethik und Moral geprüft werden, ob und wann solche Maschinen eingesetzt werden. "Uns war von Anfang an bewusst, welche ethischen Probleme die Schaffung von Täuschungs-Robotern mit sich bringen kann. Uns ist sehr klar, dass es sowohl nützliche und auch schädliche Aspekte dabei gibt", erklärte Arkin. "Wir fordern dazu auf, über die Angemessenheit eines Einsatzes von Lügen-Robotern zu diskutieren, und, wenn es überhaupt dazu kommen sollte, Richtlinien festzulegen, die die Entwicklung solcher Roboter begrenzen."
Hier geht es zum Paper
Autorin / Autor: Redaktion - Stand: 13. September 2010