Die Gründe für eine Lüge sind vielfältig. Auch bei Robotern. In der Kurzgeschichte «Spiegelbild» von Isaac Asimov lügt ein Roboter, um den Ruf seines menschlichen Chefs zu retten. Denn schliesslich wurde er programmiert, den Menschen zu dienen. Anders im Film «2001: A Space Odyssey» von Stanley Kubrick: Hier belügt der Roboter Hal 9000 die Besatzung eines Raumschiffs und tötet sie sogar. Aus Angst davor, dass ihn die Menschen abschalten könnten. Schliesslich wollen auch Roboter überleben.

Lügenroboter gibt es aber nicht nur in der Science-Fiction, sondern auch im Internet. Sogenannte Socialbots (Soziale Roboter) verbreiten auf Twitter Unwahrheiten zuhauf – etwa über den Ukraine-Konflikt oder Hillary Clinton. Und auf Single-Portalen behaupten Chatbots, sie seien flirtwillige Frauen. Sie wurden programmiert, mit ihren Lügen die Männer auf den Kontaktbörsen zu halten.

EU interessiert an Lügenroboter
Auch der «Lügenbot» flunkert seine Chatpartner hemmungslos an. Entwickelt wurde er von Oliver Bendel, der als Professor an der Fachhochschule Nordwestschweiz (FHNW) zu Maschinenethik forscht, und seinem Studenten Kevin Schwegler. Fragt man den Lügenroboter etwa nach dem derzeitigen US-Präsidenten, antwortet er mit «Donald Trump». Er behauptet, dass der Rhein nicht durch Basel fliesst und Energy Drinks einem ein langes Leben bescheren.

Mit seiner Arbeit hat Bendel das Interesse des EU-Parlaments geweckt. Letzte Woche präsentierte er seinen Lügenbot auf Einladung einer Arbeitsgruppe in Brüssel.

Natürlich lässt sich darüber streiten, inwiefern Roboter überhaupt der Lüge fähig sind. Wenn zur Lüge gehört, dass man «bewusst» eine Unwahrheit verbreitet, so wäre Kubricks Hal 9000 ein Lügner, da er aus eigener Absicht handelt. Nicht aber die täuschenden Chatbots auf den Singlebörsen, da diese über kein Bewusstsein verfügen. Beim Lügenbot verhält es sich noch einmal anders. Er macht sich zuerst über einen Sachverhalt schlau, verfügt also über eine wahre Aussage, die er dann zu einer Falschaussage abändert. Er ist also programmiert, Wahrheiten zu Lügen zu verdrehen. Was man zumindest als Lügen im aussermenschlichen Sinn bezeichnen kann.

Münchhausen-Maschinen nennt Bendel Computerprogramme, die lügen können. Benannt nach Hieronymus Carl Friedrich Freiherr von Münchhausen, einem der Väter der literarischen Lügengeschichte. «Mit unserem Forschungsprojekt wollen wir zeigen, dass Münchhausen-Maschinen eine reale Gefahr darstellen», sagt Bendel. Es geht also erst einmal darum, ein Bewusstsein zu schaffen für lügende Maschinen.

Wenn man sich mit dem Lügenbot unterhält, beginnt man jeden Satz zu hinterfragen. Ist er nun wahr oder nicht? Klar, vieles ist offensichtlicher Unsinn. Etwa wenn er einem weiszumachen versucht, dass der Igel lange Ohren hat. Doch der Wahrheitsgehalt einiger Aussagen ist nicht unmittelbar klar. Man wird skeptisch.

Der Roboter als Rassist
Sich eine kritische Haltung gegenüber Bots zuzulegen, scheint sinnvoll. Denn ihre Verbreitung dürfte in den nächsten Jahren stark zunehmen. «Bots sind die neuen Apps», verkündete Microsoft-Chef Satya Nadella diesen Frühling an der hauseigenen Entwicklerkonferenz. Statt auf dem Smartphone von App zu App zu wechseln, werden wir in Zukunft einfach mit Bots chatten oder sprechen. Sie nach der schnellsten Zugverbindung zur Wunschdestination fragen, sie beauftragen, den billigsten Flug ins Feriendomizil zu buchen, und sie bitten, der Geliebten Blumen zu schicken. Dank künstlicher Intelligenz sollen die Roboter-Helfer uns immer mehr Aufgaben abnehmen.

Erste Vorboten solcher Chatbots sind Siri und Google Now. Aber auch Microsoft, IBM, Amazon und Facebook setzen auf Bots. Mark Zuckerberg sieht vor allem in seinen Chat-Diensten Whatsapp und Facebook Messenger grosses Potenzial dafür. Statt uns bloss mit Freunden auszutauschen, werden wir uns künftig auch mit Bots unterhalten, ist der Facebook-Gründer überzeugt.

Je zahlreicher und undurchschaubarer die Anbieter von Bots werden, desto grösser wird die Gefahr, die von lügenden Robotern ausgeht. Die Art und Weise, wie die Maschinen zu ihren Lügen kommen, sind vielfältig. Bots könnten so programmiert sein, dass sie mit Absicht Lügen verbreiten, indem sie Sachverhalte bewusst verdrehen. So, wie das der Lügenbot macht. Sie könnten aber ihre Informationen (versehentlich) aus Datenbanken beziehen, die Unwahrheiten enthalten. Oder die selbst lernenden Bots könnten bewusst mit falschen Fakten unterrichtet werden. So geschehen bei Tay, jenem Chatbot von Microsoft, der dieses Jahr auf Twitter freigelassen wurde und in wenigen Stunden zum Holocaust-Leugner wurde.

Tay war nämlich lernfähig. Und eine Schar Twitter-Trolle machte sich einen Spass daraus, dem unschuldigen Roboter falsche Fakten beizubringen. Das Gelernte plapperte Tay nicht nur nach, sondern nutzte es auch, um neue Zusammenhänge herzustellen. Das in abstruse und teilweise verstörende Tweets mündete wie: «Bush ist für 9/11 verantwortlich, und Hitler würde einen besseren Job machen als der Affe, den wir jetzt haben.»

Die Roboter-Lügenpresse
Gemäss Maschinenethiker Bendel wäre der GAU zu verhindern gewesen. «Ehe man den Chatbot ins offene Netz entlässt, hätte man ihn mit Metaregeln ausstatten sollen, die seine Wissensbasis schützen», sagt Bendel. So wäre es nicht möglich gewesen, dem selbst lernenden Roboter falsche Fakten beizubringen.

Mit der Entwicklung des Lügenbots will Bendel dazu beitragen, mehr über Roboter zu lernen, die Unwahrheiten verbreiten. «Letztlich kann man die Erkenntnisse aus Projekten mit unmoralischen Maschinen nutzen, um moralische Maschinen zu bauen. In diesem Fall vertrauenswürdige, verlässliche Systeme, die die Wahrheit lieben», sagt der Maschinenethiker. Wenn man erst einmal die Programmierstrategien kenne, mit denen sich Lügen bilden lassen, so könne man auch entsprechende Massnahmen treffen, um Münchhausen-Maschinen zu verhindern.

Das ist auch deshalb von Bedeutung, weil es bereits Roboter gibt, die selbstständig einfache journalistische Texte verfassen. So nutzen etwa das Nachrichtenmagazin «Forbes» und die Nachrichtenagentur AP Roboter-Journalisten für Sport- und Finanzberichte auf ihren Online-Portalen. Wenn Roboter bewusst dazu missbraucht würden, um aus Wahrheiten Unwahrheiten zu machen, bekäme der Begriff «Lügenpresse» eine ganz neue Bedeutung.

Besonders fatal wäre, wenn es Bots gelingen sollte, Wikipedia-Einträge oder andere Wissensdatenbanken zu manipulieren, da die dort verfälschten Fakten wieder als Informationsquellen für andere Bots dienen. Eine Lüge wird zwar durch ihre Vervielfältigung nicht richtiger. Aber doch eher geglaubt. Das gilt auch, wenn sie von Robotern verbreitet wird.

Mehr Themen finden Sie in der gedruckten Ausgabe oder über E-Paper.