B 13 „Maschinen können keine Verantwortung tragen“ – Interview mit Oliver Bendel

Auf dem Foto ist der Dozent für Wirtschaftsinformatik, Wirtschaftsethik und Informationsethik abgebildet.
Foto: privat

Prof. Dr. Oliver Bendel ist als Dozent für Wirtschaftsinformatik, Wirtschaftsethik und Informationsethik an der Fachhochschule Nordwestschweiz (Hochschule für Wirtschaft) tätig. Nach einem Studium der Philosophie und Germanistik sowie der Informationswissenschaft promovierte er in Wirtschaftsinformatik. Neben zahlreichen Publikationen zur Informations- und Maschinenethik hat er auch Romane und Gedichte verfasst. Zuletzt erschien ein Buch über Pflegeroboter.
Weitere Informationen unter: www.maschinenethik.net.

 

 

 

 

 Herr Bendel, welche Themen im Zusammenspiel von Künstlicher Intelligenz und Ethik halten Sie aktuell für besonders wichtig?

OLIVER BENDEL: Wir unterscheiden zwischen Informationsethik und Maschinenethik. In der Informationsethik ist das Thema Überwachung im Augenblick sehr zentral, hier insbesondere Gesichts- und Emotionserkennung. Sehr problematisch wird es, wenn das mit der so genannten Physiognomik kombiniert wird, einer Pseudowissenschaft. Beispielsweise will man aus Gesichtsmerkmalen und -ausdrücken kriminelle Absichten ableiten.

Und die Maschinenethik?

OLIVER BENDEL: Die Maschinenethik fragt nach der Möglichkeit maschineller Moral. Im Kern geht es um die Frage, wie man Maschinen moralische Regeln beibringen kann. Ob bzw. wann man das tun soll, muss ebenfalls diskutiert werden, in Informations- und Technikethik, und natürlich in der Gesellschaft. Mein Kollege Ron Arkin beispielsweise hält es für richtig, autonome Kampfroboter mit moralischen Regeln auszustatten. Ich bin hier sehr zurückhaltend. Es wird auch viel darüber diskutiert, ob autonom fahrende Autos moralische Entscheidungen treffen dürfen. Bei einem unvermeidbaren Unfall könnte zwischen verschiedenen Personengruppen unterschieden werden, z. B. zwischen alten Menschen oder Kindern. Wir wissen, dass man Autos in diesem Sinne moralisieren kann, aber ich denke, dass man es nicht tun sollte. Wenn diese Fahrzeuge nur auf der Autobahn ohne direkten Kontakt mit Fußgängern autonom fahren, stellen sich diese Fragen kaum.

Kann man überhaupt präzise Grenzen ziehen zwischen der Verantwortung von Menschen und Maschinen? Wenn beispielsweise intelligente Diagnosesysteme bei einer Gewebeprobe Krebs diagnostizieren, verlässt sich ja ein Arzt auf dieses Ergebnis. Kann man dann noch davon sprechen, dass am Ende immer der Mensch die Verantwortung trägt?

OLIVER BENDEL: Verantwortung setzt ein Reflexionsvermögen und Bewusstsein voraus, über das Maschinen nicht verfügen. Ich habe es mal so formuliert: ‚Wenn man die Verantwortung an die Maschine überträgt, dann wird die Verantwortung zerstört‘. Eine Maschine kann Verantwortung allenfalls auf einem niedrigen Level übernehmen: Sie kann eine Aufgabe ausführen. Im umfassenden

Sinn muss die Verantwortung beim Menschen bleiben. Es stellt sich aber zunehmend die Frage, bei welchen Menschen sie liegt: Wer hat welchen Teil einer Maschine programmiert, war das ein Team in Indien, ist noch jemand namentlich greifbar? Oder ist der Chef des Unternehmens verantwortlich? Das ist ein Riesenproblem. Und bei selbstlernenden Systemen wird das Problem noch größer.

Die Juristen haben als Lösung die Einführung einer elektronischen Person vorgeschlagen. Diese erinnert in manchen Aspekten an die juristische Person (z.B. kann ein Unternehmen eine juristische Person sein, das heißt, man kann das Unternehmen verklagen; es wird dann durch eine*n Geschäftsführer*in vertreten, aber dieser ist als Person nicht angeklagt). Eine elektronische Person wäre nicht Träger von Verantwortung im philosophischen Sinne, kann aber eine Haftung übernehmen. Wenn ein autonomes Fahrzeug einen Unfall verursacht, kann es dann aus seinem Budget oder aus einem Fonds, in den alle einzahlen, den Schaden begleichen. So etwas kann man konstruieren, philosophisch gesehen bleibt die Verantwortung beim Menschen, aber es wird in Zukunft immer schwieriger, den eigentlichen Verantwortlichen zu benennen.

„Sinnvoll ist eine Einsatzweise im Tandem.“

Wie sehen Sie die Herausforderungen im sozialen Bereich? In Japan ist man da relativ angstfrei, bei uns in Europa werden Roboter in der Pflege von vielen skeptisch gesehen.

OLIVER BENDEL: Ich bin dafür, Forschung und Entwicklung von der Anwendung zu trennen. Wir sollten im Bereich sozialer Robotik in alle Richtungen forschen und Roboter testweise einsetzen. Gleichzeitig bin ich dafür, dass wir jetzt schon den Einsatz von Robotern regulieren.

Die Hersteller von Pepper beispielsweise haben sich besorgt geäußert. Ihr Roboter wird auch in japanischen Haushalten mit Kindern eingesetzt. Man stellt fest, dass Kinder inzwischen so sprechen und gestikulieren wie Pepper. Wenn das mal punktuell geschieht, ist das kein Problem, wohl aber, wenn sie mit dem Roboter oder auch mit ihrem Smartphone mehrere Stunden am Tag alleine sind und sich an ihm orientieren. Das kann zu Problemen, zum Beispiel im Bereich der Sprachentwicklung, führen.

Bei Älteren und Pflegebedürftigen müssen wir die Einsatzszenarien unterscheiden: Es ist völlig in Ordnung, wenn Assistenzsysteme zum Einsatz kommen, die Pflegekräfte beim Heben von Patienten entlasten und so ihre Gesundheit schützen. Aber auch die Patienten haben Bedürfnisse. Man darf auf keinen Fall die Pflegekräfte abschaffen. Eine menschliche Berührung ist etwas komplett anderes als eine robotische Berührung. Deshalb sollte man hier vorsichtig sein. Sinnvoll ist eine Einsatzweise im Tandem: Der Roboter kommt unterstützend dazu, sodass der Patient sozusagen wahlweise auf Mensch oder Roboter zugreifen darf.

Es gibt auch andere Interessengruppen: Für Angehörige kann es eine enorme Entlastung sein, wenn ein Roboter eine Überwachungsfunktion übernimmt. Damit komme ich aber auch wieder auf das Thema Überwachung zurück, ein grundlegendes Problem bei allen Formen mobiler Robotik. Wir holen uns potenzielle Spione ins Haus. Wir gewinnen hier und da vielleicht an persönlicher Autonomie dazu, verlieren aber an informationeller Autonomie.  

Dieses Thema spielt ja in fast allen Anwendungen eine Rolle. Informationen aus dem sozialen und medizinischen Bereich sind sehr sensibel. Und sie erwähnten das Thema Gesichts- und Emotionserkennung – nicht wenige Unternehmen sehen hier ein enormes Geschäftspotenzial. Wie könnte man das in den Griff bekommen?

 OLIVER BENDEL: Vorweg gesagt: Im Augenblick tendiert man dazu, die Ethik zu überschätzen. Wir können kaum Lösungen bieten. Wir helfen, mit unseren Begriffen und Methoden Konflikte zu benennen und unterschiedliche Interessen aufzudecken. Das ist eine sehr wichtige Aufgabe, aber bei der Regulierung dieser Technologien würde ich wieder nach dem Recht rufen.

Wir müssten uns einigen und politisch durchsetzen, dass Gesichtserkennung und Emotionserkennung im öffentlichen Raum nichts verloren haben. Im sozialen bzw. medizinischen Bereich schlage ich eine Patientenverfügung vor, in der jeder für sich entscheiden kann, wie er jetzt und in der Zukunft behandelt werden möchte, ob er mit Therapie- und Pflegerobotern konfrontiert sein will.

Eine weitere Möglichkeit wäre es, die Betreiber von Krankenhäusern und Seniorenheimen in die Pflicht zu nehmen. Sie müssen auch bezogen auf Roboter Datenschutzkonzepte vorlegen und nachweisen, dass die Daten eben nur für bestimmte Zwecke gesammelt werden. Auch die Möglichkeit von Live-Überwachung, die viele vermutlich als verlockend empfinden und die temporär sinnvoll sein kann, müsste hier im Detail geregelt werden. Man kann diese Roboter im Prinzip ja auch nutzen, um die Patienten zu observieren. Man wird nicht darum herumkommen, im Detail und individuell zu regeln, wer welche Zugriffsrechte hat.

„Ich erkenne keinen Weg, der zu einem maschinellen Bewusstsein führt.“

Drehen wir mal die Sichtweise um: In Spielfilmen wie EX MACHINA oder BLADE RUNNER treffen wir auf künstliche Wesen, die von Menschen nicht mehr zu unterscheiden sind. Da geht es um die Frage, welche Rechte und Lebensansprüche diese Wesen haben. In der Realität sind wir nicht so weit, trotzdem die Frage: Wann kommt der Punkt, an dem dieses Thema relevant wird?

OLIVER BENDEL: Aus meiner Sicht ist das Thema noch weit weg, obwohl darüber schon seit mindestens fünfzig Jahren diskutiert wird. Moralische Rechte kann man nur haben, wenn man Empfindungsfähigkeit, Leidensfähigkeit, Bewusstsein, eigene Interessen oder einen Lebenswillen hat. Im Moment erfüllen alle Menschen diese Bedingungen und die meisten Tiere zumindest einen Teil davon. Da fangen aber schon die Diskussionen an. Ich würde beispielsweise auch Insekten Rechte zugestehen, andere würden das nicht machen, weil sie sagen, dass Insekten nicht leidensfähig sind.

Bei Robotern wird zwar über ein mögliches maschinelles Bewusstsein diskutiert und zu diesem geforscht, aber ich erkenne derzeit keinen Weg, der tatsächlich zu diesem Ziel führen würde. Bewusstsein ist schwierig, Selbstbewusstsein wohl unmöglich. Bei Tieren können Sie dieses beispielsweise testen, indem Sie einen Fleck auf das Fell aufbringen und das Tier vor den Spiegel setzen. Wenn es dann versucht, den Fleck an sich selbst zu entfernen, dann hat es vermutlich eine Form von Selbstbewusstsein. Bei Robotern würde ich das überhaupt nicht sehen – und wenn doch, würde ich es als Simulation betrachten. Sollte sich an diesem Stand etwas ändern, müsste man Robotern aber tatsächlich Rechte zugestehen.  

Viele Menschen haben zu ihren Autos, Smartphones oder Haustieren eine emotionale Beziehung. Ist es ein Problem, wenn sie Roboter als Person oder Freund betrachten?

OLIVER BENDEL: Ich bin der Meinung, dass wir Roboter weniger als ,companion‘ (gemeint ist: mit einem menschenähnlichen, freundlichen Aussehen, wie es heute viele Forscher*innen befürworten; Anm. der Redaktion) konstruieren sollten, weil das zu vielen Verwirrungen führt. Wir reagieren sofort emotional und projizieren in die Roboter alles Mögliche hinein. Wir stellen Bindungen her und diese Bindungen sollte man stören und immer wieder darauf aufmerksam machen: ,Das ist eine einseitige Beziehung. Du kannst alles mit dem Roboter machen, du kannst ihn auch mögen, aber denke immer daran: Es ist nur eine Maschine.‘ Ein Ansatz besteht darin, schon vom Design her klar zu machen, dass uns Roboter zu dienen haben, dass es Artefakte sind, die keine Freunde sein können. Roboter nicht als ,companion‘, sondern als ,slave‘ – auch wenn das deutsche Wort ,Sklave‘ natürlich problematisch ist.

Ist die Maschinenethik eigentlich etwas vollkommen Neues oder knüpfen Sie an philosophische Traditionen an?

OLIVER BENDEL: Unter der Überschrift Roboterethik wird schon seit fünfzig oder sechzig Jahren über das Verhältnis von Maschinen und Moral diskutiert. So wurde früh nach den Rechten gefragt. In der recht jungen Maschinenethik geht es, wie gesagt, um die maschinelle Moral. Es geht um praktische Versuche, in reale Roboter moralische Regeln einzupflanzen. Das machen wir seit zehn oder zwanzig Jahren und wir konnten zeigen, dass es funktioniert. Wir können auch festlegen, dass eine wichtige Regel eine in einer Situation weniger wichtige überschreibt. Dies wurde bei einem Roboter gemacht, der in einem Altenheim eingesetzt werden könnte und der immer das Wohl der betreuten Person im Auge haben sollte. Wir können auch Autos beibringen, vor Igeln oder Kröten abzubremsen, wenn es die Situation zulässt. Ich bin nicht dafür, dass man autonome Autos schafft, die über Leben und Tod von Menschen entscheiden können.

Diese Frage, ob der Einsatz solcher Fahrzeuge sinnvoll ist oder angemessen, liegt schon beinahe wieder außerhalb des Gebietes der Maschinenethik – das ist eine gesellschaftliche Frage.

Interview: Burkhard Wetekam

Aufgaben

  • Lies den Text und greife zwei Aussagen heraus, die du persönlich interessant findest. Erläutere die Aussagen deinem*deiner Lernpartner*in.
  • „Es ist möglich, intelligenten technischen Systemen moralische Regeln zu geben. Damit können sie auch Verantwortung für Entscheidungen übernehmen.“ Stelle dar, wie Oliver Bendel diese Aussage bewerten würde.
  • Erkläre den Unterschied zwischen Verantwortung und Haftung.
  • Erkläre, warum es nach Bendels Meinung problematisch ist, Roboter als menschengleiche Begleiter (,companions‘) zu gestalten.
  • Eine Wohltätigkeitsorganisation will für die Kinderstation eines Krankenhauses einen Roboter erwerben, der die jungen Patient*innen durch Gespräche und Spiele beschäftigt. Überlegt in Partnerarbeit, wie ihr als Krankenhausleitung reagieren würdet. Formuliert Fragen, die ihr stellen würdet, bevor ihr einem Einsatz des Roboters zustimmt.