Ethik autonomer Systeme

Robot Car (CC BY 2.0, Smoobs)
Robot Car (CC BY 2.0, Smoobs)
Einer der großen (Sponsoren-)Vorträge auf der vergangenen Re:publica war der von Dieter Zetsche, der viel über die Pläne von Mercedes zur Entwicklung selbstfahrender Autos erzählt hat – mit einer Lücke, die nicht überraschend ist, wenn ein Ingenieur solche PR betreibt: Welche ethischen Kalküle liegen der Steuersoftware selbstfahrender Autos zu Grunde? An diese Frage erinnerte mich wieder ein Artikel bei Heise zur Konferenz »Omnipräsenz ­ Leben und Handeln in der vernetzten Welt«.

Leider kenne ich nur die Folien von Sarah Spiekermanns Vortrag zur Ethik automatischer Systeme auf dieser Konferenz. Was mir anläßlich der Folien und der Meldung darüber dazu eingefallen ist, hat sie wahrscheinlich schon längst durchdacht. Relevant für meine Fragen sind zwei ihrer Gedanken zur politischen Agenda:

  1. Das ‘letzte Wort’ über jegliche Maschinenhandlung sollte standardmäßig und sichtbar beim Menschen liegen?
  2. Vollständige Offenlegung und Verantwortung der Betreiber für Maschinenurteile?

Ich glaube, die erste Frage ist noch schärfer zu stellen: Was bedeutet hier »das letzte Wort«? In jeder Situation? Oder nur das letzte Wort über die Maximen des dann maschinen-autonomen Handelns? Und zur zweiten Frage: Wie werden die Prinzipien von Maschinenurteilen bewertet, vom Betreiber und Hersteller sowie vom Endanwendenden ausgewählt und bewertet? Die Diskussion anhand von selbststeuernden Autos scheint mir besonders sinnvoll, ist dort doch sehr bald Praxisrelevanz zu erwarten und handelt es sich (durch Masse, Geschwindigkeit und Verbreitung von Autos) um ein Feld mit besonders gravierenden Konsequenzen im Fall eines Unfalls.

Indem die Gewalt über das Steuer an die Maschine delegiert wird, entstehen nicht nur Haftungsfragen für den Schadensfall – ist die Halterin schuld, sind es die die Mitfahrenden, ist es die Ingenieurin persönlich oder der CTO, der die cloudbasierte Navigation verantwortet? Diese Fragen lassen sich rechtlich lösen. Es braucht nur eine gesetzgeberische Entscheidung, und dann ist es halt so, und warum es so ist, werden mit der Materie vertraute Rechtsgelehrte in Analogie und Abgrenzung zu anderen Haftungsfragen mehr oder weniger autonomer Systeme gut entscheiden können. (Und ich glaube nicht, daß es so einfach ist, einfach »den Betreiber« als Verantwortlichen zu nennen; die Umgehungsmöglichkeiten sind zu offensichtlich.)

Ich finde die Frage besonders interessant, welches moralische Kalkül die Fahrt bestimmt und wer über es entscheidet. Wenn es eine verantwortliche Person am Steuer gibt, kann diese sich gut oder schlecht, richtig oder falsch, aber eben auch: auf der Basis ihrer eigenen Werte entscheiden, wie krisenhafte Fahrsituationen angegangen werden: Weiche ich dem entgegenkommenden Fahrzeug aus und nehme im Kauf, unbeteiligte Passanten zu verletzen? Riskiere ich stattdessen eine Kollision, weil ich davon ausgehe, daß ich und der Fahrer des entgegenkommenden Wagens bei dieser Geschwindigkeit hinreichend durch die Sicherungssysteme des Autos geschützt sind? Fahre ich sicher oder sportlich, rasant, riskant oder übervorsichtig, egoistisch oder altruistisch?

Mit umfassender Sensorik ausgestattete Fahrzeuge können die Sachfragen wahrscheinlich weit besser und verläßlicher entscheiden; die Wirkung von Geschwindigkeit, Masseträgheit, Beschleunigung, Airbag, ABS und Knautschzone sind (schon mangels regelmäßiger Unfallpraxis) notorisch ungenau einzuschätzen, während eine Automatenflotte rasch enorme Datensätze anhäuft, die den Verkehr berechenbar machen. Im Regelfall schaffen autonome Systeme viel mehr Planbarkeit, Sicherheit und Gewißheit als menschliche Steuerleute, und das ist gewünscht. (Spiekermans zweiter Effekt: »Die latente Unsicherheit wird uns dazu verleiten, mehr Unterstützung durch Maschinen in Anspruch zu nehmen.«)

Die empirische Ebene reicht aber nicht aus für die Steuerung und die Konfliktlösung autonomer Systeme. Es gibt keine wertneutralen Kalküle. Asimovs Robotergesetze sind klar formuliert, die Ausführungsbestimmungen – was bedeutet »keinem Menschen Schaden zufügen«? – aber in der moralischen Grauzone der Wirklichkeit alles andere als eindeutig zu formulieren, wenn »keinem Menschen schaden« keine Option ist. (Interessant sind die beiden Formulierungen der Robotergesetze: Einmal ist das Individuum Schutzgegenstand des obersten Gesetzes, einmal die Menschheit – es gibt also eine im weitesten Sinn deontologische – aus der Würde des je einzelnen Menschen resultierende Pflichtethik – und eine konsequentialistische – eine Ethik, die die Folgen bedenkt und die Folgerungen aus absoluten Prinzipien der Orientierung an Ergebnissen unterordnet – Formulierung schon bei Asimov. Dieser theoretische Unterschied ist in der Praxis relevant; beide moralischen Kalküle sind gerade in den problematischsten Fällen nicht miteinander zu vereinen.) Das Leben ist inhärent tragisch: Ständig müssen Entscheidungen unter ungewissen Bedingungen getroffen werden, deren ungewisse Folgen reale Auswirkungen haben. Leben ohne bisweilen oder ständig unschuldig schuldig zu werden, gibt es nicht. Mit der Entscheidungsfreiheit geht Verantwortung für die Entscheidung einher. Selbst wenn diese Entscheidung an ein System delegiert wird, das selbst kein moralischer Akteur ist, muß doch eine moralische Entscheidung getroffen werden.

Werden selbstfahrende Autos moralische Voreinstellungen haben, einen Drehregler für das Konfliktkalkül von deontologisch zu konsequentialistisch? Werden in unterschiedlichen Rechtsordnungen unterschiedliche Kalküle zugelassen und vorgeschrieben? (Im Deutschland des Grundgesetzes mit seiner Würdeformel nur die Mercedes Kant-Klasse, im gemeinschaftsorientierten Japan der Nissan Bentham.) Wenn die Wertgrundlage einer Entscheidung plötzlich derart bestimmbar ist – was hat das für soziale und juristische Folgen?

Es ist noch nicht lange her, daß das Trolley-Problem ein sehr theoretisches Gedankenexperiment in der Philosophie war: Ein Zug rast auf mehrere Personen auf dem Gleis zu. Wenn die Weiche umgelegt wird, stirbt statt diesen vielen Personen nur die eine Person, die auf dem anderen Gleis steht. Wie ist es moralisch zu bewerten, die Weiche umzulegen? Das Folgeproblem: Wieder rast der Zug auf Menschen im Gleis zu, die nicht flüchten können; dieses Mal gibt es die Möglichkeit, einen sehr dicken Mann von einer Brücke vor den Zug zu stoßen (ein sehr, sehr dicker Mann, selbst vor den Zug zu springen ist also keine Alternative), um ihn anzuhalten. Auch hier stirbt einer statt vieler, dieses Mal nicht durch eine abstrakte Weichenschaltung, sondern durch das aktive Stoßen des armen bisher unbeteiligten Dritten. So kontruiert das Problem ist (und so anders gelagert auch das Erkenntnisinteresse des ursprünglichen Gedankenexperiments ist), so real werden die moralischen Fragen doch in Situationen, in denen Maschinen tragische Entscheidungen zu treffen haben, in denen menschliche Verluste gegeneinander gerechnet und bewertet werden müssen.

Mit autonomen Systemen ist das Trolley-Problem aus philosophischen Hauptseminaren in die Entwicklungsabteilung von Google und Mercedes gewandert. Hoffentlich werden dort nicht nur Ingenieur_innen, sondern auch Philosoph_innen beschäftigt. (Ich freue mich auf Spiekermanns Buch »Ethics in IT Systems Development: The Human Use of Machine Beings«, das 2014 erscheinen soll.)

Flattr this!

3 Gedanken zu „Ethik autonomer Systeme“

  1. Sehr interessant. Mir fällt auf, dass die „inhärente Tragik des Lebens“ bei Maschinen grundsätzlich als beänstigender empfunden wird, als wenn Menschen Unglücke auslösen (gehört zu den klassischen Denkfehlern der Maschinenkritik).
    Die Ethik fällt aber traditiopnell immer auf den Menschen zurück. Dies kann man gut z.B. beobachten, wie heute Flugzeug- oder Zugunfälle aufgeklärt werden: Die Spur wird stets zur Ursache und die Ursache zu dessen Urheber zurückverfolgt, auch wenn das Fehlerchen schon in der mangelhaften Legierung einer Radachse lag. Das wird und kann bei selbstfahrenden Autos nicht anders sein: Abgesehen davon, dass diese Fahrzeuge vermutlich mindestens 90% weniger Unfälle bauen als „selbststeuernde Menschen“, wir uns aber trotzdem viel mehr vor den Maschinen ängstigen, abgesehen davon wird jeder Maschinenunfall auf seine Vermeidbarkeit durch einen Menschen analysiert werden. Das ist am Ende dann der Hersteller, der die sogenannte „aktive Sicherheit“ unterkomplex bedacht hätte (schon heute werden in hochklassigen Autos Features eingebaut, die andere Verkehrsteilnehmer vor Schaden bewahren sollen). Oder anders gesagt: Ist das Auto schuld, ist immer ein Mensch für die Schuld des Autos schuldig. Das wurde in der Geschichte der Technik meines Wissens auch noch nie anders gehandhabt. Gemäßigt wird die Schuld dann höchstens durch Unvorhersehbarkeit des Fehlers. Dann werden Richter milde urteilen. Die Öffentlichkeit urteilt über fehlerhafte Maschinen aber meistens weit harscher und endgültiger als über Menschenfehler. Eher verzeihen wir einer betrunkenen Fahrerin, wenn sie Schlangenlinien fährt (kommt täglich vermutlich tausendfach vor) als einem Auto-Automobil, das ein einzigesmal für eine 10tel Sekunde das Falsche tut. Warum wohl? Vielleicht weil wir vor nichts mehr Angst haben als vor Maschinen, die keinerlei ethischer Selbstkontrolle unterliegen, wo man beim Menschen doch immer noch hofft und betet, dass selbst im empathiefreiesten Schwein das allgemeine Gute steckt, wenigstens ein ganz klein wenig.

  2. Ach, noch ein Nachsatz. Las gestern etwas über den Genocid in der Zentralafrikan. Republik. Augenzeuge: „Ich sah, wie eine Schlange ein dreijähiges Kind verschlang.“ Die Schlange ist nicht schuld, weil ohne ethsiches Bewusstsein. Das führt, richtig, zur Schlange im Paradies. Die war sozusagen auch ein technisches System, programmmiert durch den HErrn himself. Und so wie die Schlangen noch heute nicht zwischen Babys und Ratten unterscheiden, so unterscheiden auch Tretminen nicht, wer darauf tritt – ein Mörder oder der vor den Mördern flüchtet, ganz egal. Algos wägen eben nicht ab, daher immer „moralfrei“ per se.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.