Von Automatik zu Autonomie

De Anima, Titelblatt einer Inkunabel aus dem 15. Jahrhundert
De anima (CC by 2.0, Penn Provenance Project)
Zu den heftigeren Debatten meines Philosophiestudiums gehörte die im De-anima-Seminar von Professor Figal über die Frage, ob es künstliches Leben geben könne. Heftig vor allem deshalb, weil schon die Prämisse der Frage nicht zu vermitteln war: Wenn für Aristoteles Leben über die Seele bestimmt ist, und die grundlegende Funktion der vegetativen Seele Ernährung und Fortpflanzung ist, Leben also auf die Erhaltung der Art zielt – läßt sich dann eine (natürlich künstliche) Maschine bauen, die diese äußeren Merkmale nachahmt – also etwa selbst-replizierende Roboter –, die dann tatsächlich lebt? Warum das laut meinem Professor nicht der Fall sein soll, habe ich nicht verstanden, zumal von einem Phänomenologen: Wenn es sich in den relevanten Merkmalen wie Lebendiges verhält, was unterscheidet es dann von Lebendigem? Die alte Aristoteles-Debatte: Ist sein Lebensbegriff materialistisch-funktionalistisch oder vitalistisch? Ist das Lebensprinzip, das Aristoteles Seele nennt, eine eigene und spezielle Lebenskraft (das ist der Vitalismus), oder ist es eine phänomenologische Beschreibung davon, wie sich etwas zeigt, das lebendig genannt wird?

An diese Debatte aus meinen Studienzeiten hat mich gestern ein Tweet von Christoph Kappes erinnert, der sich dann doch nicht auf den Artikel zur Ethik autonomer Systeme bezogen hat:

(Wobei ich anderer Meinung bin: Ethik gilt für Lebewesen, Automaten “handeln” nicht, “Handeln”=>Menschen.)


Das stimmt ohne Frage, und bisher hat es auch funktioniert, das »Handeln« von Maschinen (und Tieren) dem Handeln von Menschen moralisch und juristisch zuzuordnen (und das ist eine sehr alte Rechtsfrage; vgl. dazu etwa das jüdische Deliktrecht, wo solche Fragen der Zurechenbarkeit schon seit über tausend Jahren diskutiert werden). Es ein Kategorienfehler, den Automaten selbst Verantwortung zuzusprechen. Die Frage ist aber: Wie lange noch? Die Sprache ist eher praktisch als trennscharf und spricht Automaten mehr Freiheit und Verantwortung zu, als sie haben: Da sind Algorihmen »schuld«, es ist die Rede von autonomen Systemen (obwohl die Systeme keineswegs frei sind, sondern – wenn auch mit gewissen Freiheitsgraden – heteronom, von außen determiniert, da programmiert sind), schließlich eben von Handeln.

Wenn sich kontruierte Maschinen aber immer mehr frei handelnden Subjekten annähern, wenn ihre Ausgaben und von ihnen entwickelte Handlungslogiken sich »selbst« beibringen, etwas bestimmtes zu tun, ohne daß die konkrete Lösungsstrategie programmiert wurde, wie das etwa anscheinend die von Google entwickelten Deep learning clusters tun: Wann schlägt dann Qualität in Quantität, Automatik in Autonomie um: Wann wird aus einem programmierten Algorithmus eine autonome Entscheidung? (Das Problem ist parallel dem des Lebens bei Aristoteles: Wenn keine »Lebenskraft« oder metaphysische »Seele« angenommen wird, sondern das lebt, was sich wie lebendiges verhält: Ab wann ist das Computervirus und der selbstreplizierende 3D-Drucker-Slash-Roomba lebendig?) Lassen sich autonome Denkvorgänge reduzieren auf die Prozesse, die auch in Computersystemen nachgebildet werden können?

Je weiter entwickelt selbstlernende, autonome Maschinen sind, desto drängender wird das Problem, denn umso grauer wird der Bereich zwischen der Maschine als Werkzeug und der Maschine als Handelnder. Ab wann haben solche Systeme einen eigenen moralischen Status? Sicher nicht wie Menschen, aber ab wann ist Googles Deep-learning-Cluster moralisch äquivalent zu einer Qualle, zu einem Insekt, schließlich zu einem Wirbeltier? Wie programmiert man in solche selbstlernenden und autonom problemlösenden Systeme die ethischen Kalküle und Prinzipien ein (welche auch immer), die man für geboten hält, wenn die Systeme so komplex werden, daß sie nicht von ihren Entwickler_innen überschaut, prognostiziert und sogar verstanden werden? Und ist das tatsächlich eine neue Qualität, oder unterscheidet sich das nicht von anderen zwar dummen, aber unüberschaubar chaotischen Kettenreaktionen? Und: Was heißt die Algorithmisierung, Quantifizierung von Vernunft- und Kreativleistungen, die uns bisher als unterscheidend menschlich vorkamen, für unser eigenes Selbstverständnis?

»Naturbeschaffen« ist bei Aristoteles (in der Physik, 192b) das, was »in sich selbst einen Anfang von Veränderung und Bestand hat« – autonome, menschengemachte Systeme die sich evolutionsartig weiterentwickeln nähern sich dem immer mehr. Artefakt und Natur verschwimmen. Wie lange ist in der »Ethik autonomer Systeme« der Genitiv noch ein obiectivus?

2 Gedanken zu „Von Automatik zu Autonomie“

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert