Maschinenethik


Ich lese seit geraumer Zeit das „Hohe Luft“-Magazin und lese es gerne. Das Beiblatt „Digitalisierung“ einer kürzlich erschienen Ausgabe enthielt nun den Artikel „Ethik der Elektronen“, über den ich gestolpert bin. Gegenstand des Artikels ist eine Diskussion über die Notwendigkeit, dass algorithmische Entscheidungsfindung einem ethischen Kodex , einr Maschinenethik folgen muss. Da stelle ich mal die kühne Gegenthese auf: Nö, müssen sie nicht.

Als Beispiele für eine Anwendung algorithmischer Entscheidungsfindung sind im Artikel Drohnen und autonome Fahrzeuge genannt. Ein bewusst extremes Beispiel, denn, so die Autoren, es würden von den im Einsatz verwendeten Algorithmen Entscheidungen auch über Leben und Tod gefällt. Weiter wird ausgeführt, dass diese Algorithmen bei Fehlentscheidungen ja schlecht vor Gericht gestellt werden können. Daraus wird die Notwendigkeit abgeleitet, dass sie dann wohl eine Ethik bräuchten.

Ich stelle nun die Gegenthese auf, dass die Algorithmen als Wasserträger im Sinne Goethes Zauberlehrling operieren. Zumindest jetzt noch und solange keine Dystopie wie im Kinofilm „I, Robot“ Wirklichkeit ist, sind Computer, die darauf laufenden Programme und die darin abgebildeten Algorithmen die Werkzeuge des Menschen. Letztendlich sind sie so etwas wie ein Hammer, der sowohl Nägel als auch Schädel einschlagen kann. Und wiederum aus der Erfahrung des Zauberlehrling berichtet: Wenn so ein Werkzeug dann mal Unsinn produziert, bleibt eben derjenige verantwortlich, der das Werkzeug einsetzt.

Wenn aber der Mensch der Entscheidungsträger für den Einsatz und die Kompetenz des Algorithmus / des Programmes ist, folgt doch, dass der Mensch als Auslöser einer automatischen Entscheidungsfindung die Verantwortung für sein geschaffenes Werkzeug trägt. Und genauso selbstverständlich entscheidet der Mensch, ob er das letzte Wort behält oder ob er automatisch der Entscheidung der Maschine folgt.

Andererseits interagieren Algorithmen selbsttätig mit anderen automatisch agierenden Instanzen. Dann kann die Kausalkette nicht eindeutig zurückverfolgt werden. Nehmen wir als Beispiel computergestütztes Handeln von Wertpapieren oder Waren: Auf der ganzen Welt tätigen Computer selbstständig Geschäfte. Wenn sich durch diese automatische Interaktion nun der Wert einer Ware auf ein nach menschlichem Ermessen ungünstigen Wert verändert – wer trägt dann die Schuld? Mitgemacht haben mehrere und eventuell sind niemandem alle Teilnehmer des Handels bekannt. Wer ist Auslöser und somit verantwortlich?

Aber auch hier gilt: Noch kann kein Computer selbst entscheiden, ob er jetzt an die Börse geht. Der Mensch erlaubt es ihm! Wollen wir das oder nicht? In jedem Fall muss ein Mensch diese Entscheidung fällen, der anschließend die Verantwortung dafür trägt.

Das ebenfalls viel strapazierte Beispiel des autonomen Fahrzeugs, das entscheiden muss, ob es das Kind oder den Fahrer opfert, ist in dieser Hinsicht einfach auszulegen: Was auch immer geschieht, irgendjemand hat diesem Fahrzeug gesagt, dass es fahren soll. Und wenn dabei ein Mensch zu Schaden kommt, trifft ihn die Verantwortung dafür. Auch wenn es ein Computer war, der eine Flotte autonomer Fahrzeuge überwacht: Das hat ein Mensch so eingerichtet!

Fazit 1: Redet nicht darüber, ob Algorithmen gut oder böse sind. Nennt die Rahmenbedingungen, in denen Entscheidungen gefällt werden dürfen. Darf ich einem Blinden ein Bilderbuch zum Kauf anbieten? Oder einem Diabetiker Pralinen? Oder einem Computer 5000 Tonnen Getreide, die mein Computer eine Millisekunde vorher gekauft hat? In diesen Rahmenbedingungen kann ein Mensch entscheiden, einen Computer zur Hilfe zu nehmen. Wenn dieser dann das Auto lenkt, das ein Kind totfährt, oder in einer Jurisdiktion den Handel zerstört, ziehen wir diesen Menschen zur Verantwortung.

Fazit 2: Ich gehe davon aus, dass weder Mensch noch Maschine „richtig“ entscheiden könnte, ob ein Kind, ein Fahrzeuginsasse, die Gruppe Menschen am Straßenrand oder der Fahrer eines anderen Autos in einer bestimmten Verkehrssituation geopfert werden soll. Das ist nicht allgemein zu entscheiden. Das Risiko an der Teilnahme am Straßenverkehr ist, dass man dennoch für seine Handlungen gleich welcher Art zur Verantwortung gezogen werden kann. Was immer mein Auto macht, als Auslöser der Fahrt bin ich verantwortlich und muss mich im Schadensfall vor einer Gerichtsbarkeit verantworten. Kollege Computer kann als Ausrede herhalten, entbindet aber nicht von der eigenen Verantwortung.

Fazit 3: Kann ein Algorithmus ethisch korrekt handeln? Natürlich kann er das! Die eigentliche Frage lautet etwas präziser: Kann ich garantieren, dass er ethisch korrekt handelt? Da wird wohl ein Restrisiko bleiben. So wie bei jeder menschlichen Entscheidung übrigens auch. Und der Mensch kann dann je nach Schadensgröße, den sein Werkzeug angerichtet hat, einen Flicken draufkleben, eine Wirtschaft sanieren oder für fahrlässige Tötung ins Gefängnis gehen. Ist bei der Nutzung eines Hammers nicht anders als beim autonomen Fahren. Überfahren und Erschlagen unterscheiden sich im Ergebnis nicht wesentlich.

Was bleibt für mich?

Brauchen wir weitere gesellschaftliche Regeln für die neuen Möglichkeiten der Informatik oder brauchen wir keine speziellen digitalen Grundrechte? Eine neue oder geschärfte Art der Selbstbeschränkung? Ich glaube es fehlt nicht viel bei den bestehenden Gesetzen und Urteilen. Wir dürfen nur nicht den Fehler machen, uns selbst aus der Verantwortung unseres Handelns zu stehlen. Wenn ich niemanden töten darf, darf es auch eine Drohne nicht, die ich losschicke. Darf ich dann eine Drohne bauen? Darf ich das Buch schreiben, in dem ich erläutere, wie eine Drohne zu bauen ist oder sollte ich deshalb lieber Bücher verbieten? Das sind die Entscheidungsspielräume, in denen wir operieren und die wir seitens des Gesetzgebers vielleicht schärfen müssen. Auf jeden Fall möchte ich für mich aktiv und verantwortlich entscheiden, wo meine persönliche Grenze bei der Entwicklung von informationstechnischen Systemen ist. Das mag manchmal schwierig sein, aber dann ist das eben so.

Ach ja: Hilfreich ist es, Diskussionen zu führen. Wohin wollen wir als Gesellschaft in der Frage nach einer Ethik in der Informationsverarbeitung? Wer sind dabei die Protagonisten? Wollen wir uns selbst einbringen oder jemanden beauftragen? Akzeptieren wir die selbsternannten Hüter der Digitalen Ethik? Müssen wir nicht ergänzend dazu eine Diskussion über Verantwortungsübernahme führen?

,