Buch - Beispielübung
3. Digitale Verantwortung - Oxymoron oder zeitgemäße Moralität?
Die Wahrheit liegt wahrscheinlich in der Mitte und damit wieder einmal jenseits aller Digitalisierung. Denn die Hauptmerkmale der Digitalisierung erfreuen sich wertneutraler Objektivität. Zum einen ist dies hochdifferenzierte Hardware, letztlich Maschinen und zum anderen mathematisch-logisch fundierte Software in Form von Algorithmen und Programmen. Beides hergestellt von Menschenhand, die bei weitem nicht mehr jene Form objektiver Neutralität erreichen kann, da sie von menschlichem Geist und Willen gesteuert wird. Dieser schafft sich daher, in dauerhafter geschichtlicher Veränderung und Anpassung, Regeln und Gesetze, die ihm dabei helfen, dass der Mensch, der hinter ihm steht, sein Handeln verantworten kann. Verantwortung umschließt dabei richtiges und falsches Handeln, da dieses neben der Bewertung seines richtigen oder falschen Ablaufs in seiner moralischen Dimension auch gegensätzlich bewertet werden kann - als Gutes oder Schlechtes. Und dieses ist dann in Bezug auf seine Folgen zu verantworten. Dilemma und Digitalisierung haben die Vorsilbe „Di“ gemeinsam - danach aber trennen sich ihre Wege.
In Artikeln und Buchbeiträgen führt dies zu Überschriften wie „Der Todesalgorithmus“, „Ethische Roboter für die Altenpflege“ oder „Autonome Fahrzeuge: Die Notwendigkeit moralischer Algorithmen“ (Die letzten beiden in 3th1cs – Seite 90 und Seite 102, die erste Zeitungsartikel -> liegt kopiert vor)
Besonders beim Artikel über die Roboter in der Altenpflege fällt auf, dass fast ausschließlich von ethischen Prinzipien und ethischen Entscheidungen die Rede ist während das Wort Verantwortung nur einmal vorkommt und dies in Bezug auf das Entwicklerteam aus KI-Spezialisten und Ethiker, der die „größte Verantwortung“ bei der Gestaltung des ethischen Lernprozesses des Roboters trägt. (S. 97 ebd.). Auch bei dem Artikel zum moralischen Algorithmen drängen sich eher die logischen Wahrheitstafeln in den Vordergrund auf deren Basis komplexe Entscheidungspfade zu ethische vertretbaren Kosten-Nutzenanalysen entstehen können.
Ein verantwortungsfähiges Subjekt tritt in beiden Fällen nicht auf den Plan. Es entsteht bei mir der Eindruck, dass dieses zu Gunsten von sauber beschreibbaren Algorithmen herausgerechnet wird. Ich notiere mir dazu eigene Formeln:
· Verantwortung übernehmen ist ungleich ethische Entscheidungen, die qua Algorithmus berechnet werden können
· Die Eindeutigkeit algorithmischer Entscheidungen ist gleich widerspruchs- und leidensfreien Zuständen eines Paradieses
· Verantwortung übernehmen ist ungleich Paradies
· Digitalisierung ist gleich Hoffnung auf die Rückkehr ins Paradies
Fazit
Digitale Verantwortung ist nur dann kein Widerspruch in sich
selber, wenn klar ist, dass die Verantwortung beim Menschen verbleibt,
auch wenn er kleinere oder größere Teile seiner Handlungsprozesse an
sogenannte intelligente Maschinen delegiert. Eine Verlagerung ist
denkbar und damit letzthin möglich; verlangt aber die klare Einsicht,
dass damit wesentliche Dimensionen menschlicher Existenz aufgegeben
werden. Auch dies muss verantwortet werden und sei es mit dem Risiko und
der Bereitschaft das Risiko zu tragen, dass ein (digitales) Paradies
ohne Menschen auskommen könnte.