SUCHEN NACH:

Ethik zwischen 0 und 1

Was bedeutet die digitale Transformation für unsere Handlungs- und Entscheidungsfähigkeit? Diese Frage findet bislang noch viel zu wenig Beachtung. Stattdessen laufen wir Gefahr, unser Dasein als mündige Bürger preiszugeben.

  • 26. Februar 2020
  • 4 Minuten Lesezeit
  • Ursula Münch
Bildrechte: Shutterstock/StockEU, bearbeitet von Katharina Bitzl

Drei große Transformationen besitzen das Potenzial, das Leben der meisten Menschen auf unserem Globus dauerhaft und womöglich dramatisch zu beeinflussen: die Globalisierung und Migration, die Erderwärmung und die digitale Transformation. Jede dieser sich gegenseitig in ihren Wirkungen verstärkenden Transformationen konfrontiert uns mit der Kernüberlegung der Ethik: Welche Regeln und Normen gelten? Und nach welchen Maßgaben treffen wir Entscheidungen? Diese Fragen betreffen insbesondere auch die Digitalisierung. Zum einen beeinflusst wohl keine andere der bisherigen technischen Entwicklungen so viele Daseinsbereiche. Zum anderen treffen die Technologien, die von Mathematikern, Statistikern, Informatikern oder Computeringenieuren (und natürlich deren weibliche Pendants) entwickelt werden, wichtige Vorentscheidungen. Auch wenn es eine eigenständig entscheidende „Künstliche Intelligenz“ auf absehbare Zeit nur in der Science-Fiction geben wird: Wenn die Auswertung von Daten zur Folge haben kann, dass bestehende Diskriminierungen über diese Datensätze reproduziert werden, braucht es natürlich heute schon eine breite gesellschaftliche und politische Debatte über die ethischen Dimensionen des Programmierens und Datensammelns sowie mögliche Kontrollmaßnahmen.

Digitalisierung rüttelt am Selbstverständnis der Menschen

Die Datenanalyse gehört seit geraumer Zeit zur modernen Gesellschaft und wurde durch die digitale Technik lediglich perfektioniert (Armin Nassehi). Dennoch: Die Erkenntnis, dass individuelles Verhalten auf digitalem Wege nicht nur immer besser vorhersehbar, sondern auch leichter steuerbar wird, rüttelt am Selbstverständnis des modernen Menschen. Man muss also nicht einmal die Frage nach der Verantwortung in kritischen Entscheidungssituationen unter Beteiligung autonomer Systeme bemühen, um mitten in einer ethischen Grundsatzdebatte zu landen. Zum Beispiel über die Auswirkungen digitaler Geschäftsmodelle auf das Verhalten von Menschen.

Prof. Dr. Ursula Münch

Prof. Dr. Ursula Münch ist seit 2011 Direktorin der Akademie für Politische Bildung in Tutzing und (beurlaubte) Professorin für Politikwissenschaft an der Universität der Bundes-wehr München. Sie befasst sich u.a. mit Politikfeldanalysen und Fragen der (gesellschafts-)politischen Auswirkungen der digitalen Transformation. Sie ist u.a. Mitglied des Wissen-schaftsrates, des Bayerischen Forschungsinstituts für Digitale Transformation (bidt) sowie der Ethik-Kommission der Deutschen Vereinigung für Politikwissenschaft. (Bildrechte: Akademie für Politische Bildung Tutzing/Jan Roeder)

Datenmaterial bildet den Rohstoff, aus dem Internetkonzerne Informationen über unser Kauf- und Mobilitätsverhalten ableiten. Die „Granularisierung“ (Christoph Kucklick), also der Prozess der Zerkleinerung und Wiederverschmelzung der Daten, macht weder vor der Erfassung von Krankheitsverläufen und Lebensführung noch vor politischen Präferenzen oder Finanztransaktionen halt. Auch wenn wir uns im „Überwachungskapitalismus“ (ShoshanaZuboff) als Kunden der allgegenwärtigen Datensammler wähnen, sind wir nicht einmal Nutzer. Schließlich nehmen wir die Überwachung und Vermarktung unseres Verhaltens hin und sind aus Angst vor digitaler Nichtteilhabe sogar bereit, auf jede Privatheit zu verzichten. Mit einem derartigen (Sucht-)Verhalten geben wir womöglich eine Grundvoraussetzung rechtsstaatlicher Demokratie preis: unsere Autonomie und damit unser Dasein als mündiges Individuum. Der Bedeutungsverlust personeller Selbstbestimmung wirft die Frage auf, an welcher Stelle ethische Fragestellungen überhaupt (noch) Wirksamkeit entfalten können. Wie wollen wir Freiheit und Selbstbestimmung verteidigen, wenn Freiheit und Selbstbestimmung zu „gelenkten Entscheidungsoptionen“ (Peter Dabrock) mutieren?

Datensouveränität ist unerlässlich

Initiativen wie das vom KI Bundesverband entwickelte „KI Gütesiegel“ mit dem Ziel einer „menschenzentrierten KI“ oder auch das Regelwerk zur Gestaltung algorithmischer Systeme durch „Algo.Rules“ illustrieren die Bemühungen, für den technischen Fortschritt auch ein steuerndes Wertesystem zu erarbeiten. Das wird aber nicht reichen: Unerlässlich sind zudem Datensouveränität, also der selbstbestimmte und verantwortliche Umgang des Einzelnen mit den eigenen personenbezogenen Daten, die Förderung digitaler Kompetenzen und kritische Reflexion. Ebenso braucht es die demokratisch legitimierte rechtsstaatliche Kontrolle der Digitalwirtschaft auf der Grundlage verbindlicher internationaler Vereinbarungen. Wir müssen eine Debatte führen, wie die Digitalisierung ethisch einzubetten ist, ohne den wissenschaftlichen und technischen Fortschritt oder das Unternehmertum unzulässig zu beschränken. Besonders brisant in dem Zusammenhang: Womöglich fällt es Forschern schwer, angemessen mit den Auswirkungen ihrer Erkenntnisse umzugehen. So scheiterte zum Beispiel die Forderung nach „transparenter KI“ bis vor Kurzem daran, dass gar nicht nachvollziehbar war, wie neuronale Netze als KI-Systeme Entscheidungen treffen.

Muss ein solches Nichtwissen zwangsläufig mit einer Selbstbeschränkung von Forschung und Entwicklung einhergehen? Oder wollen wir uns darauf verlassen, dass der Fortschritt immer wieder Lösungen für die selbstgeschaffenen Probleme hervorbringen wird? Die Frage nach der ethischen Rahmung der Digitalisierung deckt ganz offensichtlich ein weites Spektrum ab: Dieses reicht von der immensen Verantwortung der Forschung und Entwicklung hin zum eigenen täglichen Kommunikations- oder Einkaufverhalten. Es liegt an uns, den notwendigen hohen Stellenwert ethischer Fragestellungen im Prozess der Digitalisierung einzufordern: in unseren verschiedenen Funktionen, aber eben immer auch als kritikfähige Bürgerinnen und Bürger.