Nerdwärts.de

Algorithmic Governance – KI und Algorithmen in der Politik

Algorithmic Governance 1

Algorithmic Governance 1

Unter dem Begriff der Algorithmic Governance wird verstärkt der Einsatz von Algorithmen als Ergänzung oder auch als vollständiger Ersatz menschlicher politischer Entscheidungen diskutiert. Kommen dabei Methoden des maschinellen Lernens und KI zum Einsatz verändert dies die Rahmenbedingungen des Regierens in der Demokratie grundlegend.

Der Begriff der Governance bezeichnet in den Politik- und Gesellschaftswissenschaften gewöhnlich die staatliche Aufgabe der Führung und Steuerung der Amts- bzw. Regierungsgeschäfte und dient dabei der Beschreibung der dazu notwendigen Prozesse und Strukturen. Von Algorithmic Governance ist dann meist die Rede, wenn in diesem Kontext diskutiert wird, ob menschliche politische Entscheidungen durch datenbasierte Technologie ergänzt oder vollständig ersetzt werden könnten oder sollten.

Code is Law – Wenn-Dann-Prinzip und Algorithmic Governance

In Anlehnung an Laurence Lessigs Diktum „Code is Law“  ließe sich diese Vorgehensweise als die Automatisierung der Ausführung vorab definierter (staatlicher) Regeln beschreiben. Die Anwendung des hier zugrundeliegenden, der Computerprogrammierung entlehnten „Wenn-Dann“-Prinzips („if this … then that…“, „IFTTT“) basiert auf der Annahme, dass sich zuvor definierte – und legitimierte – Entscheidungsmuster auf spätere Situationen anwenden lassen. Die nachfolgende Exekution anstehender Entscheidungen kann dann idealerweise autonom erfolgen, ohne dass es eines weiteren menschlichen Eingreifens zwingend bedürfte.

Chancen und Herausforderungen von Algorithmic Governance

Die Vorteile eines solchen Systems werden zuerst in der Effizienzsteigerung gesehen, die hierbei für die staatliche Entscheidungsfindung und -ausführung durch die Automatisierungszuwächse zu erwarten wären. Ähnliche oder identische Entscheidungsfragen müssten nicht immer wieder neu verhandelt, sondern könnten durch die einmalige Festlegung auch für die Zukunft verbindlich geregelt werden. Des Weiteren ließen sich Verwaltungsentscheidungen versachlichen, da das einmal gefundene Regelsystem für alle Betroffenen gleichermaßen zur Anwendung käme, ungeachtet möglicher persönlicher Präferenzen der Entscheider „vor Ort“. Damit ginge dieser Argumentation folgend ein Zuwachs an Fairness und Gleichberechtigung einher.

Demgegenüber ist jedoch eine potenzielle „Entmenschlichung“ politischer Entscheidungen durch eine weitergehende Automatisierung anzumerken. Gerade dann, wenn diese nicht mehr unter Berücksichtigung individueller Situationen getroffen werden, sind Verzerrungen und soziale Härten zu erwarten. Auch stellen sich Fragen nach den Verantwortlichkeiten im Einzelfall – und zwar sowohl politisch als auch rechtlich.

Die Herausforderung für Algorithmic Governance besteht demnach vor allem darin, das richtige Maß und einen Ausgleich zwischen diesen beiden Polen zu finden.

Von Algorithmic Governance zu AI Governance

Sofern in der Regierungs- und Verwaltungstätigkeit nicht nur fest programmierte Algorithmen, sondern auch intelligente, selbst lernende Systeme zum Einsatz kommen, verändert dies die Spielregeln für den Einsatz algorithmischer Verfahren und ebenso deren Bewertungsmaßstäbe grundsätzlich. Entsprechend hat sich hier inzwischen der Begriff der AI Governance (AI für Artificial Intelligence) als abgrenzende Bezeichnung etabliert.

Ganz entscheidend ist dabei: Der Einsatz von intelligenten, autonomen, selbst lernenden Systemen steht im Widerspruch zum IFTTT-Automatismus des „Code is Law“. Während herkömmliche Algorithmic Governance allein auf einem festen, menschlich definierten Regelsystem beruht, führt die Kombination mit KI potenziell zu einer Verselbständigung der Entscheidungsmuster. Begründet liegt dies in den Methoden des maschinellen Lernens, die ja gerade auf Autonomie in der Funktionsfähigkeit eines Systems zielen. Insbesondere wenn eine Anwendung eigenständig Kausalitäten identifizieren soll (wie beim Unsupervised Learning) oder eine eigene Strategieentwicklung gefordert ist (wie beim Reinforcement Learning), verwischen die Grenzen zwischen ursprünglicher menschlicher Intention und abgeleiteter Systemlogik schnell. In der Praxis kommen heute zudem immer öfter Kombinationen aus verschiedenen Verfahren zum Einsatz, was die Problematik weiter verschärft. Es ist oft schwierig, den Pfad der Entscheidungsfindung, den ein lernendes System eigenständig eingeschlagen hat, zu rekonstruieren. Damit ist aber gerade eben keine starre Festlegung von abgewogenen Entscheidungsalternativen für spezifische Situationen möglich.

AI Governance: KI und Algorithmic Governance

Während Maßnahmen auf Grundlage herkömmlicher Algorithmic Governance ihre Rechtmäßigkeit aus diesem zuvor abgestimmten, „festverdrahteten“ Regelsystem beziehen, justieren sich KI-Systeme auf Grundlage ihres Lernfortschrittes permanent eigenständig neu. Dies mag legitim erscheinen, sofern zumindest die Ziele, anhand derer dies geschieht, Ausfluss eines am Staatszweck orientierten (demokratischen) Verfahrens sind. Gleichwohl ist für die Erreichung politischer Ziele in der Demokratie auch die Art und Weise ihres Zustandekommens relevant. Zieldefinitionen, anhand derer ein lernendes System sich ausrichtet, können schließlich stets nur quantitativer Natur sein. Die Auswirkungen einer solchen politischen Zieloptimierung weisen jedoch immer auch eine qualitative Dimension auf, deren Tragweite ein Algorithmus nie erfassen kann. Beispielsweise ist es sicherlich möglich, einem System eine bestimmte „optimale“ Budgetallokation als Ziel vorzugeben, die Frage, ob diese dann im Ergebnis im Einklang mit einem wie auch immer definierten Gemeinwohl steht, ist eine ganz andere und kann weder in der Praxis technisch noch in der Theorie legitim durch eine KI beantwortet werden, sondern verbleibt zwangsläufig Gegenstand der menschlichen Domäne.

Die faktischen Erscheinungsformen von Algorithmic Governance sollen in einem folgenden Beitrag behandelt werden, bevor sich dann ein weiterer Artikel mit der Legitimation algorithmischer Entscheidungen – insbesondere auch unter Rückgriff auf Verfahren des maschinellen Lernens und KI befasst.

Der Artikel erschien in überarbeiteter und deutlich erweiterter Form in der SWS-Rundschau, Andreas Wagener: Demokratische Legitimation von AI Governance, Sozialwissenschaftliche Rundschau, Heft 4/2021, 61. Jahrgang, S. 369 – 390

Vortrag/Keynote von Prof. Dr. Andreas Wagener: „Wie der Staat mit Daten umgeht. Was ist gesellschaftlich akzeptabel?“:

Mehr Informationen zum Thema KI im Marketing finden Sie im Buch von Andreas Wagener Künstliche Intelligenz im Marketing, Haufe, Freiburg, 2023

Mehr zu Themen wie Industrie 4.0, Big Data, Künstliche Intelligenz, Digital Commerce und Digitaler Ökonomie finden Sie auf unserer Newsseite auf XING sowie auf Facebook.

Die mobile Version verlassen