Kategorien und Erscheinungsformen von Algorithmic Governance

Der Rückgriff auf Algorithmen und datenbasierte Entscheidungsmuster sowie zunehmend auch auf KI im Rahmen der „Algorithmic Governance“ verändert die praktische Politik grundlegend. Dabei unterscheiden sich die Einsatzfelder hinsichtlich ihres Autonomiegrades. Das Spektrum reicht von klassischen Analyseleistungen bis hin zu völlig autonomen politischen Entscheidungen durch KI.

Im ersten Teil der Reihe haben wir das Prinzip der Algorithmic Governance bzw. von AI Governance erläutert. Potenziell ist der Rückgriff auf Algorithmic Governance in allen Politikbereichen denkbar, und auch de facto steigt die Zahl der Anwendungen Policyfeld-übergreifend seit Jahren kontinuierlich an – innerhalb und außerhalb Europas. Typische Einsatzgebiete sind insbesondere die Arbeitsmarktpolitik, Verkehrs- und Infrastrukturpolitik, Gesundheitspolitik, Innere Sicherheit und Verteidigung.

Neben der inhaltlichen Ausrichtung lassen sich die Erscheinungsformen von Algorithmic Governance auch nach dem Grad ihrer Eigenständigkeit unterscheiden, der sich auch aus dem Maß ihrer „Anwendungsintelligenz“ ableitet. Diese steigt gleichfalls mit dem Grad der Automatisierung und der damit einhergehenden zunehmenden Unabhängigkeit von menschlichen Eingriffen. Demnach kann die Verwendung von Algorithmen im Bereich der staatlichen Governance in drei grundlegende Aufgabengebiete mit steigendem Autonomie- und Datenintelligenzgrad eingeteilt werden, die auch als aufeinander aufbauende, zeitlich versetzte Phasen zu betrachten sind.

Diese, hier als „3As“ bezeichneten Dimensionen, umfassen:

  • A1 – Analyse
  • A2 – Automation
  • A3 – Autonomes Agieren

Der Aspekt der Analyse bezieht sich zunächst auf sämtliche Aufgaben der Datenerfassung, und Dateninterpretation. Derartige Systeme werden in erster Linie entscheidungsvorbereitend eingesetzt, d.h. sie dienen dazu, die notwendige Datenbasis zu aggregieren, welche die Grundlage einer menschlichen Entscheidung bilden. Maschinell automatisiert kann also die Datensammlung und -auswertung sein, nicht aber die Entscheidungsfindung und -ausführung.  Hierbei handelt es sich meist um klassische Wissens- und Datenmanagementsysteme.

Die Dimension der Automation baut auf der Vorarbeit der als A1 beschriebenen Systeme auf, bezieht aber auch die mechanisierte Ausführung spezifischer Aufgaben, die auf der zuvor erhobenen Datenbasis fußen, mit ein. Dies erfolgt weitgehend losgelöst von menschlichem Eingreifen, zwar grundsätzlich eigenständig, aber womöglich entlang vorab definierter Regeln, also nicht gänzlich autonom von externem menschlichen Einfluss. Meist werden Handlungsfolgen definiert, die aus dem Eintreten von bestimmten Ereignissen resultieren. Allerdings sind diese Handlungsfolgen nicht zwingend als unumstößlicher Automatismus zu sehen, der Mensch verbleibt in seiner Rolle als finale Entscheidungsinstanz. In der Praxis wird dies meist so gehandhabt, dass der Verantwortliche zwar gegen die konsekutiv-rationale Empfehlung des Systems handeln kann, dieses Abweichen aber dann dokumentiert und begründet werden muss. Ganz entscheidend ist dabei, wie hier die Interaktion zwischen System und Mensch ausgestaltet wird, also ob dem menschlichen Entscheider das System weiterhin als Hilfsmittel untergeordnet bleibt oder ob für ihn lediglich die Rolle des Vetogebers in einem ansonsten völlig autonom gestalteten Prozess als „Ultima Ratio“ vorgesehen ist. In der Regel verläuft somit hier die – aus diesem Grunde nicht immer ganz eindeutige – Grenze zwischen herkömmlicher „Algorithmic Governance“ und „AI Governance“.

Die Analyse und die Automation der Verarbeitungsprozesse bilden die Voraussetzung für die eigenständige Handlungsfähigkeit eines Systems, auch ohne eine „Rückkoppelung“ mit festgesetzten „Aktionsmaximen“. Eigenständiges Anstoßen autonomer Prozesse, ohne menschliches Zutun, echtes autonomes Agieren, stellt die Endstufe intelligenter, eigenständiger algorithmischer Systeme dar – gewissermaßen also AI Governance in Reinform. Ein mögliches menschliches Vetorecht, wie oben beschrieben, hat nurmehr den Charakter einer Qualitätskontrolle, verändert aber nicht den Charakter des Systems als im Kern eigenständige und unabhängige Intelligenz. Auch wenn derartige Anwendungen heute noch hypothetischer Natur zu sein scheinen, zeigt der technische Fortschritte auf dem Gebiet der angewandten KI deutlich, dass es sich hierbei nicht um bloße Zukunftsvision handelt, sondern, dass der Einsatz dieser Systeme schon bald sehr konkret werden könnte.

Um die Gliederung in die „3A“ zu verdeutlichen, sollen im Folgenden jeweils entsprechende Beispiele beschrieben werden:

Algorithmic Governance: A1 – Analyse

Das Sozialprognosen-System „Riscanvi“ wird von katalanischen Gefängnissen genutzt, um Bewährungsentscheidungen vorzubereiten. Insassen werden in regelmäßigen Abständen, mindestens alle 6 Monate, befragt. Aus den erfassten Erkenntnissen berechnet das Programm eine Risikoprognose, die regelmäßig evaluiert wird und gegebenenfalls zur Justierung der Systematik führt. Riscanvi bezieht dabei Informationen zu verschiedenen Risikofeldern ein, zum Beispiel Konflikte mit anderen Insassen, Rückfälle zur Gewalttätigkeit, Selbstverletzungen und Verstöße gegen die Bedingungen von Hafturlauben, aber auch Daten zur sozialen Situation wie fehlende familiäre Unterstützung oder die persönliche finanzielle Lage der Häftlinge. Methoden maschinellen Lernens kommen dabei nicht zum Einsatz, Eingriffe in die Logik des Systems erfolgen allein händisch auf Basis der Evaluationsergebnisse. Laut offiziellen Angaben besteht für die Nutzer des Systems keine Verpflichtung, den Vorschlägen zu folgen. Sie gelten als Orientierungshilfe, aber nicht als Maßgabe. Eine Begründung, warum man gegen die Empfehlung des Systems entscheidet, ist nicht notwendig.

Algorithmic Governance: A2 – Automation

Ein Beispiel für die zweite Kategorie der Algorithmen im Bereich der Governance stellt das automatisierte Steuerprüfungssystem CFVR der französischen Finanzbehörden dar. Auf Basis von Daten aus früheren Kontrollen wird versucht, aktuelle Verhaltensmuster von steuerpflichtigen Unternehmen und Privatpersonen zu analysieren und auffällige Verhaltensweisen, die auf illegale Aktivitäten und Versuche von Steuerhinterziehungen hinweisen, zu identifizieren. Verknüpft wird dies mit anderen staatlichen und privaten Datenquellen, wie Kontodaten, Informationen von Katasterämtern und ausländischen Unternehmensverzeichnissen, aber auch Daten aus den Sozialen Medien. Dabei kommen auch Netzwerkanalysen, die das Beziehungsgeflecht zu anderen Personen und Institutionen beleuchten zum Einsatz, etwa um Komplizenschaften aufzudecken. Damit entsteht ein Gesamtbild, dass sich dem Steuerfahnder im Rahmen der herkömmlichen Arbeit nur schwer erschlossen hätte. Der Algorithmus aggregiert und verdichtet die vorliegenden Informationen, um daraus konkrete Handlungsaufträge abzuleiten. Ziel ist es, jede zweite Steuerkontrolle durch den Algorithmus auszulösen. Die Steuerfahnder erhalten dazu jeweils für ihren Aufgabenbereich eine Liste der zu kontrollierenden privaten und juristischen Personen, es obliegt aber letztlich ihrer jeweiligen Entscheidung, ob diese Kontrolle tatsächlich auch durchgeführt wird. Ein eigenständiger Automatismus, der autonom die berechnete Steuerschuld eintreiben würde, existiert nicht und ist auch nicht angedacht. Gleichwohl gibt es Bestrebungen, hier eine stärkere Verpflichtung zur Betätigung für die Behörden seitens des Finanzministeriums durchzusetzen.

Algorithmic Governance: A3 – Autonomes Agieren

Auch wenn die Dimension des „Autonomen Agierens“ zunächst noch sehr zukunftsbezogen erscheint, lassen sich angesichts einiger existierender Anwendungen in der Praxis bereits verschiedene Einsatzszenarien skizzieren, wie die folgenden Beispiele zeigen:

China verfügt bereits über ein weitverzweigtes Kameranetz im öffentlichen Raum. Dieses wird nicht nur zu Überwachungszwecken und für Ziele der inneren Sicherheit genutzt, sondern dient auch der Legitimation und der Abwicklung von Transaktions- und Zahlungsprozessen, so ist es etwa an vielen Stellen möglich, mittels entsprechender Apps per Gesichtserkennung und personalisiert hinterlegter Kontoinformationen zu zahlen. Im Zuge der Bestrebungen, ein staatliches „Social Credit System“ zur wertkonformen Verhaltensbeeinflussung zu errichten, entstand auch die Idee, die öffentlichen Videosysteme dazu zu nutzen, individuelle Verfehlungen im Straßenverkehr durch eine Art „sozialen Pranger“ zu ahnden. Personen, die eine rote Fußgängerampel missachteten, wurden im Moment des Regelverstoßes, in „Echtzeit“, auf eine Videowand in der Nähe projiziert – zunächst als bloße Erziehungsmaßnahme und abschreckendes Beispiel. Diskutiert wurde jedoch in der Folge, ob man mittels der bereits verwendeten „pay per face“-Technologie und durch die entsprechende Verknüpfung der jeweiligen Datenbanken dieses Verfahren nicht dazu nutzen könne, direkt und automatisiert Bußgelder gegen die überführten Verkehrssünder zu verhängen und sofort von diesen einzuziehen. Ein menschliches Eingreifen wäre dazu dann nicht mehr notwendig, das System übernähme den kompletten Bereich der Tatbestandsermittlung, der Festlegung des Strafmaßes und der Ausführung der Strafe bzw. die zugrundeliegende finanzielle Abwicklung.

Algorithmic Governance: Autonomes Agieren im Kampfeinsatz

In anderen Bereichen der staatlichen Sphäre mit ungleich größerer Tragweite sind solche Automatismen bereits seit längerem in der Praxis etabliert. Dies gilt insbesondere für den militärischen Bereich und die autonome Kriegsführung: Für Aufsehen sorgte zuletzt ein UN-Bericht, der beschrieb, wie eine militärische Drohne in Libyen im Jahr 2020, ohne ausdrückliche menschliche Veranlassung, ein feindliches militärisches Ziel mit ihrem Waffensystem attackierte und eigenständig „Jagd machte“ auf die gegnerischen Verbände. Die selbststeuernde Drohne agierte unabhängig und ohne Datenverbindung zum menschlichen Militärpersonal. Damit entfiel hier selbst die ansonsten bei autonomen Militärschlägen mit potenziell tödlicher Wirkung vorgesehene menschliche Freigabe. Das System agierte auf Basis seiner KI völlig losgelöst. Damit würde dieser Vorfall ein nahezu reines Beispiel für Autonomes Agieren von Algorithmen im staatlichen Auftrag beschreiben. Auch wenn hierfür der Begriff der Governance womöglich eine etwas weitgehende Spreizung erfährt, markiert dies den potenziellen Handlungsrahmen und die Einsatzmöglichkeiten zukünftiger AI Governance recht eindrucksvoll.

Im nächsten Beitrag, der Fortsetzung dieser Reihe zur Algorithmic Governance, widmen wir uns der Legititmationsproblematik algorithmischer und KI-basierter Entscheidungen in der Politik.

Der Artikel erschien in überarbeiteter und deutlich erweiterter Form in der SWS-Rundschau, Andreas Wagener: Demokratische Legitimation von AI Governance, Sozialwissenschaftliche Rundschau, Heft 4/2021, 61. Jahrgang, S. 369 – 390

Vortrag/Keynote von Prof. Dr. Andreas Wagener: „Wie der Staat mit Daten umgeht. Was ist gesellschaftlich akzeptabel?“:

Mehr Informationen zum Thema KI im Marketing finden Sie im Buch von Andreas Wagener Künstliche Intelligenz im Marketing – ein Crashkurs, Haufe, Freiburg, 2019:

gedruckt:                als eBook:

Mehr zu Themen wie Industrie 4.0, Big Data, Künstliche Intelligenz, Digital Commerce und Digitaler Ökonomie finden Sie auf unserer Newsseite auf XING sowie auf Facebook.

One thought on “Kategorien und Erscheinungsformen von Algorithmic Governance

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.