<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Responsible AI Archive - Nerdwärts.de</title>
	<atom:link href="https://nerdwaerts.de/tag/responsible-ai/feed/" rel="self" type="application/rss+xml" />
	<link>https://nerdwaerts.de/tag/responsible-ai/</link>
	<description>Digitaler Wandel &#38; Digitale Bildung</description>
	<lastBuildDate>Tue, 15 Oct 2024 12:28:38 +0000</lastBuildDate>
	<language>de</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	

<image>
	<url>https://nerdwaerts.de/wp-content/uploads/2015/01/cropped-ASCII-Kompass_AW-32x32.gif</url>
	<title>Responsible AI Archive - Nerdwärts.de</title>
	<link>https://nerdwaerts.de/tag/responsible-ai/</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Transparenz und Verantwortung: Das Legitimationsproblem algorithmischer Entscheidungen in der Politik</title>
		<link>https://nerdwaerts.de/2022/03/transparenz-und-verantwortung-das-legitimationsproblem-algorithmischer-entscheidungen-in-der-politik/</link>
					<comments>https://nerdwaerts.de/2022/03/transparenz-und-verantwortung-das-legitimationsproblem-algorithmischer-entscheidungen-in-der-politik/#respond</comments>
		
		<dc:creator><![CDATA[Andreas Wagener]]></dc:creator>
		<pubDate>Tue, 01 Mar 2022 10:09:47 +0000</pubDate>
				<category><![CDATA[Allgemein]]></category>
		<category><![CDATA[Daten- & Algorithmusökonomie]]></category>
		<category><![CDATA[Digitale Bildung]]></category>
		<category><![CDATA[Internet of Things]]></category>
		<category><![CDATA[Kommentar]]></category>
		<category><![CDATA[Politik & Digitalisierung]]></category>
		<category><![CDATA[Vorratsdatenspeicherung]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[AI Governance]]></category>
		<category><![CDATA[Algorithm Economy]]></category>
		<category><![CDATA[Algorithmic Bias]]></category>
		<category><![CDATA[Algorithmic Governance]]></category>
		<category><![CDATA[Algorithmusökonomie]]></category>
		<category><![CDATA[Artificial Intelligence]]></category>
		<category><![CDATA[Digitalisierung]]></category>
		<category><![CDATA[Explainable AI]]></category>
		<category><![CDATA[KI]]></category>
		<category><![CDATA[Künstliche Intelligenz]]></category>
		<category><![CDATA[Politische Disruption]]></category>
		<category><![CDATA[Predictive Policing]]></category>
		<category><![CDATA[Racial Profiling]]></category>
		<category><![CDATA[Responsible AI]]></category>
		<guid isPermaLink="false">https://nerdwaerts.de/?p=2036</guid>

					<description><![CDATA[<p>Im Zuge von Algorithmic Governance wird zunehmend auf den Einsatz von Algorithmen und KI für Entscheidungen und deren Ausführung in der praktischen Politik zurückgegriffen. Aber wie lassen sich diese Eingriffe demokratisch legitimieren und unter gesellschaftlichen Aspekten rechtfertigen? In den beiden vorangegangenen Beiträgen haben wir uns mit der Beschaffenheit von algorithmischen Entscheidungen und dem Problem des [&#8230;]</p>
<p>Der Beitrag <a href="https://nerdwaerts.de/2022/03/transparenz-und-verantwortung-das-legitimationsproblem-algorithmischer-entscheidungen-in-der-politik/">Transparenz und Verantwortung: Das Legitimationsproblem algorithmischer Entscheidungen in der Politik</a> erschien zuerst auf <a href="https://nerdwaerts.de">Nerdwärts.de</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<p><strong><strong><strong><strong><strong>Im Zuge von Algorithmic Governance wird zunehmend auf den Einsatz von Algorithmen und KI für Entscheidungen und deren Ausführung in der praktischen Politik zurückgegriffen. Aber wie lassen sich diese Eingriffe demokratisch legitimieren und unter gesellschaftlichen Aspekten rechtfertigen?</strong></strong></strong></strong></strong></p>



<img decoding="async" src="http://vg08.met.vgwort.de/na/11cd627394904af9ac63a245a7fa95e1" width="1" height="1" alt="">



<span id="more-2036"></span>



<img decoding="async" src="http://vg08.met.vgwort.de/na/11cd627394904af9ac63a245a7fa95e1" width="1" height="1" alt="">



<p>In den beiden vorangegangenen Beiträgen haben wir uns mit der <a href="https://nerdwaerts.de/2022/01/algorithmic-governance-ki-und-algorithmen-in-der-politik/">Beschaffenheit von algorithmischen Entscheidungen und dem Problem des Einsatzes von KI in der Politik</a> (<a href="https://nerdwaerts.de/?s=AI+Governance&amp;submit=Search" target="_blank" rel="noreferrer noopener">AI Governance</a>) <a href="https://nerdwaerts.de/2022/01/algorithmic-governance-ki-und-algorithmen-in-der-politik/" target="_blank" rel="noreferrer noopener">(Teil 1)</a> sowie mit den <a href="https://nerdwaerts.de/2022/02/kategorien-und-erscheinungsformen-von-algorithmic-governance" target="_blank" rel="noreferrer noopener">entsprechenden Einsatzfeldern (Teil 2)</a> beschäftigt. Nachdem der Rückgriff auf diese Verfahren bereits faktisch erfolgt, gilt es dringend die Rechtmäßigkeit und Legitimität dieses Einsatzes zu hinterfragen.</p>



<p>Für die Akzeptanz algorithmischer Entscheidungen ist deren Nachvollziehbarkeit von großer Bedeutung. Je mehr Daten aus unterschiedlichen Datenquellen zur Verfügung stehen, umso komplexer geraten jedoch zwangsläufig die zugrundeliegenden Berechnungen. In der Praxis sind die Entscheidungspfade von <a href="https://nerdwaerts.de/2019/06/maschinelles-lernen-und-ki-im-marketing-lernmethoden-und-ihre-einsatzmoeglichkeiten-im-marketing/" target="_blank" rel="noreferrer noopener">KI </a>heute oft nur durch ein aufwändiges „reverse engineering“ zu entschlüsseln. Transparenz ist allerdings wichtig, damit verständlich ist, warum eine Entscheidung auf diese Art und Weise getroffen wurde – und sich davon Betroffene gegebenenfalls mit den Mitteln des demokratischen Rechtsstaats dagegen zur Wehr setzen können. <a href="https://www.europarl.europa.eu/news/de/press-room/20200206IPR72015/kunstliche-intelligenz-parlament-will-faire-und-sichere-nutzung-fur-verbraucher" target="_blank" rel="noreferrer noopener">Schon seit geraumer Zeit wird daher eine Art Bürgerrecht auf die Offenlegung algorithmischer Entscheidungen diskutiert.</a> Die Komplexität moderner, vielschichtiger „Deep Learning“-Systeme und die ihnen immanente Eigenständigkeit bei der Weiterentwicklung der Entscheidungssystematiken erschweren diese Rekonstruktion jedoch erheblich. Diesem Aspekt widmet sich das noch neue Forschungsfeld der „<a href="https://de.wikipedia.org/wiki/Explainable_Artificial_Intelligence" target="_blank" rel="noreferrer noopener">Explainable AI</a>“, welches zum Ziel hat, <a href="https://openaccess.city.ac.uk/id/eprint/23405/" target="_blank" rel="noreferrer noopener">Handreichungen für die Erklärung von KI-Entscheidungen im Alltag zu liefern</a> – zum Beispiel warum ein Versicherungsantrag abgelehnt oder die Kreditwürdigkeit eines Schuldners herabgestuft wurde – und auch um mögliche Diskriminierungen in diesem Kontext aufzudecken.</p>



<h2 class="wp-block-heading" id="algorithmic-governance-und-algorithmic-bias">Algorithmic Governance und Algorithmic Bias</h2>



<p>Neben rational nachvollziehbaren Entscheidungswegen stehen hierbei auch technische Auswüchse und Fehlentwicklungen, wie der sogenannte „Algorithmic Bias“ im Fokus. Immer wieder kommt es zu einem vermeintlichen Versagen von algorithmischen Systemen, die plötzlich scheinbar irrationale, auch ethisch frag- oder verurteilungswürdige Ergebnisse produzieren. Die Ursache hierfür liegt allerdings meist nicht in der Systemstruktur, sondern im Lernprozess und ist in der Regel auf eine unausgewogene Zuführung von Trainingsdaten zurückzuführen.</p>



<p>Zu einer entsprechend zweifelhaften Berühmtheit brachte es ein von Google verwendeter Bilderkennungsalgorithmus, der Fotos autonom benannte und sortierte.&nbsp; Eine Aufnahme, die zwei Afroamerikaner zeigte, wurde mit der Bezeichnung „Gorillas“ etikettiert und verarbeitet. <a href="https://www.wsj.com/articles/BL-DGB-42522" target="_blank" rel="noreferrer noopener">Der Aufschrei vor allem in den USA war entsprechend groß</a>. Als Ursache wurde eine unbeabsichtigte einseitige Auswahl und Verwendung von Trainingsbildmaterial identifiziert. Offenbar hatte man vorwiegend Fotos von hellhäutigen Personen für das Training der Kategorie Mensch verwendet, die Zuordnung eines Bildes eines dunkelhäutigen Menschen durch den Algorithmus erfolgte dann zwangsläufig unter großer Unsicherheit: Je nachdem welches Merkmal der Algorithmus als signifikant für die Zuordnung zu einer Kategorie identifizierte – auch Gorillas haben schwarze Haut – <a href="https://qz.com/1064035/google-goog-explains-how-artificial-intelligence-becomes-biased-against-women-and-minorities/" target="_blank" rel="noreferrer noopener">wurde die Sortierung entsprechend ausgeführt</a>. Dass sich auch Facebook etliche Jahre später, im Jahr 2021, mit einer vergleichbaren Problematik konfrontiert sah – der Newsfeed-Algorithmus fragte Nutzer, <a href="https://www.nytimes.com/2021/09/03/technology/facebook-ai-race-primates.html" target="_blank" rel="noreferrer noopener">die sich ein Video mit dem Titel „Weißer Mann ruft Polizei wegen schwarzen Männern am Hafen“ angesehen hatten, ob sie nun „weitere Videos über Primaten“ sehen wollten</a> – zeigt, wie schwierig es offensichtlich ist, hier eine zufriedenstellende technische Lösung zu finden. Gerade im staatlichen Kontext wäre es aber selbstverständlich höchst problematisch, wenn Menschen nicht mehr als solche identifiziert werden.</p>



<h2 class="wp-block-heading" id="predictive-policing-als-algorithmic-governance">Predictive Policing als Algorithmic Governance</h2>



<p>Im Bereich der staatlichen Governance sorgt in diesem Zusammenhang regelmäßig das sogenannte „Predictive Policing“ für Aufsehen, das vor allem in den USA, aber auch zunehmend in Europa zum Einsatz kommt. Mit dem Ziel, die Polizeiarbeit auf diese Weise effizienter zu steuern, soll die Wahrscheinlichkeit „zukünftiger“ Straftaten oder des Eintritts anderer polizeilicher Einsatzszenarien, aus einer Vielzahl von verfügbaren Datenquellen berechnet werden. <a href="https://openscholarship.wustl.edu/cgi/viewcontent.cgi?article=6306&amp;context=law_lawreview" target="_blank" rel="noreferrer noopener">Durch die entsprechend daraus abgeleitete erhöhte Präsenz in ermittelten Problembezirken soll es gelingen, die Kriminalitätsraten erheblich zu senken</a>. Kritiker bemängeln allerdings die damit ihrer Ansicht nach zwangsläufig einhergehende Diskriminierung, werden hier doch alle Bewohner eines Stadtteils automatisiert unter Generalverdacht gestellt, sofern die hinterlegten Algorithmen ihre Nachbarn „statistisch“ als vergleichsweise kriminell einstufen. Auch sind in den USA überwiegend afroamerikanische Gegenden von den zusätzlichen Polizeikontrollen betroffen, was dem System den Vorwurf der Ungleichbehandlung und des „Racial Profiling“&nbsp;einbrachte. Die Funktionsweise der algorithmischen Entscheidungsfindung definiert somit in diesem Fall den Umgang des Staates mit seinen Angehörigen, teilt diese automatisiert in mehr- und minderprivilegierte Gruppen und wirkt mit diesem „Bias“ unweigerlich auf den Bereich der Bürgerrechte ein.</p>



<h2 class="wp-block-heading" id="algorithmic-governance-und-transparenz">Algorithmic Governance und Transparenz</h2>



<p>Die Gewährleistung von Transparenz verkörpert gerade in „Sachfragen“ seit jeher eine wichtige erste Bedingung zum Schutz vor Verzerrungen und Manipulationen. Gerade da, wo eine direkte politische Aufsicht durch entsprechende Institutionen nicht möglich oder nicht zweckmäßig erscheint, ist im demokratischen Staat eine Überwachung durch das öffentliche Publikum unabdingbar. Aber nur, wenn staatliches Handeln hier tatsächlich sichtbar und „durchschaubar“ wird, kann die Öffentlichkeit dieser Kontrollfunktion auch gerecht werden.</p>



<p>Neben der Nachvollziehbarkeit ist auch die Zuweisung von Verantwortlichkeiten von Governance-Entscheidungen und die dazugehörige Rechenschaftspflicht, also die „Accountability“, für die Funktionsweise des demokratischen Staates unerlässlich. Sofern die Abwicklung politischer Prozesse von den menschlichen Repräsentanten eines Staates gewissermaßen auf eine technische Lösung „outgesourced“ wird, so ist deren Arbeitsweise einerseits aufgrund von Effizienzerfordernissen, andererseits aber auch hinsichtlich der Vereinbarkeit der generierten Ergebnisse mit den staatlichen Zielen regelmäßig zu überprüfen.&nbsp;</p>



<h2 class="wp-block-heading" id="verantwortung-und-algorithmic-governance">Verantwortung und Algorithmic Governance</h2>



<p>Die Zurechenbarkeit politischer Handlungen ist in der Demokratie essentiell. Sie kann in diesem Kontext jedoch nur gewährleistet werden, wenn der Einsatz von Algorithmen ausdrücklich als Hilfsmittel der demokratisch legitimierten menschlichen Vertreter betrachtet wird – jedenfalls so lange es nicht möglich ist, den Algorithmus aufgrund von Unzufriedenheit mit den erbrachten Leistungen direkt selbst zu sanktionieren – also abzuwählen. Wenn diese – langfristig durchaus technisch denkbare &#8211; Option nicht besteht, bedeutet das, dass die Leistung eingesetzter Algorithmen zwingend mit den gewählten Repräsentanten des Staates, die diesen Einsatz verantworten, verknüpfbar sein muss. Dies bedeutet wiederum, dass nicht nur demokratische Kontrollinstanzen, sondern vor allem auch diejenigen, die den Einsatz von Algorithmen im Bereich der Governance verantworten, nachvollziehen und verstehen müssen, wie und warum diese auf ihre spezifische Weise funktionieren (oder eben nicht). Das kommt besonders dann zum Tragen, wenn die algorithmische Entscheidung einen hohen Automatisierungsgrad aufweist – in aller Regel bereits ab der <a href="https://nerdwaerts.de/2022/02/kategorien-und-erscheinungsformen-von-algorithmic-governance" target="_blank" rel="noreferrer noopener">beschriebenen Kategorie A2, in jedem Fall bei A3</a>, im Falle „echter“ <a href="https://nerdwaerts.de/?s=AI+Governance&amp;submit=Search" target="_blank" rel="noreferrer noopener">AI-Governance</a>.</p>



<h2 class="wp-block-heading" id="explainable-ai-und-responsible-ai">Explainable AI und Responsible AI</h2>



<p>Der in jüngster Zeit verstärkt verwendete Begriff der „<a href="https://www.gartner.com/en/documents/3988006/hype-cycle-for-artificial-intelligence-2020" target="_blank" rel="noreferrer noopener">Responsible AI</a>“ erweitert den oben genannten Terminus der „Explainable AI“. Er steht für den Übergang von Absichtserklärungen und formulierten Grundprinzipien hin zu einer Operationalisierung der Verantwortlichkeiten und Rechenschaftspflichten, auch, aber nicht ausschließlich, im Bereich der <a href="https://nerdwaerts.de/2022/01/algorithmic-governance-ki-und-algorithmen-in-der-politik/" target="_blank" rel="noreferrer noopener">Algorithmic Governance</a>. Gleichwohl sind diese Bestrebungen in der Umsetzung derzeit noch als recht rudimentär einzuordnen – <a href="https://www.gartner.com/en/documents/3988006/hype-cycle-for-artificial-intelligence-2020" target="_blank" rel="noreferrer noopener">zumindest was komplexere, KI-basierte Algorithmen betrifft</a>. Das bedeutet, dass sich zwar alle Ansätze zur demokratischen Legitimation von <a href="https://nerdwaerts.de/2022/01/algorithmic-governance-ki-und-algorithmen-in-der-politik/" target="_blank" rel="noreferrer noopener">Algorithmic Governance</a> selbstverständlich am Umgang mit den beschriebenen Herausforderungen im Bereich der Transparenz und Accountability messen lassen müssen, gleichzeitig aber auch, dass dies vermutlich nur schwer mittels herkömmlicher Modelle und Vorgehensweisen gelingen wird.</p>



<h2 class="wp-block-heading" id="grenzen-von-algorithmich-governance-und-ihrer-demokratischen-legitimation">Grenzen von Algorithmich Governance und ihrer demokratischen Legitimation</h2>



<p>Man könnte die Auffassung vertreten, dass angesichts der Bedeutung, die Algorithmen heute in unserem Alltag einnehmen, vielleicht bereits das Ende des Anthropozäns eingeläutet worden ist und wir damit nun am Anfang eines „posthumanen“ Zeitalters stehen. Das gilt vor allem dann, wenn man auf die Entwicklungen im Bereich der <a href="https://nerdwaerts.de/2019/06/maschinelles-lernen-und-ki-im-marketing-lernmethoden-und-ihre-einsatzmoeglichkeiten-im-marketing/" target="_blank" rel="noreferrer noopener">KI</a> und den entsprechenden Autonomiegrad solcher hoch entwickelten Systeme blickt. Entsprechend werden schließlich auch unter dem Aspekt der „Singularität“ die gesellschaftlichen und ökonomischen Auswirkungen <a href="https://philpapers.org/rec/BOSS" target="_blank" rel="noreferrer noopener">diskutiert</a>, sollten Algorithmen und intelligente Systeme eines – nicht allzu fernen – Tages die menschliche Leistungs- und Adaptionsfähigkeit übertroffen haben.</p>



<p>De Facto sind Algorithmen heute schon nicht mehr rein technisch-rationale Konstrukte. Sie repräsentieren auch immer den Einfluss derjenigen, die an ihrer Entstehung beteiligt sind, sowohl politisch als auch technisch. Insofern können sie als eine Art „Amalgam“ aus Mensch und Code verstanden werden. In dieser Auffassung spiegelt sich das Grundprinzip der Denkschule des „Neuen Materialismus“ wider. Demnach erschiene es zunehmend unangebracht, zwischen Menschen und Nichtmenschen, Leben und nicht lebendiger Materie und auch zwischen Akteuren und Strukturen zu unterscheiden. Vielmehr vermischen sich Menschen und Computeralgorithmen zu „sozio-materiellen Assemblagen“ (Kim 2020), wodurch neue Handlungsfähigkeiten und daraus resultierende Wirkungsweisen entstehen.</p>



<h2 class="wp-block-heading" id="von-algorithmic-governance-zur-governance-of-things">Von Algorithmic Governance zur Governance of Things</h2>



<p>In Anlehnung an das vielzitierte „Internet der Dinge“ („<a href="https://nerdwaerts.de/?s=Internet+of+Things&amp;submit=Search" target="_blank" rel="noreferrer noopener">Internet of Things</a>“) könnte auf diese Weise dann eine „Governance of Things“ entstehen. Die menschlichen Systementwickler diktierten dabei nicht die Funktionsweise des Algorithmus, die Governance entstünde aus dem Zusammenwirken von Algorithmus und Systementwicklern, explizit etwa beim menschlich induzierten Training mit <a href="https://nerdwaerts.de/2019/06/maschinelles-lernen-und-ki-im-marketing-lernmethoden-und-ihre-einsatzmoeglichkeiten-im-marketing/" target="_blank" rel="noreferrer noopener">KI</a>-Daten und der daraus resultierenden autonomen Lernentwicklung des Systems. Dieser Vorgang beinhaltet laufende Interaktionen und Iterationsschleifen zwischen beiden „Parteien“ und führt damit zu einer Verselbständigung dieser „Amalgambildung“.</p>



<h2 class="wp-block-heading" id="spannungsfelder-von-algorithmic-governance">Spannungsfelder von Algorithmic Governance</h2>



<p>Die Frage ist jedoch, ob diese Betrachtungsweise der Legitimation algorithmischer politischer Entscheidungen dienen kann. Wie wir gesehen haben, bewegt sich <a href="https://nerdwaerts.de/?s=Algorithmic+Governance&amp;submit=Search" target="_blank" rel="noreferrer noopener">Algorithmic Governance</a> in einem Spannungsfeld zwischen mehreren verschiedenen Polen, was es immens erschwert, hierauf eine eindeutige Antwort zu geben:</p>



<p>Einerseits kann sie für politische Ergebniseffizienz sorgen, indem die das menschliche Vermögen übersteigenden Rechenleistungen zielgerichtet eingesetzt werden. Andererseits besteht die Gefahr, dass damit im Einzelfall bürgerliche Rechte eingeschränkt werden oder dies Diskriminierung zur Folge hat, wenn Effizienz das ausschlaggebende Element von Politik wird.</p>



<p>Einerseits sorgt der Rückgriff auf Algorithmen für eine Versachlichung politischer Entscheidungen. Andererseits kann genau dies auch zu einer Entmenschlichung führen, wenn Einzelschicksale zu Gunsten „des großen Ganzens“ in automatisierten Entscheidungssituationen keine Berücksichtigung finden können.</p>



<p>Einerseits ist Transparenz der Entscheidungsprozesse ein wichtiges Legitimationserfordernis. Andererseits beinhaltet dies auch eine weitgehende Transparenz des Individuums, denn anders können spezifische Entscheidungen durch Algorithmen nicht effizient getroffen werden, wodurch aber das Bürgerrecht der informationellen Selbstbestimmung tangiert wird.</p>



<p>Diese Spannungsfelder berühren den Kern vieler hochrelevanter gesellschaftspolitischer Themen. Es erscheint schwer vorstellbar, diese bislang in allen Demokratien der Welt immer wieder aufs Neue auszuhandelnden Fragen einem letztlich doch seelenlosen System anzuvertrauen oder ihm hier zumindest ein qualitatives „Mitspracherecht“ einzuräumen &#8211; jedenfalls solange ein posthumanes Zeitalter noch nicht eingetreten ist. Und würde nicht gerade der regelmäßige Einsatz von intelligenten Algorithmen in der Politik dessen möglichen Eintritt beschleunigen?&nbsp;</p>



<h2 class="wp-block-heading" id="algorithmic-governance-vs-ai-governance">Algorithmic Governance vs. AI Governance</h2>



<p>Der Unterschied zwischen „<a href="https://nerdwaerts.de/?s=Algorithmic+Governance&amp;submit=Search" target="_blank" rel="noreferrer noopener">Governance by Algorithms</a>“ und „<a href="https://nerdwaerts.de/?s=AI+Governance&amp;submit=Search" target="_blank" rel="noreferrer noopener">Governance by AI</a>“ ist im eigenständigen Lernen und dem Autonomiegrad algorithmischer Entscheidungen zu sehen. Solange Algorithmen ein bloßes Hilfsmittel der Regierungsarbeit darstellen, die Kontrolle bei den menschlichen Entscheidern verbleibt – <a href="https://nerdwaerts.de/2022/02/kategorien-und-erscheinungsformen-von-algorithmic-governance" target="_blank" rel="noreferrer noopener">so wie im vorigen Artikel in dieser Reihe in der Kategorie A1 beschrieben</a> – können diese einen wichtigen und wertvollen Beitrag zur praktischen Politik leisten, indem sie Entscheidungen tatsächlich effizienter, sachlicher und transparenter machen. Mindestens aber, wenn von „echter“ <a href="https://nerdwaerts.de/?s=AI+Governance&amp;submit=Search" target="_blank" rel="noreferrer noopener">AI Governance</a> die Rede ist, aber eigentlich schon bei der <a href="https://nerdwaerts.de/2022/02/kategorien-und-erscheinungsformen-von-algorithmic-governance" target="_blank" rel="noreferrer noopener">zweiten, nicht gänzlich autonomen Kategorie (A2)</a>, werden schnell die Grenzen legitimer Einsatzszenarien überschritten. Eine Legitimation nach demokratietheoretischen (humanistischen) Gesichtspunkten ist dann eigentlich nicht denkbar. Für den demokratischen Staat kann das dann aber in letzter Konsequenz nur bedeuten, dass <a href="https://nerdwaerts.de/?s=AI+Governance&amp;submit=Search" target="_blank" rel="noreferrer noopener">AI Governance</a> in sämtlichen Bereichen der staatlichen Sphäre ausgeschlossen werden sollte – mit allen Konsequenzen, die dies auch für bereits erprobte Anwendungen hat.</p>



<p>Solange wir davon ausgehen, dass Politik und gesellschaftliche Prozesse auch in Zeiten zunehmender Komplexität zuallererst Gegenstand zwischenmenschlicher Verhandlungen sind, sollten wir uns der Demokratie willen dieser Verantwortung höchstpersönlich und nicht verschanzt hinter einer Mauer aus Einsen und Nullen stellen.</p>



<h2 class="wp-block-heading"></h2>



<p><em>Der Artikel erschien in überarbeiteter und deutlich erweiterter Form in der SWS-Rundschau, Andreas Wagener: Demokratische Legitimation von AI Governance, Sozialwissenschaftliche Rundschau, Heft 4/2021, 61. Jahrgang, S. 369 &#8211; 390</em></p>



<p></p>



<h2 class="wp-block-heading"></h2>



<p><strong>Vortrag/Keynote von Prof. Dr. Andreas Wagener: &#8222;Wie der Staat mit Daten umgeht.</strong> <strong>Was ist gesellschaftlich akzeptabel?&#8220;:   </strong></p>



<h2 class="wp-block-heading"></h2>



<iframe width="560" height="315" src="https://www.youtube.com/embed/HCrHE-fSLx0" title="YouTube video player" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture" allowfullscreen=""></iframe>



<p><em>
Mehr Informationen zum Thema KI im Marketing finden Sie im Buch von <a href="https://nerdwaerts.de/keynotes/" target="_blank" rel="noopener noreferrer">Andreas Wagener</a> <a href="https://www.amazon.de/K%C3%BCnstliche-Intelligenz-Marketing-verbirgt-profitieren/dp/3648169572?__mk_de_DE=%C3%85M%C3%85%C5%BD%C3%95%C3%91&#038;crid=3LEYA68C1IHK9&#038;dib=eyJ2IjoiMSJ9.F0DFVjJXx3RDUq5AFGWmW72IYdQUzCcPngROcCJNE8MrT5C61IF2XaAkWPd_le2b5NPhi5td5gIJMn6bRqSJciSKGXyMa6Rl2rf8dzSbVR6sTRH9Exy9GurFiPKH0yYGAZsFgvQG6NeyubdeZNaRWEVcjwmhJmc_nJl4oafIWLlMbBn9e6hu_Jy3DVmk4iAv3Lg4OEXfVaJm88L9Q4G9iDM7nArvced8A0fx9Qj9qe0.nP-dKqYU-gE_d5W1Xtmrr8y7DR5pgrkPbPFkThWYiuY&#038;dib_tag=se&#038;keywords=Wagener+KI+im+Marketing&#038;qid=1728994048&#038;sprefix=wagener+ki+im+marketing%2Caps%2C94&#038;sr=8-1&#038;linkCode=ll1&#038;tag=nerdwaerts-21&#038;linkId=e5074a981472dec11b04d62f77503207&#038;language=de_DE&#038;ref_=as_li_ss_tl">Künstliche Intelligenz im Marketing</a>, Haufe, Freiburg, 2023</em></p>



<p>Mehr zu Themen wie Industrie 4.0, Big Data, Künstliche Intelligenz, Digital Commerce und Digitaler Ökonomie finden Sie auf unserer <a href="https://www.xing.com/news/pages/nerdwarts-de-316?sc_o=da980_e" target="_blank" rel="noopener noreferrer">Newsseite auf XING</a> sowie auf <a href="https://www.facebook.com/nerdwaerts/" target="_blank" rel="noopener noreferrer">Facebook</a>.</p>
<p>Der Beitrag <a href="https://nerdwaerts.de/2022/03/transparenz-und-verantwortung-das-legitimationsproblem-algorithmischer-entscheidungen-in-der-politik/">Transparenz und Verantwortung: Das Legitimationsproblem algorithmischer Entscheidungen in der Politik</a> erschien zuerst auf <a href="https://nerdwaerts.de">Nerdwärts.de</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://nerdwaerts.de/2022/03/transparenz-und-verantwortung-das-legitimationsproblem-algorithmischer-entscheidungen-in-der-politik/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
	</channel>
</rss>
