<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>AI Governance Archive - Nerdwärts.de</title>
	<atom:link href="https://nerdwaerts.de/tag/ai-governance/feed/" rel="self" type="application/rss+xml" />
	<link>https://nerdwaerts.de/tag/ai-governance/</link>
	<description>Digitaler Wandel &#38; Digitale Bildung</description>
	<lastBuildDate>Tue, 13 Jan 2026 12:48:43 +0000</lastBuildDate>
	<language>de</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	

<image>
	<url>https://nerdwaerts.de/wp-content/uploads/2015/01/cropped-ASCII-Kompass_AW-32x32.gif</url>
	<title>AI Governance Archive - Nerdwärts.de</title>
	<link>https://nerdwaerts.de/tag/ai-governance/</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Carl Schmitt und das Silicon Valley: der Nerdwärts-Podcast</title>
		<link>https://nerdwaerts.de/2025/12/carl-schmitt-und-das-silikon-valley-der-nerdwaerts-podcast/</link>
					<comments>https://nerdwaerts.de/2025/12/carl-schmitt-und-das-silikon-valley-der-nerdwaerts-podcast/#respond</comments>
		
		<dc:creator><![CDATA[Andreas Wagener]]></dc:creator>
		<pubDate>Sat, 20 Dec 2025 10:04:48 +0000</pubDate>
				<category><![CDATA[Allgemein]]></category>
		<category><![CDATA[Daten- & Algorithmusökonomie]]></category>
		<category><![CDATA[Digitale Bildung]]></category>
		<category><![CDATA[Kommentar]]></category>
		<category><![CDATA[Politik & Digitalisierung]]></category>
		<category><![CDATA[Weird & Strange]]></category>
		<category><![CDATA[#profwag]]></category>
		<category><![CDATA[AI Governance]]></category>
		<category><![CDATA[Algorithmic Governance]]></category>
		<category><![CDATA[Carl Schmitt]]></category>
		<category><![CDATA[Datenökonomie]]></category>
		<category><![CDATA[Digitalisierung]]></category>
		<category><![CDATA[KI]]></category>
		<category><![CDATA[Künstliche Intelligenz]]></category>
		<category><![CDATA[nerdwärts]]></category>
		<category><![CDATA[Podcast]]></category>
		<guid isPermaLink="false">https://nerdwaerts.de/?p=2500</guid>

					<description><![CDATA[<p>Wir haben einen neuen Podcast erstellt zu unserem Thema letzter Woche: die Technolibertarians und Carl Schmitt. Welche Rolle spielt das Freund-Feind-Kriterium des oft als &#8222;Kronjurist des Dritten Reiches&#8220; bezeichneten deutschen Juristen und Staatstheoretikers. Der Nerdwärts-Podcast: Carl Schmitt und das Silicon Valley: Der Podcast wurde mithilfe von NotebookLM aus dem Artikel &#8222;Von der digitalen zur gesellschaftsideologischen [&#8230;]</p>
<p>Der Beitrag <a href="https://nerdwaerts.de/2025/12/carl-schmitt-und-das-silikon-valley-der-nerdwaerts-podcast/">Carl Schmitt und das Silicon Valley: der Nerdwärts-Podcast</a> erschien zuerst auf <a href="https://nerdwaerts.de">Nerdwärts.de</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<p><strong>Wir haben einen neuen Podcast erstellt zu unserem Thema letzter Woche: die Technolibertarians und Carl Schmitt. Welche Rolle spielt das Freund-Feind-Kriterium des oft als &#8222;Kronjurist des Dritten Reiches&#8220; bezeichneten deutschen Juristen und Staatstheoretikers.</strong></p>



<img decoding="async" src="http://vg08.met.vgwort.de/na/623b636f509a4d969e038e774683fbc8" width="1" height="1" alt="">



<span id="more-2500"></span>



<img decoding="async" src="http://vg08.met.vgwort.de/na/623b636f509a4d969e038e774683fbc8" width="1" height="1" alt="">



<h2 class="wp-block-heading">Der Nerdwärts-Podcast: Carl Schmitt und das Silicon Valley:</h2>



<figure class="wp-block-audio"><audio controls src="https://nerdwaerts.de/wp-content/uploads/2025/12/Schmitts_Feind-Freund_im_Silicon_Valley.mp3"></audio></figure>



<p>Der Podcast wurde mithilfe von NotebookLM aus dem Artikel &#8222;<a href="https://nerdwaerts.de/2025/12/von-der-digitalen-zur-gesellschaftsideologischen-transformation-carl-schmitt-und-die-technolibertarians/">Von der digitalen zur gesellschaftsideologischen Transformation: Carl Schmitt und die Technolibertarians</a>&#8222;, erschienen, hier auf <a href="https://nerdwaerts.de/">Nerdwärts</a> erstellt</p>



<pre class="wp-block-code"><code>
</code></pre>



<p></p>



<h2 class="wp-block-heading"><strong>Und für alle, dies es gerne noch plakativer und schneller haben, das Nerdwärts-Video zu Text und Podcast: </strong></h2>



<iframe width="560" height="315" src="https://www.youtube.com/embed/MrKxe80_Md8?si=qtkRvFgYb9AGFqnM" title="YouTube video player" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>



<p>(ebenfalls via NotebookLM)</p>



<p></p>



<p><strong>Mehr zum Thema: Vortrag/Keynote von Prof. Dr. Andreas Wagener: &#8222;Von Cyborgs und Digitalen Lebewesen: Wie generative KI&amp;VR menschliches Leben (und Sterben) verändern&#8220;:    </strong></p>



<iframe width="560" height="315" src="https://www.youtube.com/embed/2tjGPVbKElM?si=tVOpJ9AERWG_MVk3" title="YouTube video player" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>



<p></p>



<p><em>
Mehr Informationen zum Thema KI im Marketing finden Sie im Buch von <a href="https://nerdwaerts.de/keynotes/" target="_blank" rel="noopener noreferrer">Andreas Wagener</a> <a href="https://www.amazon.de/K%C3%BCnstliche-Intelligenz-Marketing-verbirgt-profitieren/dp/3648169572?__mk_de_DE=%C3%85M%C3%85%C5%BD%C3%95%C3%91&#038;crid=3LEYA68C1IHK9&#038;dib=eyJ2IjoiMSJ9.F0DFVjJXx3RDUq5AFGWmW72IYdQUzCcPngROcCJNE8MrT5C61IF2XaAkWPd_le2b5NPhi5td5gIJMn6bRqSJciSKGXyMa6Rl2rf8dzSbVR6sTRH9Exy9GurFiPKH0yYGAZsFgvQG6NeyubdeZNaRWEVcjwmhJmc_nJl4oafIWLlMbBn9e6hu_Jy3DVmk4iAv3Lg4OEXfVaJm88L9Q4G9iDM7nArvced8A0fx9Qj9qe0.nP-dKqYU-gE_d5W1Xtmrr8y7DR5pgrkPbPFkThWYiuY&#038;dib_tag=se&#038;keywords=Wagener+KI+im+Marketing&#038;qid=1728994048&#038;sprefix=wagener+ki+im+marketing%2Caps%2C94&#038;sr=8-1&#038;linkCode=ll1&#038;tag=nerdwaerts-21&#038;linkId=e5074a981472dec11b04d62f77503207&#038;language=de_DE&#038;ref_=as_li_ss_tl">Künstliche Intelligenz im Marketing</a>, Haufe, Freiburg, 2023</em></p>



<p></p>



<figure class="wp-block-image size-full is-resized"><a href="https://www.amazon.de/K%C3%BCnstliche-Intelligenz-Marketing-verbirgt-profitieren/dp/3648169572?__mk_de_DE=%C3%85M%C3%85%C5%BD%C3%95%C3%91&amp;crid=3LEYA68C1IHK9&amp;dib=eyJ2IjoiMSJ9.F0DFVjJXx3RDUq5AFGWmW72IYdQUzCcPngROcCJNE8MrT5C61IF2XaAkWPd_le2b5NPhi5td5gIJMn6bRqSJciSKGXyMa6Rl2rf8dzSbVR6sTRH9Exy9GurFiPKH0yYGAZsFgvQG6NeyubdeZNaRWEVcjwmhJmc_nJl4oafIWLlMbBn9e6hu_Jy3DVmk4iAv3Lg4OEXfVaJm88L9Q4G9iDM7nArvced8A0fx9Qj9qe0.nP-dKqYU-gE_d5W1Xtmrr8y7DR5pgrkPbPFkThWYiuY&amp;dib_tag=se&amp;keywords=Wagener+KI+im+Marketing&amp;qid=1728994048&amp;sprefix=wagener+ki+im+marketing%2Caps%2C94&amp;sr=8-1&amp;linkCode=ll1&amp;tag=nerdwaerts-21&amp;linkId=e5074a981472dec11b04d62f77503207&amp;language=de_DE&amp;ref_=as_li_ss_tl"><img loading="lazy" decoding="async" width="345" height="466" src="https://nerdwaerts.de/wp-content/uploads/2024/10/Kuenstliche-Intelligenz-im-Marketing-2023.jpg" alt="" class="wp-image-2211" style="width:248px;height:auto" srcset="https://nerdwaerts.de/wp-content/uploads/2024/10/Kuenstliche-Intelligenz-im-Marketing-2023.jpg 345w, https://nerdwaerts.de/wp-content/uploads/2024/10/Kuenstliche-Intelligenz-im-Marketing-2023-222x300.jpg 222w" sizes="auto, (max-width: 345px) 100vw, 345px" /></a></figure>



<p>Mehr zu Themen wie Industrie 4.0, Big Data, Künstliche Intelligenz, Digital Commerce und Digitaler Ökonomie finden Sie auf unserer <a href="https://www.xing.com/news/pages/nerdwarts-de-316?sc_o=da980_e" target="_blank" rel="noopener noreferrer">Newsseite auf XING</a> sowie auf <a href="https://www.facebook.com/nerdwaerts/" target="_blank" rel="noopener noreferrer">Facebook</a>.</p>
<p>Der Beitrag <a href="https://nerdwaerts.de/2025/12/carl-schmitt-und-das-silikon-valley-der-nerdwaerts-podcast/">Carl Schmitt und das Silicon Valley: der Nerdwärts-Podcast</a> erschien zuerst auf <a href="https://nerdwaerts.de">Nerdwärts.de</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://nerdwaerts.de/2025/12/carl-schmitt-und-das-silikon-valley-der-nerdwaerts-podcast/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		<enclosure url="https://nerdwaerts.de/wp-content/uploads/2025/12/Schmitts_Feind-Freund_im_Silicon_Valley.mp3" length="42672723" type="audio/mpeg" />

			</item>
		<item>
		<title>KI und praktische Politik: Einsatz von KI in staatlichen Entscheidungsprozessen</title>
		<link>https://nerdwaerts.de/2022/04/ki-und-praktische-politik-einsatz-von-ki-in-staatlichen-entscheidungsprozessen/</link>
					<comments>https://nerdwaerts.de/2022/04/ki-und-praktische-politik-einsatz-von-ki-in-staatlichen-entscheidungsprozessen/#respond</comments>
		
		<dc:creator><![CDATA[Andreas Wagener]]></dc:creator>
		<pubDate>Fri, 01 Apr 2022 09:57:35 +0000</pubDate>
				<category><![CDATA[Allgemein]]></category>
		<category><![CDATA[Daten- & Algorithmusökonomie]]></category>
		<category><![CDATA[Internet of Things]]></category>
		<category><![CDATA[Kommentar]]></category>
		<category><![CDATA[Politik & Digitalisierung]]></category>
		<category><![CDATA[Vorratsdatenspeicherung]]></category>
		<category><![CDATA[ADM]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[AI Governance]]></category>
		<category><![CDATA[Algorithmic Governance]]></category>
		<category><![CDATA[Algorithmusökonomie]]></category>
		<category><![CDATA[Daten]]></category>
		<category><![CDATA[Datenökonomie]]></category>
		<category><![CDATA[Digitalisierung]]></category>
		<category><![CDATA[Disruption]]></category>
		<category><![CDATA[KI]]></category>
		<category><![CDATA[Künstliche Intelligenz]]></category>
		<category><![CDATA[Politische Disruption]]></category>
		<guid isPermaLink="false">https://nerdwaerts.de/?p=2043</guid>

					<description><![CDATA[<p>Während wir hierzulande noch über eine etwas diffus als „eGovernance“ umschriebene „Digitalisierung der Verwaltung“ sinnieren, bei der wir auch im europäischen Vergleich gegenüber Ländern wie Estland deutlich hinterherhinken, wird andernorts bereits der Einsatz intelligenter Datenauswertungsverfahren und der Rückgriff auf Algorithmen bei der Findung und Exekutive staatlicher Entscheidungen erprobt. In der internationalen akademischen Diskussion hat sich [&#8230;]</p>
<p>Der Beitrag <a href="https://nerdwaerts.de/2022/04/ki-und-praktische-politik-einsatz-von-ki-in-staatlichen-entscheidungsprozessen/">KI und praktische Politik: Einsatz von KI in staatlichen Entscheidungsprozessen</a> erschien zuerst auf <a href="https://nerdwaerts.de">Nerdwärts.de</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<p><strong>Während wir hierzulande noch über eine etwas diffus als „eGovernance“ umschriebene „Digitalisierung der Verwaltung“ sinnieren, bei der wir auch im europäischen Vergleich gegenüber Ländern wie Estland deutlich hinterherhinken, wird andernorts bereits der Einsatz intelligenter Datenauswertungsverfahren und der Rückgriff auf Algorithmen bei der Findung und Exekutive staatlicher Entscheidungen erprobt. In der internationalen akademischen Diskussion hat sich inzwischen das Forschungsfeld der „Algorithmic Governance“ etabliert, welches sich vor allem mit dem Aspekt der Ergänzung oder des vollständigen Ersatzes menschlicher politischer Entscheidungen durch datenbasierte Technologie, wie vor allem auch KI, befasst.</strong></p>



<img loading="lazy" decoding="async" src="http://vg08.met.vgwort.de/na/11cd627394904af9ac63a245a7fa95e1" width="1" height="1" alt="">



<span id="more-2043"></span>



<img loading="lazy" decoding="async" src="http://vg08.met.vgwort.de/na/11cd627394904af9ac63a245a7fa95e1" width="1" height="1" alt="">



<p><a href="https://nerdwaerts.de/?s=Algorithmic+Governance&amp;submit=Search" target="_blank" rel="noreferrer noopener">Algorithmic Governance</a> kann allgemein als die automatisierte Entscheidungsfindung und -ausführung von institutionellem Handeln, vor allem der Politik, auf Basis von Datenauswertungen und Algorithmen begriffen werden. Zunehmend machen Staat und Verwaltung dabei von Verfahren des maschinellen Lernens und <a href="https://nerdwaerts.de/?s=KI&amp;submit=Search" target="_blank" rel="noreferrer noopener">KI</a> Gebrauch. Dies setzt entsprechend eine fortschreitende Digitalisierung politischer Abläufe und Strukturen voraus.</p>



<p>Als plakatives Beispiel lässt sich hier natürlich China als Vorreiter anführen. Die Vernetzung digitaler Prozesse, insbesondere auch gesellschaftlicher Art, nimmt hier ein Ausmaß an, das sonst wohl nirgends seinesgleichen findet. Durch die enge Anbindung der marktwirtschaftlich geführten Technologiekonzerne, wie Tencent oder AliBaba, an das als autoritär einzustufende politische System entstehen „Datensynergien“, die in pluralistisch-demokratischen Systemen derzeit undenkbar wären. Weitverbreitete Social-Media-Anwendungen, wie der Messenger WeChat, der auch eine vielgenutzte Zahlungsfunktion umfasst, kooperieren eng mit den staatlichen Stellen, die auf diesem Wege <a href=",%20http:/www.wired.co.uk/article/chinese-government-social-credit-score-privacy-invasion">eine umfassende Datensammlung über alle gesellschaftlichen Teilbereiche hinweg verfolgen</a>.</p>



<h2 class="wp-block-heading" id="ki-in-der-politik-china-als-massstab">KI in der Politik: China als Maßstab?</h2>



<p>Genutzt werden sollen diese Daten einerseits im Rahmen des berüchtigten <a href="https://youtu.be/HCrHE-fSLx0?t=1106">chinesischen Social-Scoring-Systems</a>, welches, basierend auf einem an Gamification erinnernden Prinzip, zum Ziel hat, gesellschaftlich konformes und gewünschtes Verhalten der Bürger durch die Schaffung von positiven Anreizen wie auch von Sanktionierungen zu bewirken. Überwacht und „gemessen“ werden können die Verhaltensweisen jedes Einzelnen durch die Auswertungen der Daten aus den zur Verfügung stehenden Quellen der chinesischen Digitalkonzerne. Wer etwa seine Rechnungen immer pünktlich bezahlt, sich positiv über die gesellschaftliche Entwicklung äußert oder ein verantwortungsbewusstes Konsumverhalten an den Tag legt – zum Beispiel indem er durch den Kauf von Windeln bekundet, dass er offenbar als Elternteil mehr Leistung für die Gemeinschaft erbringt –, hat Vorteile gegenüber jenen, die sich eher als „Individualisten“ hervortun, etwa weil ihre Zahlungshistorie entsprechende Positionen für die Ausgaben von Online-Games belegt. Dieser Social Score kann dann über die Vergabe von Privilegien, etwa hinsichtlich der bevorzugten Ausspielung des eigenen Profils bei Dating-Apps bis hin zur Reisefreiheit, <a href="http://www.wired.co.uk/article/chinese-government-social-credit-score-privacy-invasion">entscheiden</a>.</p>



<h2 class="wp-block-heading" id="bussgeld-in-echtzeit">Bußgeld in Echtzeit</h2>



<p>Andererseits werden die geschaffenen digitalen Strukturen aber auch für die direkte staatliche Umsetzung bestehender Regeln und Gesetze genutzt. Der Fortschritt im Bereich der KI und der digitalen Gesichtserkennung ermöglicht es, Normenverstöße „ad hoc“ zu sanktionieren. Ein Überqueren der Straße bei roter Ampel kann über den flächendeckend ausgebreiteten Überwachungsapparat sofort erfasst werden, installierte Kameras mit verknüpfter Gesichtserkennung erlauben es, „Gesetzesbrecher“ umgehend zu identifizieren und die entsprechende Strafe <a href="https://www.scmp.com/tech/china-tech/article/2138960/jaywalkers-under-surveillance-shenzhen-soon-be-punished-text">automatisiert zu verhängen</a>. Exekutive und Judikative agieren somit wahrhaft algorithmisch, in einer strikten binären „wenn-dann“-Verknüpfung, ohne dass eine menschliche Beteiligung zur Durchsetzung der gesellschaftlichen Normen noch notwendig wäre.</p>



<h2 class="wp-block-heading" id="algorithmic-governance-in-demokratien">Algorithmic Governance in Demokratien</h2>



<p>Aber auch in pluralistischen, demokratischen Systemen gibt es Überlegungen, KI und Datenökonomie für die Erfüllung staatlicher Aufgaben heranzuziehen. Estland, wie erwähnt, ein Vorreiter im Bereich der eGovernance, versucht in einem 2019 begonnenen Projekt zu eruieren, ob es, mit dem Ziel, Staatsapparat und politische Prozesse zu verschlanken, sinnvoll ist, spezifische staatliche Funktionen auf eine KI und algorithmische Verfahren auszulagern. Im Fokus steht dabei unter anderem auch die Einrichtung eines „Robo-Richters“, einer rein digitalen Anwendung, die kleinere privatrechtliche Rechtssachen mit einem Streitwert von bis zu €7.000,00 in erster Instanz <a href="https://www.wired.com/story/can-ai-be-fair-judge-court-estonia-thinks-so">autonom bearbeiten soll</a>.</p>



<p>Unterstützend wird derartige Technologie auch in den USA genutzt, wenn Richter über die vorzeitige Entlassung verurteilter Straftäter auf Bewährung entscheiden sollen. Die Software COMPAS errechnet dazu aus 137 erhobenen Merkmalen die individuelle „Rückfall-Wahrscheinlichkeit“. Zwar ist der Richter immer noch frei in seiner Entscheidung, weicht er jedoch von der Empfehlung des Programms ab, so muss er dies gesondert begründen. Das Verfahren ist hochumstritten und gilt als anfällig für den sogenannten „KI-Bias“, bei dem Fehler im <a href="https://nerdwaerts.de/?s=KI&amp;submit=Search">KI</a>-Training – wie etwa die Verwendung einseitiger Trainingsdaten – zur Verfestigung faktischer „Vorurteile“ oder zu Verzerrungen führen. Eine Untersuchung des Nachrichtenmediums „Pro Publica“ belegt eine deutliche Diskriminierung schwarzer Amerikaner durch das System: Weiße, deren Rückfallrisiko COMPAS als niedrig einschätzte, wurden tatsächlich <a href="https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing">viel häufiger wieder straffällig als Schwarze mit niedrigem Risikowert</a>. Eine weitere <a href="https://www.science.org/doi/10.1126/sciadv.aao5580">Studie des Dartmouth College</a> belegte zudem, dass zufällig ausgewählte juristische Laien mit weniger Informationen bei einer Prognose in etwa genauso gut wie der Algorithmus lagen.</p>



<h2 class="wp-block-heading" id="gerechtere-entscheidungen-mit-ki-in-der-politik">Gerechtere Entscheidungen mit KI in der Politik?</h2>



<p>Jedoch verstummt der Ruf nach einem verstärkten Einsatz von KI und verwandter Technologien bei der Ausübung staatlicher Autoritätsfunktionen deswegen nicht. Begründet wird dies etwa mit der Vermeidung menschlicher Voreingenommenheit und der rigorosen Sachlichkeit, die digitale Systeme von vornherein mit sich bringen. Damit verknüpft sich die <a href="https://www.opendemocracy.net/transformation/ziyaad-bhorat/do-we-still-need-human-judges-in-age-of-artificial-intelligence">Hoffnung</a>, dass der Fortschritt derartige technische „Kinderkrankheiten“ mit der Zeit eliminiert, während hingegen ein auf jeden Fall immer bestehender „menschlicher Bias“ damit umgangen werden könne.</p>



<p>Angewandter KI werden aber auch in der praktischen Politik erhebliche Kompetenzen zugesprochen. Gemäß einer <a href="https://docs.ie.edu/cgc/European-Tech-Insights-2019.pdf">Studie des spanischen Center of the Governance of Change</a> würde ein Viertel der Befragten es bevorzugen, dass politische Entscheidungen eher von einer KI als von Politikern aus Fleisch und Blut getroffen werden würden. Darin mag einerseits eine allgemeine und derzeit weit verbreitete Ernüchterung gegenüber der Demokratie und ihrer traditionellen Institutionen zum Ausdruck kommen. Andererseits weist dieses Ergebnis auch auf ein sich wandelndes, zunehmend „technozentrisches“ Weltbild hin, welches jedoch zugleich eine Paradoxie enthüllt, erhoffen sich heute doch viele von der Politik gerade auch einen Schutz vor Technisierung und Disruption.</p>



<h2 class="wp-block-heading" id="tech-unternehmen-und-ki-als-gesellschaftliches-steuerungsinstrument">Tech-Unternehmen und KI als gesellschaftliches Steuerungsinstrument</h2>



<p>Wille und Bereitschaft, intelligente Technologie für die Lösung gesellschaftlicher Probleme einzusetzen sind weit verbreitet. <a href="https://ai.google/social-good">Google will KI gezielt für „gesellschaftliche Herausforderungen“nutzen</a>, konkret etwa auch in der Arbeitsmarktpolitik, im Natur- und Landschaftsschutz oder anderen klassischerweise staatlichen Domänen. Auch in der Wirtschaftspolitik ist eine aktive Einbindung von KI Gegenstand zahlreicher Diskussionen. Durch deren immer besser werdende Prognosefähigkeit können Vorhersagen perspektivisch immer weiter, bis hin zur absoluten Verlässlichkeit perfektioniert werden, <a href="https://www.heise.de/newsticker/meldung/Missing-Link-KI-die-Kuenstlichen-Idioten-des-digitalen-Kapitalismus-4324653.html">so die Argumentation</a>. Jack Ma, Gründer von Alibaba, geht sogar so weit zu sagen, dass die Übertragung derartiger Kompetenzen an eine KI dazu führen würde, dass Marktunsicherheiten generell überwunden werden könnten und dies letztlich erlauben würde, „<a href="https://www.faz.net/aktuell/wirtschaft/kuenstliche-intelligenz/technischer-fortschritt-wo-kuenstliche-intelligenz-zur-religion-wird-15214599.html">die Planwirtschaft zu verwirklichen</a>“. Andrew Ng, oft <a href="https://www.theverge.com/2017/8/8/16107744/deep-learning-ai-online-course-coursera-andrew-ng">als „KI-Pionier“ titulierter</a>, ehemaliger führender Mitarbeiter der KI-Forschungsabteilungen von Google und Baidu und heute einer der maßgeblichen Tech-Investoren auf diesem Gebiet, gibt das Bildungsziel einer „KI-betriebenen Gesellschaft“ aus, die maßgeblich durch intelligente Technologie geprägt wird. Selbst von KI als einer „Friedensmaschine“ ist bei manchem, wie dem renommierten finnischen KI-Forscher Timo Holenka, die Rede sowie von dem <a href="http://www.aljazeera.com/indepth/features/2017/05/scientist-race-build-peace-machine-170509112307430.html">Ziel, Demokratie durch deren Einsatz „besser zu machen“</a>. Statt wichtige gesellschaftliche und politische Entscheidungen einigen wenigen zu überlassen, selbst wenn diese ihr Mandat aus freien und unabhängigen Wahlen beziehen, sollte der Einsatz von KI demnach die „Weisheit der Vielen“ aggregieren, wovon man sich eine höhere Stabilität der demokratischen Systeme verspricht.</p>



<h2 class="wp-block-heading" id="mahnende-stimmen-gegen-den-einsatz-von-ki-in-der-politik">Mahnende Stimmen gegen den Einsatz von KI in der Politik</h2>



<p>Demgegenüber stehen mahnende Stimmen, wie die des französischen Präsidenten Emanuel Macron. Dieser erkennt gleichfalls an, dass die gerade <a href="https://www.wired.com/story/emmanuel-macron-talks-to-wired-about-frances-ai-strategy/">stattfindende technologische Revolution in Wahrheit vor allem auch eine politische ist</a>, weist aber auf die Bedrohungen für die Demokratie durch schlecht im System verankerte KI und deren Beteiligung an der politischen Entscheidungsfindung hin. Noch deutlicher wird der selten um visionäre Ansätze verlegene Tesla-, SpaceX- und Neuralink-Gründer Elon Musk, demzufolge der Rückgriff auf <a href="https://nerdwaerts.de/?s=KI&amp;submit=Search">KI</a> oder gar die Übertragung politischer Kompetenzen an diese einen „<a href="ttps://www.livescience.com/62239-elon-musk-immortal-artificial-intelligence-dictator.html">unsterblichen digitalen Diktator</a>“ erschaffen könnte.</p>



<p>Tatsache ist, dass die Einbindung von <a href="https://nerdwaerts.de/?s=KI&amp;submit=Search">KI</a> als unterstützendes Instrument, aber auch als maßgebliche Instanz der politischen Entscheidungsfindung keine Phantasterei, sondern vielmehr eine sich bereits etablierende Realität darstellt. Der „staatliche Organismus“ wird somit auch innerhalb seines „zentralen Nervensystems“ zunehmend technologisch herausgefordert. Die immer weiter fortschreitende Entwicklung hat bereits eine gesamtgesellschaftliche technologische Transformation eingeleitet. Eine entsprechende breite Diskussion über die Folgen für das Handeln des Staates, die praktische Politik, wäre daher dringend geboten – und zwar jenseits aktueller Diskurse und Weissagungen, die aufgeregt zwischen positiven ökonomischen Zukunftsversprechungen einerseits und düsteren dystopischen Schreckensszenarien andererseits oszillieren.</p>



<h2 class="wp-block-heading" id="ki-in-der-politik-als-disruptive-innovation">KI in der Politik als &#8222;Disruptive Innovation&#8220;</h2>



<p><a href="https://nerdwaerts.de/2018/11/die-blockchain-als-disruptive-innovation-in-der-politik/">Disruptive Innovationen</a> wie der Einsatz von KI in der (politischen) Entscheidungsfindung stellen unzweifelhaft Herausforderungen für Kernfunktionen des nationalen wie auch des internationalen politischen Systems dar. Die Grundlagen der herrschenden Ordnung, Regeln, Institutionen, und damit die Machtpositionen verändern sich tiefgreifend. Digitale Technologien wie KI und maschinelles Lernen versetzen Individuen und Gruppen, die diese zu nutzen wissen, potenziell in die Lage, Dinge zu tun, die bisher Staaten und staatlichen Organisationen vorbehalten waren. <a href="https://brill.com/view/journals/hjd/12/1/article-p90_5.xml?language=en">Diese „digital Ermächtigten“ sind nicht im klassischen Sinne gesellschaftlich legitimiert oder prinzipiell „moralisch gebunden“</a>. Damit stellt sich die grundsätzliche Frage nach der Existenzberechtigung des Staates. Eine ganz neue, eigene gesellschaftliche <a href="https://nerdwaerts.de/?s=politische+disruption&amp;submit=Search">disruptive Qualität</a> ist somit entstanden. Die Aufgabe, diesen mit einer humanen Prägung zu versehen, liegt bei uns.</p>



<p>Das Thema der „<a href="https://nerdwaerts.de/?s=Algorithmic+Governance&amp;submit=Search">Algoritmic Governance</a>“ ist Bestandteil einer 3 teiligen Reihe auf diesem Blog: <a href="https://nerdwaerts.de/2022/01/algorithmic-governance-ki-und-algorithmen-in-der-politik/">zu Teil 1 – hier entlang</a>.</p>



<p></p>



<h2 class="wp-block-heading"></h2>



<p><strong>Vortrag/Keynote von Prof. Dr. Andreas Wagener: &#8222;Wie der Staat mit Daten umgeht.</strong> <strong>Was ist gesellschaftlich akzeptabel?&#8220;:   </strong></p>



<h2 class="wp-block-heading"></h2>



<iframe loading="lazy" width="560" height="315" src="https://www.youtube.com/embed/HCrHE-fSLx0" title="YouTube video player" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture" allowfullscreen=""></iframe>



<p><em>
Mehr Informationen zum Thema KI im Marketing finden Sie im Buch von <a href="https://nerdwaerts.de/keynotes/" target="_blank" rel="noopener noreferrer">Andreas Wagener</a> <a href="https://www.amazon.de/K%C3%BCnstliche-Intelligenz-Marketing-verbirgt-profitieren/dp/3648169572?__mk_de_DE=%C3%85M%C3%85%C5%BD%C3%95%C3%91&#038;crid=3LEYA68C1IHK9&#038;dib=eyJ2IjoiMSJ9.F0DFVjJXx3RDUq5AFGWmW72IYdQUzCcPngROcCJNE8MrT5C61IF2XaAkWPd_le2b5NPhi5td5gIJMn6bRqSJciSKGXyMa6Rl2rf8dzSbVR6sTRH9Exy9GurFiPKH0yYGAZsFgvQG6NeyubdeZNaRWEVcjwmhJmc_nJl4oafIWLlMbBn9e6hu_Jy3DVmk4iAv3Lg4OEXfVaJm88L9Q4G9iDM7nArvced8A0fx9Qj9qe0.nP-dKqYU-gE_d5W1Xtmrr8y7DR5pgrkPbPFkThWYiuY&#038;dib_tag=se&#038;keywords=Wagener+KI+im+Marketing&#038;qid=1728994048&#038;sprefix=wagener+ki+im+marketing%2Caps%2C94&#038;sr=8-1&#038;linkCode=ll1&#038;tag=nerdwaerts-21&#038;linkId=e5074a981472dec11b04d62f77503207&#038;language=de_DE&#038;ref_=as_li_ss_tl">Künstliche Intelligenz im Marketing</a>, Haufe, Freiburg, 2023</em></p>



<p>Mehr zu Themen wie Industrie 4.0, Big Data, Künstliche Intelligenz, Digital Commerce und Digitaler Ökonomie finden Sie auf unserer <a href="https://www.xing.com/news/pages/nerdwarts-de-316?sc_o=da980_e" target="_blank" rel="noopener noreferrer">Newsseite auf XING</a> sowie auf <a href="https://www.facebook.com/nerdwaerts/" target="_blank" rel="noopener noreferrer">Facebook</a>.</p>
<p>Der Beitrag <a href="https://nerdwaerts.de/2022/04/ki-und-praktische-politik-einsatz-von-ki-in-staatlichen-entscheidungsprozessen/">KI und praktische Politik: Einsatz von KI in staatlichen Entscheidungsprozessen</a> erschien zuerst auf <a href="https://nerdwaerts.de">Nerdwärts.de</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://nerdwaerts.de/2022/04/ki-und-praktische-politik-einsatz-von-ki-in-staatlichen-entscheidungsprozessen/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Transparenz und Verantwortung: Das Legitimationsproblem algorithmischer Entscheidungen in der Politik</title>
		<link>https://nerdwaerts.de/2022/03/transparenz-und-verantwortung-das-legitimationsproblem-algorithmischer-entscheidungen-in-der-politik/</link>
					<comments>https://nerdwaerts.de/2022/03/transparenz-und-verantwortung-das-legitimationsproblem-algorithmischer-entscheidungen-in-der-politik/#respond</comments>
		
		<dc:creator><![CDATA[Andreas Wagener]]></dc:creator>
		<pubDate>Tue, 01 Mar 2022 10:09:47 +0000</pubDate>
				<category><![CDATA[Allgemein]]></category>
		<category><![CDATA[Daten- & Algorithmusökonomie]]></category>
		<category><![CDATA[Digitale Bildung]]></category>
		<category><![CDATA[Internet of Things]]></category>
		<category><![CDATA[Kommentar]]></category>
		<category><![CDATA[Politik & Digitalisierung]]></category>
		<category><![CDATA[Vorratsdatenspeicherung]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[AI Governance]]></category>
		<category><![CDATA[Algorithm Economy]]></category>
		<category><![CDATA[Algorithmic Bias]]></category>
		<category><![CDATA[Algorithmic Governance]]></category>
		<category><![CDATA[Algorithmusökonomie]]></category>
		<category><![CDATA[Artificial Intelligence]]></category>
		<category><![CDATA[Digitalisierung]]></category>
		<category><![CDATA[Explainable AI]]></category>
		<category><![CDATA[KI]]></category>
		<category><![CDATA[Künstliche Intelligenz]]></category>
		<category><![CDATA[Politische Disruption]]></category>
		<category><![CDATA[Predictive Policing]]></category>
		<category><![CDATA[Racial Profiling]]></category>
		<category><![CDATA[Responsible AI]]></category>
		<guid isPermaLink="false">https://nerdwaerts.de/?p=2036</guid>

					<description><![CDATA[<p>Im Zuge von Algorithmic Governance wird zunehmend auf den Einsatz von Algorithmen und KI für Entscheidungen und deren Ausführung in der praktischen Politik zurückgegriffen. Aber wie lassen sich diese Eingriffe demokratisch legitimieren und unter gesellschaftlichen Aspekten rechtfertigen? In den beiden vorangegangenen Beiträgen haben wir uns mit der Beschaffenheit von algorithmischen Entscheidungen und dem Problem des [&#8230;]</p>
<p>Der Beitrag <a href="https://nerdwaerts.de/2022/03/transparenz-und-verantwortung-das-legitimationsproblem-algorithmischer-entscheidungen-in-der-politik/">Transparenz und Verantwortung: Das Legitimationsproblem algorithmischer Entscheidungen in der Politik</a> erschien zuerst auf <a href="https://nerdwaerts.de">Nerdwärts.de</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<p><strong><strong><strong><strong><strong>Im Zuge von Algorithmic Governance wird zunehmend auf den Einsatz von Algorithmen und KI für Entscheidungen und deren Ausführung in der praktischen Politik zurückgegriffen. Aber wie lassen sich diese Eingriffe demokratisch legitimieren und unter gesellschaftlichen Aspekten rechtfertigen?</strong></strong></strong></strong></strong></p>



<img loading="lazy" decoding="async" src="http://vg08.met.vgwort.de/na/11cd627394904af9ac63a245a7fa95e1" width="1" height="1" alt="">



<span id="more-2036"></span>



<img loading="lazy" decoding="async" src="http://vg08.met.vgwort.de/na/11cd627394904af9ac63a245a7fa95e1" width="1" height="1" alt="">



<p>In den beiden vorangegangenen Beiträgen haben wir uns mit der <a href="https://nerdwaerts.de/2022/01/algorithmic-governance-ki-und-algorithmen-in-der-politik/">Beschaffenheit von algorithmischen Entscheidungen und dem Problem des Einsatzes von KI in der Politik</a> (<a href="https://nerdwaerts.de/?s=AI+Governance&amp;submit=Search" target="_blank" rel="noreferrer noopener">AI Governance</a>) <a href="https://nerdwaerts.de/2022/01/algorithmic-governance-ki-und-algorithmen-in-der-politik/" target="_blank" rel="noreferrer noopener">(Teil 1)</a> sowie mit den <a href="https://nerdwaerts.de/2022/02/kategorien-und-erscheinungsformen-von-algorithmic-governance" target="_blank" rel="noreferrer noopener">entsprechenden Einsatzfeldern (Teil 2)</a> beschäftigt. Nachdem der Rückgriff auf diese Verfahren bereits faktisch erfolgt, gilt es dringend die Rechtmäßigkeit und Legitimität dieses Einsatzes zu hinterfragen.</p>



<p>Für die Akzeptanz algorithmischer Entscheidungen ist deren Nachvollziehbarkeit von großer Bedeutung. Je mehr Daten aus unterschiedlichen Datenquellen zur Verfügung stehen, umso komplexer geraten jedoch zwangsläufig die zugrundeliegenden Berechnungen. In der Praxis sind die Entscheidungspfade von <a href="https://nerdwaerts.de/2019/06/maschinelles-lernen-und-ki-im-marketing-lernmethoden-und-ihre-einsatzmoeglichkeiten-im-marketing/" target="_blank" rel="noreferrer noopener">KI </a>heute oft nur durch ein aufwändiges „reverse engineering“ zu entschlüsseln. Transparenz ist allerdings wichtig, damit verständlich ist, warum eine Entscheidung auf diese Art und Weise getroffen wurde – und sich davon Betroffene gegebenenfalls mit den Mitteln des demokratischen Rechtsstaats dagegen zur Wehr setzen können. <a href="https://www.europarl.europa.eu/news/de/press-room/20200206IPR72015/kunstliche-intelligenz-parlament-will-faire-und-sichere-nutzung-fur-verbraucher" target="_blank" rel="noreferrer noopener">Schon seit geraumer Zeit wird daher eine Art Bürgerrecht auf die Offenlegung algorithmischer Entscheidungen diskutiert.</a> Die Komplexität moderner, vielschichtiger „Deep Learning“-Systeme und die ihnen immanente Eigenständigkeit bei der Weiterentwicklung der Entscheidungssystematiken erschweren diese Rekonstruktion jedoch erheblich. Diesem Aspekt widmet sich das noch neue Forschungsfeld der „<a href="https://de.wikipedia.org/wiki/Explainable_Artificial_Intelligence" target="_blank" rel="noreferrer noopener">Explainable AI</a>“, welches zum Ziel hat, <a href="https://openaccess.city.ac.uk/id/eprint/23405/" target="_blank" rel="noreferrer noopener">Handreichungen für die Erklärung von KI-Entscheidungen im Alltag zu liefern</a> – zum Beispiel warum ein Versicherungsantrag abgelehnt oder die Kreditwürdigkeit eines Schuldners herabgestuft wurde – und auch um mögliche Diskriminierungen in diesem Kontext aufzudecken.</p>



<h2 class="wp-block-heading" id="algorithmic-governance-und-algorithmic-bias">Algorithmic Governance und Algorithmic Bias</h2>



<p>Neben rational nachvollziehbaren Entscheidungswegen stehen hierbei auch technische Auswüchse und Fehlentwicklungen, wie der sogenannte „Algorithmic Bias“ im Fokus. Immer wieder kommt es zu einem vermeintlichen Versagen von algorithmischen Systemen, die plötzlich scheinbar irrationale, auch ethisch frag- oder verurteilungswürdige Ergebnisse produzieren. Die Ursache hierfür liegt allerdings meist nicht in der Systemstruktur, sondern im Lernprozess und ist in der Regel auf eine unausgewogene Zuführung von Trainingsdaten zurückzuführen.</p>



<p>Zu einer entsprechend zweifelhaften Berühmtheit brachte es ein von Google verwendeter Bilderkennungsalgorithmus, der Fotos autonom benannte und sortierte.&nbsp; Eine Aufnahme, die zwei Afroamerikaner zeigte, wurde mit der Bezeichnung „Gorillas“ etikettiert und verarbeitet. <a href="https://www.wsj.com/articles/BL-DGB-42522" target="_blank" rel="noreferrer noopener">Der Aufschrei vor allem in den USA war entsprechend groß</a>. Als Ursache wurde eine unbeabsichtigte einseitige Auswahl und Verwendung von Trainingsbildmaterial identifiziert. Offenbar hatte man vorwiegend Fotos von hellhäutigen Personen für das Training der Kategorie Mensch verwendet, die Zuordnung eines Bildes eines dunkelhäutigen Menschen durch den Algorithmus erfolgte dann zwangsläufig unter großer Unsicherheit: Je nachdem welches Merkmal der Algorithmus als signifikant für die Zuordnung zu einer Kategorie identifizierte – auch Gorillas haben schwarze Haut – <a href="https://qz.com/1064035/google-goog-explains-how-artificial-intelligence-becomes-biased-against-women-and-minorities/" target="_blank" rel="noreferrer noopener">wurde die Sortierung entsprechend ausgeführt</a>. Dass sich auch Facebook etliche Jahre später, im Jahr 2021, mit einer vergleichbaren Problematik konfrontiert sah – der Newsfeed-Algorithmus fragte Nutzer, <a href="https://www.nytimes.com/2021/09/03/technology/facebook-ai-race-primates.html" target="_blank" rel="noreferrer noopener">die sich ein Video mit dem Titel „Weißer Mann ruft Polizei wegen schwarzen Männern am Hafen“ angesehen hatten, ob sie nun „weitere Videos über Primaten“ sehen wollten</a> – zeigt, wie schwierig es offensichtlich ist, hier eine zufriedenstellende technische Lösung zu finden. Gerade im staatlichen Kontext wäre es aber selbstverständlich höchst problematisch, wenn Menschen nicht mehr als solche identifiziert werden.</p>



<h2 class="wp-block-heading" id="predictive-policing-als-algorithmic-governance">Predictive Policing als Algorithmic Governance</h2>



<p>Im Bereich der staatlichen Governance sorgt in diesem Zusammenhang regelmäßig das sogenannte „Predictive Policing“ für Aufsehen, das vor allem in den USA, aber auch zunehmend in Europa zum Einsatz kommt. Mit dem Ziel, die Polizeiarbeit auf diese Weise effizienter zu steuern, soll die Wahrscheinlichkeit „zukünftiger“ Straftaten oder des Eintritts anderer polizeilicher Einsatzszenarien, aus einer Vielzahl von verfügbaren Datenquellen berechnet werden. <a href="https://openscholarship.wustl.edu/cgi/viewcontent.cgi?article=6306&amp;context=law_lawreview" target="_blank" rel="noreferrer noopener">Durch die entsprechend daraus abgeleitete erhöhte Präsenz in ermittelten Problembezirken soll es gelingen, die Kriminalitätsraten erheblich zu senken</a>. Kritiker bemängeln allerdings die damit ihrer Ansicht nach zwangsläufig einhergehende Diskriminierung, werden hier doch alle Bewohner eines Stadtteils automatisiert unter Generalverdacht gestellt, sofern die hinterlegten Algorithmen ihre Nachbarn „statistisch“ als vergleichsweise kriminell einstufen. Auch sind in den USA überwiegend afroamerikanische Gegenden von den zusätzlichen Polizeikontrollen betroffen, was dem System den Vorwurf der Ungleichbehandlung und des „Racial Profiling“&nbsp;einbrachte. Die Funktionsweise der algorithmischen Entscheidungsfindung definiert somit in diesem Fall den Umgang des Staates mit seinen Angehörigen, teilt diese automatisiert in mehr- und minderprivilegierte Gruppen und wirkt mit diesem „Bias“ unweigerlich auf den Bereich der Bürgerrechte ein.</p>



<h2 class="wp-block-heading" id="algorithmic-governance-und-transparenz">Algorithmic Governance und Transparenz</h2>



<p>Die Gewährleistung von Transparenz verkörpert gerade in „Sachfragen“ seit jeher eine wichtige erste Bedingung zum Schutz vor Verzerrungen und Manipulationen. Gerade da, wo eine direkte politische Aufsicht durch entsprechende Institutionen nicht möglich oder nicht zweckmäßig erscheint, ist im demokratischen Staat eine Überwachung durch das öffentliche Publikum unabdingbar. Aber nur, wenn staatliches Handeln hier tatsächlich sichtbar und „durchschaubar“ wird, kann die Öffentlichkeit dieser Kontrollfunktion auch gerecht werden.</p>



<p>Neben der Nachvollziehbarkeit ist auch die Zuweisung von Verantwortlichkeiten von Governance-Entscheidungen und die dazugehörige Rechenschaftspflicht, also die „Accountability“, für die Funktionsweise des demokratischen Staates unerlässlich. Sofern die Abwicklung politischer Prozesse von den menschlichen Repräsentanten eines Staates gewissermaßen auf eine technische Lösung „outgesourced“ wird, so ist deren Arbeitsweise einerseits aufgrund von Effizienzerfordernissen, andererseits aber auch hinsichtlich der Vereinbarkeit der generierten Ergebnisse mit den staatlichen Zielen regelmäßig zu überprüfen.&nbsp;</p>



<h2 class="wp-block-heading" id="verantwortung-und-algorithmic-governance">Verantwortung und Algorithmic Governance</h2>



<p>Die Zurechenbarkeit politischer Handlungen ist in der Demokratie essentiell. Sie kann in diesem Kontext jedoch nur gewährleistet werden, wenn der Einsatz von Algorithmen ausdrücklich als Hilfsmittel der demokratisch legitimierten menschlichen Vertreter betrachtet wird – jedenfalls so lange es nicht möglich ist, den Algorithmus aufgrund von Unzufriedenheit mit den erbrachten Leistungen direkt selbst zu sanktionieren – also abzuwählen. Wenn diese – langfristig durchaus technisch denkbare &#8211; Option nicht besteht, bedeutet das, dass die Leistung eingesetzter Algorithmen zwingend mit den gewählten Repräsentanten des Staates, die diesen Einsatz verantworten, verknüpfbar sein muss. Dies bedeutet wiederum, dass nicht nur demokratische Kontrollinstanzen, sondern vor allem auch diejenigen, die den Einsatz von Algorithmen im Bereich der Governance verantworten, nachvollziehen und verstehen müssen, wie und warum diese auf ihre spezifische Weise funktionieren (oder eben nicht). Das kommt besonders dann zum Tragen, wenn die algorithmische Entscheidung einen hohen Automatisierungsgrad aufweist – in aller Regel bereits ab der <a href="https://nerdwaerts.de/2022/02/kategorien-und-erscheinungsformen-von-algorithmic-governance" target="_blank" rel="noreferrer noopener">beschriebenen Kategorie A2, in jedem Fall bei A3</a>, im Falle „echter“ <a href="https://nerdwaerts.de/?s=AI+Governance&amp;submit=Search" target="_blank" rel="noreferrer noopener">AI-Governance</a>.</p>



<h2 class="wp-block-heading" id="explainable-ai-und-responsible-ai">Explainable AI und Responsible AI</h2>



<p>Der in jüngster Zeit verstärkt verwendete Begriff der „<a href="https://www.gartner.com/en/documents/3988006/hype-cycle-for-artificial-intelligence-2020" target="_blank" rel="noreferrer noopener">Responsible AI</a>“ erweitert den oben genannten Terminus der „Explainable AI“. Er steht für den Übergang von Absichtserklärungen und formulierten Grundprinzipien hin zu einer Operationalisierung der Verantwortlichkeiten und Rechenschaftspflichten, auch, aber nicht ausschließlich, im Bereich der <a href="https://nerdwaerts.de/2022/01/algorithmic-governance-ki-und-algorithmen-in-der-politik/" target="_blank" rel="noreferrer noopener">Algorithmic Governance</a>. Gleichwohl sind diese Bestrebungen in der Umsetzung derzeit noch als recht rudimentär einzuordnen – <a href="https://www.gartner.com/en/documents/3988006/hype-cycle-for-artificial-intelligence-2020" target="_blank" rel="noreferrer noopener">zumindest was komplexere, KI-basierte Algorithmen betrifft</a>. Das bedeutet, dass sich zwar alle Ansätze zur demokratischen Legitimation von <a href="https://nerdwaerts.de/2022/01/algorithmic-governance-ki-und-algorithmen-in-der-politik/" target="_blank" rel="noreferrer noopener">Algorithmic Governance</a> selbstverständlich am Umgang mit den beschriebenen Herausforderungen im Bereich der Transparenz und Accountability messen lassen müssen, gleichzeitig aber auch, dass dies vermutlich nur schwer mittels herkömmlicher Modelle und Vorgehensweisen gelingen wird.</p>



<h2 class="wp-block-heading" id="grenzen-von-algorithmich-governance-und-ihrer-demokratischen-legitimation">Grenzen von Algorithmich Governance und ihrer demokratischen Legitimation</h2>



<p>Man könnte die Auffassung vertreten, dass angesichts der Bedeutung, die Algorithmen heute in unserem Alltag einnehmen, vielleicht bereits das Ende des Anthropozäns eingeläutet worden ist und wir damit nun am Anfang eines „posthumanen“ Zeitalters stehen. Das gilt vor allem dann, wenn man auf die Entwicklungen im Bereich der <a href="https://nerdwaerts.de/2019/06/maschinelles-lernen-und-ki-im-marketing-lernmethoden-und-ihre-einsatzmoeglichkeiten-im-marketing/" target="_blank" rel="noreferrer noopener">KI</a> und den entsprechenden Autonomiegrad solcher hoch entwickelten Systeme blickt. Entsprechend werden schließlich auch unter dem Aspekt der „Singularität“ die gesellschaftlichen und ökonomischen Auswirkungen <a href="https://philpapers.org/rec/BOSS" target="_blank" rel="noreferrer noopener">diskutiert</a>, sollten Algorithmen und intelligente Systeme eines – nicht allzu fernen – Tages die menschliche Leistungs- und Adaptionsfähigkeit übertroffen haben.</p>



<p>De Facto sind Algorithmen heute schon nicht mehr rein technisch-rationale Konstrukte. Sie repräsentieren auch immer den Einfluss derjenigen, die an ihrer Entstehung beteiligt sind, sowohl politisch als auch technisch. Insofern können sie als eine Art „Amalgam“ aus Mensch und Code verstanden werden. In dieser Auffassung spiegelt sich das Grundprinzip der Denkschule des „Neuen Materialismus“ wider. Demnach erschiene es zunehmend unangebracht, zwischen Menschen und Nichtmenschen, Leben und nicht lebendiger Materie und auch zwischen Akteuren und Strukturen zu unterscheiden. Vielmehr vermischen sich Menschen und Computeralgorithmen zu „sozio-materiellen Assemblagen“ (Kim 2020), wodurch neue Handlungsfähigkeiten und daraus resultierende Wirkungsweisen entstehen.</p>



<h2 class="wp-block-heading" id="von-algorithmic-governance-zur-governance-of-things">Von Algorithmic Governance zur Governance of Things</h2>



<p>In Anlehnung an das vielzitierte „Internet der Dinge“ („<a href="https://nerdwaerts.de/?s=Internet+of+Things&amp;submit=Search" target="_blank" rel="noreferrer noopener">Internet of Things</a>“) könnte auf diese Weise dann eine „Governance of Things“ entstehen. Die menschlichen Systementwickler diktierten dabei nicht die Funktionsweise des Algorithmus, die Governance entstünde aus dem Zusammenwirken von Algorithmus und Systementwicklern, explizit etwa beim menschlich induzierten Training mit <a href="https://nerdwaerts.de/2019/06/maschinelles-lernen-und-ki-im-marketing-lernmethoden-und-ihre-einsatzmoeglichkeiten-im-marketing/" target="_blank" rel="noreferrer noopener">KI</a>-Daten und der daraus resultierenden autonomen Lernentwicklung des Systems. Dieser Vorgang beinhaltet laufende Interaktionen und Iterationsschleifen zwischen beiden „Parteien“ und führt damit zu einer Verselbständigung dieser „Amalgambildung“.</p>



<h2 class="wp-block-heading" id="spannungsfelder-von-algorithmic-governance">Spannungsfelder von Algorithmic Governance</h2>



<p>Die Frage ist jedoch, ob diese Betrachtungsweise der Legitimation algorithmischer politischer Entscheidungen dienen kann. Wie wir gesehen haben, bewegt sich <a href="https://nerdwaerts.de/?s=Algorithmic+Governance&amp;submit=Search" target="_blank" rel="noreferrer noopener">Algorithmic Governance</a> in einem Spannungsfeld zwischen mehreren verschiedenen Polen, was es immens erschwert, hierauf eine eindeutige Antwort zu geben:</p>



<p>Einerseits kann sie für politische Ergebniseffizienz sorgen, indem die das menschliche Vermögen übersteigenden Rechenleistungen zielgerichtet eingesetzt werden. Andererseits besteht die Gefahr, dass damit im Einzelfall bürgerliche Rechte eingeschränkt werden oder dies Diskriminierung zur Folge hat, wenn Effizienz das ausschlaggebende Element von Politik wird.</p>



<p>Einerseits sorgt der Rückgriff auf Algorithmen für eine Versachlichung politischer Entscheidungen. Andererseits kann genau dies auch zu einer Entmenschlichung führen, wenn Einzelschicksale zu Gunsten „des großen Ganzens“ in automatisierten Entscheidungssituationen keine Berücksichtigung finden können.</p>



<p>Einerseits ist Transparenz der Entscheidungsprozesse ein wichtiges Legitimationserfordernis. Andererseits beinhaltet dies auch eine weitgehende Transparenz des Individuums, denn anders können spezifische Entscheidungen durch Algorithmen nicht effizient getroffen werden, wodurch aber das Bürgerrecht der informationellen Selbstbestimmung tangiert wird.</p>



<p>Diese Spannungsfelder berühren den Kern vieler hochrelevanter gesellschaftspolitischer Themen. Es erscheint schwer vorstellbar, diese bislang in allen Demokratien der Welt immer wieder aufs Neue auszuhandelnden Fragen einem letztlich doch seelenlosen System anzuvertrauen oder ihm hier zumindest ein qualitatives „Mitspracherecht“ einzuräumen &#8211; jedenfalls solange ein posthumanes Zeitalter noch nicht eingetreten ist. Und würde nicht gerade der regelmäßige Einsatz von intelligenten Algorithmen in der Politik dessen möglichen Eintritt beschleunigen?&nbsp;</p>



<h2 class="wp-block-heading" id="algorithmic-governance-vs-ai-governance">Algorithmic Governance vs. AI Governance</h2>



<p>Der Unterschied zwischen „<a href="https://nerdwaerts.de/?s=Algorithmic+Governance&amp;submit=Search" target="_blank" rel="noreferrer noopener">Governance by Algorithms</a>“ und „<a href="https://nerdwaerts.de/?s=AI+Governance&amp;submit=Search" target="_blank" rel="noreferrer noopener">Governance by AI</a>“ ist im eigenständigen Lernen und dem Autonomiegrad algorithmischer Entscheidungen zu sehen. Solange Algorithmen ein bloßes Hilfsmittel der Regierungsarbeit darstellen, die Kontrolle bei den menschlichen Entscheidern verbleibt – <a href="https://nerdwaerts.de/2022/02/kategorien-und-erscheinungsformen-von-algorithmic-governance" target="_blank" rel="noreferrer noopener">so wie im vorigen Artikel in dieser Reihe in der Kategorie A1 beschrieben</a> – können diese einen wichtigen und wertvollen Beitrag zur praktischen Politik leisten, indem sie Entscheidungen tatsächlich effizienter, sachlicher und transparenter machen. Mindestens aber, wenn von „echter“ <a href="https://nerdwaerts.de/?s=AI+Governance&amp;submit=Search" target="_blank" rel="noreferrer noopener">AI Governance</a> die Rede ist, aber eigentlich schon bei der <a href="https://nerdwaerts.de/2022/02/kategorien-und-erscheinungsformen-von-algorithmic-governance" target="_blank" rel="noreferrer noopener">zweiten, nicht gänzlich autonomen Kategorie (A2)</a>, werden schnell die Grenzen legitimer Einsatzszenarien überschritten. Eine Legitimation nach demokratietheoretischen (humanistischen) Gesichtspunkten ist dann eigentlich nicht denkbar. Für den demokratischen Staat kann das dann aber in letzter Konsequenz nur bedeuten, dass <a href="https://nerdwaerts.de/?s=AI+Governance&amp;submit=Search" target="_blank" rel="noreferrer noopener">AI Governance</a> in sämtlichen Bereichen der staatlichen Sphäre ausgeschlossen werden sollte – mit allen Konsequenzen, die dies auch für bereits erprobte Anwendungen hat.</p>



<p>Solange wir davon ausgehen, dass Politik und gesellschaftliche Prozesse auch in Zeiten zunehmender Komplexität zuallererst Gegenstand zwischenmenschlicher Verhandlungen sind, sollten wir uns der Demokratie willen dieser Verantwortung höchstpersönlich und nicht verschanzt hinter einer Mauer aus Einsen und Nullen stellen.</p>



<h2 class="wp-block-heading"></h2>



<p><em>Der Artikel erschien in überarbeiteter und deutlich erweiterter Form in der SWS-Rundschau, Andreas Wagener: Demokratische Legitimation von AI Governance, Sozialwissenschaftliche Rundschau, Heft 4/2021, 61. Jahrgang, S. 369 &#8211; 390</em></p>



<p></p>



<h2 class="wp-block-heading"></h2>



<p><strong>Vortrag/Keynote von Prof. Dr. Andreas Wagener: &#8222;Wie der Staat mit Daten umgeht.</strong> <strong>Was ist gesellschaftlich akzeptabel?&#8220;:   </strong></p>



<h2 class="wp-block-heading"></h2>



<iframe loading="lazy" width="560" height="315" src="https://www.youtube.com/embed/HCrHE-fSLx0" title="YouTube video player" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture" allowfullscreen=""></iframe>



<p><em>
Mehr Informationen zum Thema KI im Marketing finden Sie im Buch von <a href="https://nerdwaerts.de/keynotes/" target="_blank" rel="noopener noreferrer">Andreas Wagener</a> <a href="https://www.amazon.de/K%C3%BCnstliche-Intelligenz-Marketing-verbirgt-profitieren/dp/3648169572?__mk_de_DE=%C3%85M%C3%85%C5%BD%C3%95%C3%91&#038;crid=3LEYA68C1IHK9&#038;dib=eyJ2IjoiMSJ9.F0DFVjJXx3RDUq5AFGWmW72IYdQUzCcPngROcCJNE8MrT5C61IF2XaAkWPd_le2b5NPhi5td5gIJMn6bRqSJciSKGXyMa6Rl2rf8dzSbVR6sTRH9Exy9GurFiPKH0yYGAZsFgvQG6NeyubdeZNaRWEVcjwmhJmc_nJl4oafIWLlMbBn9e6hu_Jy3DVmk4iAv3Lg4OEXfVaJm88L9Q4G9iDM7nArvced8A0fx9Qj9qe0.nP-dKqYU-gE_d5W1Xtmrr8y7DR5pgrkPbPFkThWYiuY&#038;dib_tag=se&#038;keywords=Wagener+KI+im+Marketing&#038;qid=1728994048&#038;sprefix=wagener+ki+im+marketing%2Caps%2C94&#038;sr=8-1&#038;linkCode=ll1&#038;tag=nerdwaerts-21&#038;linkId=e5074a981472dec11b04d62f77503207&#038;language=de_DE&#038;ref_=as_li_ss_tl">Künstliche Intelligenz im Marketing</a>, Haufe, Freiburg, 2023</em></p>



<p>Mehr zu Themen wie Industrie 4.0, Big Data, Künstliche Intelligenz, Digital Commerce und Digitaler Ökonomie finden Sie auf unserer <a href="https://www.xing.com/news/pages/nerdwarts-de-316?sc_o=da980_e" target="_blank" rel="noopener noreferrer">Newsseite auf XING</a> sowie auf <a href="https://www.facebook.com/nerdwaerts/" target="_blank" rel="noopener noreferrer">Facebook</a>.</p>
<p>Der Beitrag <a href="https://nerdwaerts.de/2022/03/transparenz-und-verantwortung-das-legitimationsproblem-algorithmischer-entscheidungen-in-der-politik/">Transparenz und Verantwortung: Das Legitimationsproblem algorithmischer Entscheidungen in der Politik</a> erschien zuerst auf <a href="https://nerdwaerts.de">Nerdwärts.de</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://nerdwaerts.de/2022/03/transparenz-und-verantwortung-das-legitimationsproblem-algorithmischer-entscheidungen-in-der-politik/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Kategorien und Erscheinungsformen von Algorithmic Governance</title>
		<link>https://nerdwaerts.de/2022/02/kategorien-und-erscheinungsformen-von-algorithmic-governance/</link>
					<comments>https://nerdwaerts.de/2022/02/kategorien-und-erscheinungsformen-von-algorithmic-governance/#comments</comments>
		
		<dc:creator><![CDATA[Andreas Wagener]]></dc:creator>
		<pubDate>Fri, 11 Feb 2022 06:41:24 +0000</pubDate>
				<category><![CDATA[Allgemein]]></category>
		<category><![CDATA[Daten- & Algorithmusökonomie]]></category>
		<category><![CDATA[Digitale Bildung]]></category>
		<category><![CDATA[Kommentar]]></category>
		<category><![CDATA[Politik & Digitalisierung]]></category>
		<category><![CDATA[Vorratsdatenspeicherung]]></category>
		<category><![CDATA[3A]]></category>
		<category><![CDATA[AI Governance]]></category>
		<category><![CDATA[Algorithm Economy]]></category>
		<category><![CDATA[Algorithmic Governance]]></category>
		<category><![CDATA[Algorithmusökonomie]]></category>
		<category><![CDATA[Digitalisierung]]></category>
		<category><![CDATA[KI]]></category>
		<category><![CDATA[Künstliche Intelligenz]]></category>
		<category><![CDATA[Politik]]></category>
		<category><![CDATA[Politische Disruption]]></category>
		<guid isPermaLink="false">https://nerdwaerts.de/?p=2029</guid>

					<description><![CDATA[<p>Der Rückgriff auf Algorithmen und datenbasierte Entscheidungsmuster sowie zunehmend auch auf KI im Rahmen der „Algorithmic Governance“ verändert die praktische Politik grundlegend. Dabei unterscheiden sich die Einsatzfelder hinsichtlich ihres Autonomiegrades. Das Spektrum reicht von klassischen Analyseleistungen bis hin zu völlig autonomen politischen Entscheidungen durch KI. Im ersten Teil der Reihe haben wir das Prinzip der [&#8230;]</p>
<p>Der Beitrag <a href="https://nerdwaerts.de/2022/02/kategorien-und-erscheinungsformen-von-algorithmic-governance/">Kategorien und Erscheinungsformen von Algorithmic Governance</a> erschien zuerst auf <a href="https://nerdwaerts.de">Nerdwärts.de</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<p><strong><strong><strong><strong>Der Rückgriff auf Algorithmen und datenbasierte Entscheidungsmuster sowie zunehmend auch auf KI im Rahmen der „Algorithmic Governance“ verändert die praktische Politik grundlegend. Dabei unterscheiden sich die Einsatzfelder hinsichtlich ihres Autonomiegrades. Das Spektrum reicht von klassischen Analyseleistungen bis hin zu völlig autonomen politischen Entscheidungen durch KI.</strong></strong></strong></strong> </p>



<img loading="lazy" decoding="async" src="http://vg08.met.vgwort.de/na/11cd627394904af9ac63a245a7fa95e1" width="1" height="1" alt="">



<span id="more-2029"></span>



<img loading="lazy" decoding="async" src="http://vg08.met.vgwort.de/na/11cd627394904af9ac63a245a7fa95e1" width="1" height="1" alt="">



<p>Im <a href="https://nerdwaerts.de/2022/01/algorithmic-governance-ki-und-algorithmen-in-der-politik/">ersten Teil</a> der Reihe haben wir das Prinzip der <a href="https://nerdwaerts.de/?s=Algorithmic+Governance&amp;submit=Search" target="_blank" rel="noreferrer noopener">Algorithmic Governance</a> bzw. von <a href="https://nerdwaerts.de/?s=AI+Governance&amp;submit=Search">AI Governance</a> erläutert. Potenziell ist der Rückgriff auf <a href="https://nerdwaerts.de/?s=Algorithmic+Governance&amp;submit=Search" target="_blank" rel="noreferrer noopener">Algorithmic Governance</a> in allen Politikbereichen denkbar, und auch de facto steigt die Zahl der Anwendungen Policyfeld-übergreifend seit Jahren kontinuierlich an – innerhalb und außerhalb Europas. Typische Einsatzgebiete sind insbesondere die Arbeitsmarktpolitik, Verkehrs- und Infrastrukturpolitik, Gesundheitspolitik, Innere Sicherheit und Verteidigung.</p>



<p>Neben der inhaltlichen Ausrichtung lassen sich die Erscheinungsformen von <a href="https://nerdwaerts.de/?s=Algorithmic+Governance&amp;submit=Search" target="_blank" rel="noreferrer noopener">Algorithmic Governance</a> auch nach dem Grad ihrer Eigenständigkeit unterscheiden, der sich auch aus dem Maß ihrer „Anwendungsintelligenz“ ableitet. Diese steigt gleichfalls mit dem Grad der Automatisierung und der damit einhergehenden zunehmenden Unabhängigkeit von menschlichen Eingriffen. Demnach kann die Verwendung von Algorithmen im Bereich der staatlichen Governance in drei grundlegende Aufgabengebiete mit steigendem Autonomie- und Datenintelligenzgrad eingeteilt werden, die auch als aufeinander aufbauende, zeitlich versetzte Phasen zu betrachten sind.</p>



<p>Diese, hier als „<a href="https://nerdwaerts.de/2020/08/die-3a-des-ki-marketings/" target="_blank" rel="noreferrer noopener">3As</a>“ bezeichneten Dimensionen, umfassen:</p>



<ul class="wp-block-list">
<li><strong>A1 – Analyse</strong></li>



<li><strong>A2 – Automation</strong></li>



<li><strong>A3 – Autonomes Agieren</strong></li>
</ul>



<p>Der Aspekt der <strong>Analyse</strong> bezieht sich zunächst auf sämtliche Aufgaben der Datenerfassung, und Dateninterpretation. Derartige Systeme werden in erster Linie entscheidungsvorbereitend eingesetzt, d.h. sie dienen dazu, die notwendige Datenbasis zu aggregieren, welche die Grundlage einer menschlichen Entscheidung bilden. Maschinell automatisiert kann also die Datensammlung und -auswertung sein, nicht aber die Entscheidungsfindung und -ausführung.&nbsp; Hierbei handelt es sich meist um klassische Wissens- und Datenmanagementsysteme.</p>



<p>Die Dimension der <strong>Automation</strong> baut auf der Vorarbeit der als A1 beschriebenen Systeme auf, bezieht aber auch die mechanisierte Ausführung spezifischer Aufgaben, die auf der zuvor erhobenen Datenbasis fußen, mit ein. Dies erfolgt weitgehend losgelöst von menschlichem Eingreifen, zwar grundsätzlich eigenständig, aber womöglich entlang vorab definierter Regeln, also nicht gänzlich autonom von externem menschlichen Einfluss. Meist werden Handlungsfolgen definiert, die aus dem Eintreten von bestimmten Ereignissen resultieren. Allerdings sind diese Handlungsfolgen nicht zwingend als unumstößlicher Automatismus zu sehen, der Mensch verbleibt in seiner Rolle als finale Entscheidungsinstanz. In der Praxis wird dies meist so gehandhabt, dass der Verantwortliche zwar gegen die konsekutiv-rationale Empfehlung des Systems handeln kann, dieses Abweichen aber dann dokumentiert und begründet werden muss. Ganz entscheidend ist dabei, wie hier die Interaktion zwischen System und Mensch ausgestaltet wird, also ob dem menschlichen Entscheider das System weiterhin als Hilfsmittel untergeordnet bleibt oder ob für ihn lediglich die Rolle des Vetogebers in einem ansonsten völlig autonom gestalteten Prozess als „Ultima Ratio“ vorgesehen ist. In der Regel verläuft somit hier die – aus diesem Grunde nicht immer ganz eindeutige – Grenze zwischen herkömmlicher „<a href="https://nerdwaerts.de/?s=Algorithmic+Governance&amp;submit=Search">Algorithmic Governance</a>“ und „<a href="https://nerdwaerts.de/?s=AI+Governance&amp;submit=Search">AI Governance</a>“.</p>



<p>Die Analyse und die Automation der Verarbeitungsprozesse bilden die Voraussetzung für die eigenständige Handlungsfähigkeit eines Systems, auch ohne eine „Rückkoppelung“ mit festgesetzten „Aktionsmaximen“. Eigenständiges Anstoßen autonomer Prozesse, ohne menschliches Zutun, echtes <strong>autonomes Agieren</strong>, stellt die Endstufe intelligenter, eigenständiger algorithmischer Systeme dar – gewissermaßen also <a href="https://nerdwaerts.de/?s=AI+Governance&amp;submit=Search">AI Governance</a> in Reinform. Ein mögliches menschliches Vetorecht, wie oben beschrieben, hat nurmehr den Charakter einer Qualitätskontrolle, verändert aber nicht den Charakter des Systems als im Kern eigenständige und unabhängige Intelligenz. Auch wenn derartige Anwendungen heute noch hypothetischer Natur zu sein scheinen, zeigt der technische Fortschritte auf dem Gebiet der angewandten KI deutlich, dass es sich hierbei nicht um bloße Zukunftsvision handelt, sondern, dass der Einsatz dieser Systeme schon bald sehr konkret werden könnte.</p>



<p>Um die Gliederung in die „<a href="https://nerdwaerts.de/2020/08/die-3a-des-ki-marketings/">3A</a>“ zu verdeutlichen, sollen im Folgenden jeweils entsprechende Beispiele beschrieben werden:</p>



<h2 class="wp-block-heading" id="algorithmic-governance-a1-analyse">Algorithmic Governance: A1 – Analyse</h2>



<p>Das Sozialprognosen-System <a href="http://cejfe.gencat.cat/web/.content/home/recerca/cataleg/crono/2015/taxa_reincidencia_2014/tasa_reincidencia_2014_cast.pdf">„Riscanvi“ wird von katalanischen Gefängnissen genutzt</a>, um Bewährungsentscheidungen vorzubereiten. Insassen werden in regelmäßigen Abständen, mindestens alle 6 Monate, befragt. Aus den erfassten Erkenntnissen berechnet das Programm eine Risikoprognose, die regelmäßig evaluiert wird und gegebenenfalls zur Justierung der Systematik führt. Riscanvi bezieht dabei Informationen zu verschiedenen Risikofeldern ein, zum Beispiel Konflikte mit anderen Insassen, Rückfälle zur Gewalttätigkeit, Selbstverletzungen und Verstöße gegen die Bedingungen von Hafturlauben, aber auch Daten zur sozialen Situation wie fehlende familiäre Unterstützung oder die persönliche finanzielle Lage der Häftlinge. Methoden maschinellen Lernens kommen dabei nicht zum Einsatz, Eingriffe in die Logik des Systems erfolgen allein händisch auf Basis der Evaluationsergebnisse. Laut offiziellen Angaben besteht für die Nutzer des Systems keine Verpflichtung, den Vorschlägen zu folgen. Sie gelten als Orientierungshilfe, aber nicht als Maßgabe. Eine Begründung, warum man gegen die Empfehlung des Systems entscheidet, ist nicht notwendig.</p>



<h2 class="wp-block-heading" id="algorithmic-governance-a2-automation">Algorithmic Governance: A2 – Automation</h2>



<p>Ein Beispiel für die zweite Kategorie der Algorithmen im Bereich der Governance stellt das automatisierte Steuerprüfungssystem <a href="https://www.nextinpact.com/article/29849/108463-contre-fraude-fiscale-toute-population-francaise-sous-lil-datamining-cvfr">CFVR</a> der französischen Finanzbehörden dar. Auf Basis von Daten aus früheren Kontrollen wird versucht, aktuelle Verhaltensmuster von steuerpflichtigen Unternehmen und Privatpersonen zu analysieren und auffällige Verhaltensweisen, die auf illegale Aktivitäten und Versuche von Steuerhinterziehungen hinweisen, zu identifizieren. Verknüpft wird dies mit anderen staatlichen und privaten Datenquellen, <a href="https://news.bloombergtax.com/daily-tax-report-international/how-french-tax-authorities-search-online-social-networks-to-detect-fraud">wie Kontodaten, Informationen von Katasterämtern und ausländischen Unternehmensverzeichnissen, aber auch Daten aus den Sozialen Medien</a>. Dabei kommen auch Netzwerkanalysen, die das Beziehungsgeflecht zu anderen Personen und Institutionen beleuchten zum Einsatz, etwa um Komplizenschaften aufzudecken. Damit entsteht ein Gesamtbild, dass sich dem Steuerfahnder im Rahmen der herkömmlichen Arbeit nur schwer erschlossen hätte. Der Algorithmus aggregiert und verdichtet die vorliegenden Informationen, um daraus konkrete Handlungsaufträge abzuleiten. Ziel ist es, jede zweite Steuerkontrolle durch den Algorithmus auszulösen. Die Steuerfahnder erhalten dazu jeweils für ihren Aufgabenbereich eine Liste der zu kontrollierenden privaten und juristischen Personen, es obliegt aber letztlich ihrer jeweiligen Entscheidung, ob diese Kontrolle tatsächlich auch durchgeführt wird. Ein eigenständiger Automatismus, der autonom die berechnete Steuerschuld eintreiben würde, existiert nicht und ist auch nicht angedacht.<a href="https://algorithmwatch.org/en/france-tax-automated-dgfip/" target="_blank" rel="noreferrer noopener"> Gleichwohl gibt es Bestrebungen, hier eine stärkere Verpflichtung zur Betätigung für die Behörden seitens des Finanzministeriums durchzusetzen</a>.</p>



<h2 class="wp-block-heading" id="algorithmic-governance-a3-autonomes-agieren">Algorithmic Governance: A3 – Autonomes Agieren</h2>



<p>Auch wenn die Dimension des „Autonomen Agierens“ zunächst noch sehr zukunftsbezogen erscheint, lassen sich angesichts einiger existierender Anwendungen in der Praxis bereits verschiedene Einsatzszenarien skizzieren, wie die folgenden Beispiele zeigen:</p>



<p>China verfügt bereits über ein weitverzweigtes Kameranetz im öffentlichen Raum. Dieses wird nicht nur zu Überwachungszwecken und für Ziele der inneren Sicherheit genutzt, sondern dient auch der Legitimation und der Abwicklung von Transaktions- und Zahlungsprozessen, so ist es etwa an vielen Stellen möglich, mittels entsprechender Apps per Gesichtserkennung und personalisiert hinterlegter Kontoinformationen zu zahlen. Im Zuge der Bestrebungen, ein staatliches „<a href="https://nerdwaerts.de/2019/01/wie-der-staat-mit-daten-umgeht/" target="_blank" rel="noreferrer noopener">Social Credit System</a>“ zur wertkonformen Verhaltensbeeinflussung zu errichten, entstand auch die Idee, die öffentlichen Videosysteme dazu zu nutzen, individuelle Verfehlungen im Straßenverkehr durch eine Art „sozialen Pranger“ zu ahnden. Personen, die eine rote Fußgängerampel missachteten, wurden im Moment des Regelverstoßes, in „Echtzeit“, auf eine Videowand in der Nähe projiziert – zunächst als bloße Erziehungsmaßnahme und abschreckendes Beispiel. Diskutiert wurde jedoch in der Folge, ob man mittels der bereits verwendeten „pay per face“-Technologie und durch die entsprechende Verknüpfung der jeweiligen Datenbanken dieses Verfahren nicht dazu nutzen könne, direkt und automatisiert Bußgelder gegen die überführten Verkehrssünder zu verhängen und sofort von diesen einzuziehen. Ein menschliches Eingreifen wäre dazu dann nicht mehr notwendig, das System übernähme den kompletten Bereich der Tatbestandsermittlung, <a href="https://www.cnet.com/news/jaywalking-in-china-surveillance-system-will-sms-you-a-fine/" target="_blank" rel="noreferrer noopener">der Festlegung des Strafmaßes und der Ausführung der Strafe bzw. die zugrundeliegende finanzielle Abwicklung</a>. </p>



<h2 class="wp-block-heading" id="algorithmic-governance-autonomes-agieren-im-kampfeinsatz">Algorithmic Governance: Autonomes Agieren im Kampfeinsatz</h2>



<p>In anderen Bereichen der staatlichen Sphäre mit ungleich größerer Tragweite sind solche Automatismen bereits seit längerem in der Praxis etabliert. Dies gilt insbesondere für den militärischen Bereich und die autonome Kriegsführung: Für Aufsehen sorgte zuletzt ein UN-Bericht, der beschrieb, wie eine militärische Drohne in Libyen im Jahr 2020, ohne ausdrückliche menschliche Veranlassung, <a href="https://undocs.org/S/2021/229">ein feindliches militärisches Ziel mit ihrem Waffensystem attackierte und eigenständig „Jagd machte“ auf die gegnerischen Verbände</a>. Die selbststeuernde Drohne agierte unabhängig und ohne Datenverbindung zum menschlichen Militärpersonal. Damit entfiel hier selbst die ansonsten bei autonomen Militärschlägen mit potenziell tödlicher Wirkung vorgesehene menschliche Freigabe. Das System agierte auf Basis seiner <a href="https://nerdwaerts.de/?s=KI&amp;submit=Search" target="_blank" rel="noreferrer noopener">KI</a> völlig <a href="https://www.newscientist.com./article/2278852-drones-may-have-attacked-humans-fully-autonomously-for-the-first-time/" target="_blank" rel="noreferrer noopener">losgelöst</a>. Damit würde dieser Vorfall ein nahezu reines Beispiel für Autonomes Agieren von Algorithmen im staatlichen Auftrag beschreiben. Auch wenn hierfür der Begriff der Governance womöglich eine etwas weitgehende Spreizung erfährt, markiert dies den potenziellen Handlungsrahmen und die Einsatzmöglichkeiten zukünftiger <a href="https://nerdwaerts.de/?s=AI+Governance&amp;submit=Search" target="_blank" rel="noreferrer noopener">AI Governance</a> recht eindrucksvoll.</p>



<p>Im nächsten Beitrag, der Fortsetzung dieser Reihe zur <a href="https://nerdwaerts.de/?s=Algorithmic+Governance&amp;submit=Search">Algorithmic Governance</a>, widmen wir uns der Legititmationsproblematik algorithmischer und <a href="https://nerdwaerts.de/?s=KI&amp;submit=Search" target="_blank" rel="noreferrer noopener">KI</a>-basierter Entscheidungen in der Politik.</p>



<h2 class="wp-block-heading"></h2>



<h2 class="wp-block-heading"></h2>



<p><em>Der Artikel erschien in überarbeiteter und deutlich erweiterter Form in der SWS-Rundschau, Andreas Wagener: Demokratische Legitimation von AI Governance, Sozialwissenschaftliche Rundschau, Heft 4/2021, 61. Jahrgang, S. 369 &#8211; 390</em></p>



<p></p>



<h2 class="wp-block-heading"></h2>



<p><strong>Vortrag/Keynote von Prof. Dr. Andreas Wagener: &#8222;Wie der Staat mit Daten umgeht.</strong> <strong>Was ist gesellschaftlich akzeptabel?&#8220;:   </strong></p>



<h2 class="wp-block-heading"></h2>



<iframe loading="lazy" width="560" height="315" src="https://www.youtube.com/embed/HCrHE-fSLx0" title="YouTube video player" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture" allowfullscreen=""></iframe>



<p><em>
Mehr Informationen zum Thema KI im Marketing finden Sie im Buch von <a href="https://nerdwaerts.de/keynotes/" target="_blank" rel="noopener noreferrer">Andreas Wagener</a> <a href="https://www.amazon.de/K%C3%BCnstliche-Intelligenz-Marketing-verbirgt-profitieren/dp/3648169572?__mk_de_DE=%C3%85M%C3%85%C5%BD%C3%95%C3%91&#038;crid=3LEYA68C1IHK9&#038;dib=eyJ2IjoiMSJ9.F0DFVjJXx3RDUq5AFGWmW72IYdQUzCcPngROcCJNE8MrT5C61IF2XaAkWPd_le2b5NPhi5td5gIJMn6bRqSJciSKGXyMa6Rl2rf8dzSbVR6sTRH9Exy9GurFiPKH0yYGAZsFgvQG6NeyubdeZNaRWEVcjwmhJmc_nJl4oafIWLlMbBn9e6hu_Jy3DVmk4iAv3Lg4OEXfVaJm88L9Q4G9iDM7nArvced8A0fx9Qj9qe0.nP-dKqYU-gE_d5W1Xtmrr8y7DR5pgrkPbPFkThWYiuY&#038;dib_tag=se&#038;keywords=Wagener+KI+im+Marketing&#038;qid=1728994048&#038;sprefix=wagener+ki+im+marketing%2Caps%2C94&#038;sr=8-1&#038;linkCode=ll1&#038;tag=nerdwaerts-21&#038;linkId=e5074a981472dec11b04d62f77503207&#038;language=de_DE&#038;ref_=as_li_ss_tl">Künstliche Intelligenz im Marketing</a>, Haufe, Freiburg, 2023</em></p>



<p>Mehr zu Themen wie Industrie 4.0, Big Data, Künstliche Intelligenz, Digital Commerce und Digitaler Ökonomie finden Sie auf unserer <a href="https://www.xing.com/news/pages/nerdwarts-de-316?sc_o=da980_e" target="_blank" rel="noopener noreferrer">Newsseite auf XING</a> sowie auf <a href="https://www.facebook.com/nerdwaerts/" target="_blank" rel="noopener noreferrer">Facebook</a>.</p>
<p>Der Beitrag <a href="https://nerdwaerts.de/2022/02/kategorien-und-erscheinungsformen-von-algorithmic-governance/">Kategorien und Erscheinungsformen von Algorithmic Governance</a> erschien zuerst auf <a href="https://nerdwaerts.de">Nerdwärts.de</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://nerdwaerts.de/2022/02/kategorien-und-erscheinungsformen-von-algorithmic-governance/feed/</wfw:commentRss>
			<slash:comments>1</slash:comments>
		
		
			</item>
		<item>
		<title>Algorithmic Governance &#8211; KI und Algorithmen in der Politik</title>
		<link>https://nerdwaerts.de/2022/01/algorithmic-governance-ki-und-algorithmen-in-der-politik/</link>
					<comments>https://nerdwaerts.de/2022/01/algorithmic-governance-ki-und-algorithmen-in-der-politik/#comments</comments>
		
		<dc:creator><![CDATA[Andreas Wagener]]></dc:creator>
		<pubDate>Fri, 28 Jan 2022 13:37:35 +0000</pubDate>
				<category><![CDATA[Allgemein]]></category>
		<category><![CDATA[Daten- & Algorithmusökonomie]]></category>
		<category><![CDATA[Digitale Bildung]]></category>
		<category><![CDATA[Kommentar]]></category>
		<category><![CDATA[Politik & Digitalisierung]]></category>
		<category><![CDATA[Vorratsdatenspeicherung]]></category>
		<category><![CDATA[AI Governance]]></category>
		<category><![CDATA[Algorithmic Governance]]></category>
		<category><![CDATA[Code is law]]></category>
		<category><![CDATA[Digitale Kompetenz]]></category>
		<category><![CDATA[Digitale Kompetenzen]]></category>
		<category><![CDATA[Digitale Politik]]></category>
		<category><![CDATA[Digitale Transformation]]></category>
		<category><![CDATA[Digitalisierung]]></category>
		<category><![CDATA[KI]]></category>
		<category><![CDATA[Künstliche Intelligenz]]></category>
		<category><![CDATA[Netzpolitik]]></category>
		<guid isPermaLink="false">https://nerdwaerts.de/?p=1640</guid>

					<description><![CDATA[<p>Unter dem Begriff der Algorithmic Governance wird verstärkt der Einsatz von Algorithmen als Ergänzung oder auch als vollständiger Ersatz menschlicher politischer Entscheidungen diskutiert. Kommen dabei Methoden des maschinellen Lernens und KI zum Einsatz verändert dies die Rahmenbedingungen des Regierens in der Demokratie grundlegend. Der Begriff der Governance bezeichnet in den Politik- und Gesellschaftswissenschaften gewöhnlich die [&#8230;]</p>
<p>Der Beitrag <a href="https://nerdwaerts.de/2022/01/algorithmic-governance-ki-und-algorithmen-in-der-politik/">Algorithmic Governance &#8211; KI und Algorithmen in der Politik</a> erschien zuerst auf <a href="https://nerdwaerts.de">Nerdwärts.de</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<p><strong><strong>Unter dem Begriff der Algorithmic Governance wird verstärkt der Einsatz von Algorithmen als Ergänzung oder auch als vollständiger Ersatz menschlicher politischer Entscheidungen diskutiert. Kommen dabei Methoden des maschinellen Lernens und KI zum Einsatz verändert dies die Rahmenbedingungen des Regierens in der Demokratie grundlegend.</strong></strong></p>



<img loading="lazy" decoding="async" src="http://vg08.met.vgwort.de/na/11cd627394904af9ac63a245a7fa95e1" width="1" height="1" alt="">



<span id="more-1640"></span>



<img loading="lazy" decoding="async" src="http://vg08.met.vgwort.de/na/11cd627394904af9ac63a245a7fa95e1" width="1" height="1" alt="">



<p>Der Begriff der Governance bezeichnet in den Politik- und Gesellschaftswissenschaften gewöhnlich die staatliche Aufgabe der Führung und Steuerung der Amts- bzw. Regierungsgeschäfte und dient dabei der Beschreibung der dazu notwendigen Prozesse und Strukturen. Von Algorithmic Governance ist dann meist die Rede, wenn in diesem Kontext diskutiert wird, ob menschliche politische Entscheidungen durch datenbasierte Technologie ergänzt oder vollständig ersetzt werden könnten oder sollten.</p>



<h2 class="wp-block-heading" id="code-is-law-wenn-dann-prinzip-und-algorithmic-governance">Code is Law &#8211; Wenn-Dann-Prinzip und Algorithmic Governance</h2>



<p>In Anlehnung an <a href="https://www.harvardmagazine.com/2000/01/code-is-law-html" target="_blank" rel="noreferrer noopener">Laurence Lessigs Diktum „Code is Law“</a> &nbsp;ließe sich diese Vorgehensweise als die Automatisierung der Ausführung vorab definierter (staatlicher) Regeln beschreiben. Die Anwendung des hier zugrundeliegenden, der Computerprogrammierung entlehnten „Wenn-Dann“-Prinzips („if this … then that…“, „IFTTT“) basiert auf der Annahme, dass sich zuvor definierte – und legitimierte – Entscheidungsmuster auf spätere Situationen anwenden lassen. Die nachfolgende Exekution anstehender Entscheidungen kann dann idealerweise autonom erfolgen, ohne dass es eines weiteren menschlichen Eingreifens zwingend bedürfte.</p>



<h2 class="wp-block-heading" id="chancen-und-herausforderungen-von-algorithmic-governance">Chancen und Herausforderungen von Algorithmic Governance</h2>



<p>Die Vorteile eines solchen Systems werden zuerst in der Effizienzsteigerung gesehen, die hierbei für die staatliche Entscheidungsfindung und -ausführung durch die Automatisierungszuwächse zu erwarten wären. Ähnliche oder identische Entscheidungsfragen müssten nicht immer wieder neu verhandelt, sondern könnten durch die einmalige Festlegung auch für die Zukunft verbindlich geregelt werden. Des Weiteren ließen sich Verwaltungsentscheidungen versachlichen, da das einmal gefundene Regelsystem für alle Betroffenen gleichermaßen zur Anwendung käme, ungeachtet möglicher persönlicher Präferenzen der Entscheider „vor Ort“. Damit ginge dieser Argumentation folgend ein Zuwachs an Fairness und Gleichberechtigung einher.</p>



<p>Demgegenüber ist jedoch eine potenzielle „Entmenschlichung“ politischer Entscheidungen durch eine weitergehende Automatisierung anzumerken. Gerade dann, wenn diese nicht mehr unter Berücksichtigung individueller Situationen getroffen werden, sind Verzerrungen und soziale Härten zu erwarten. Auch stellen sich Fragen nach den Verantwortlichkeiten im Einzelfall – und zwar sowohl politisch als auch rechtlich.</p>



<p>Die Herausforderung für Algorithmic Governance besteht demnach vor allem darin, das richtige Maß und einen Ausgleich zwischen diesen beiden Polen zu finden.</p>



<h2 class="wp-block-heading" id="von-algorithmic-governance-zu-ai-governance">Von Algorithmic Governance zu AI Governance</h2>



<p>Sofern in der Regierungs- und Verwaltungstätigkeit nicht nur fest programmierte Algorithmen, sondern auch intelligente, selbst lernende Systeme zum Einsatz kommen, verändert dies die Spielregeln für den Einsatz algorithmischer Verfahren und ebenso deren Bewertungsmaßstäbe grundsätzlich. Entsprechend hat sich hier inzwischen der Begriff der AI Governance (<a href="https://nerdwaerts.de/?s=AI&amp;submit=Search" target="_blank" rel="noreferrer noopener">AI</a> für <a href="https://nerdwaerts.de/?s=Artificial+Intelligence&amp;submit=Search" target="_blank" rel="noreferrer noopener">Artificial Intelligence</a>) als abgrenzende Bezeichnung etabliert.</p>



<p>Ganz entscheidend ist dabei: Der Einsatz von intelligenten, autonomen, selbst lernenden Systemen steht im Widerspruch zum IFTTT-Automatismus des „Code is Law“. Während herkömmliche Algorithmic Governance allein auf einem festen, menschlich definierten Regelsystem beruht, führt die Kombination mit KI potenziell zu einer Verselbständigung der Entscheidungsmuster. Begründet liegt dies in den Methoden des maschinellen Lernens, die ja gerade auf Autonomie in der Funktionsfähigkeit eines Systems zielen. Insbesondere wenn eine Anwendung eigenständig Kausalitäten identifizieren soll (wie beim <a href="https://nerdwaerts.de/2019/06/maschinelles-lernen-und-ki-im-marketing-lernmethoden-und-ihre-einsatzmoeglichkeiten-im-marketing/" target="_blank" rel="noreferrer noopener">Unsupervised Learning</a>) oder eine eigene Strategieentwicklung gefordert ist (wie beim Reinforcement Learning), verwischen die Grenzen zwischen ursprünglicher menschlicher Intention und abgeleiteter Systemlogik schnell. In der Praxis kommen heute zudem immer öfter Kombinationen aus verschiedenen Verfahren zum Einsatz, was die Problematik weiter verschärft. Es ist oft schwierig, den Pfad der Entscheidungsfindung, den ein lernendes System eigenständig eingeschlagen hat, zu rekonstruieren. Damit ist aber gerade eben keine starre Festlegung von abgewogenen Entscheidungsalternativen für spezifische Situationen möglich.</p>



<h2 class="wp-block-heading" id="ai-governance-ki-und-algorithmic-governance">AI Governance: KI und Algorithmic Governance</h2>



<p>Während Maßnahmen auf Grundlage herkömmlicher Algorithmic Governance ihre Rechtmäßigkeit aus diesem zuvor abgestimmten, „festverdrahteten“ Regelsystem beziehen, justieren sich <a href="https://nerdwaerts.de/?s=K%C3%BCnstliche+Intelligenz&amp;submit=Search" target="_blank" rel="noreferrer noopener">KI-Systeme</a> auf Grundlage ihres Lernfortschrittes permanent eigenständig neu. Dies mag legitim erscheinen, sofern zumindest die Ziele, anhand derer dies geschieht, Ausfluss eines am Staatszweck orientierten (demokratischen) Verfahrens sind. Gleichwohl ist für die Erreichung politischer Ziele in der Demokratie auch die Art und Weise ihres Zustandekommens relevant. Zieldefinitionen, anhand derer ein lernendes System sich ausrichtet, können schließlich stets nur quantitativer Natur sein. Die Auswirkungen einer solchen politischen Zieloptimierung weisen jedoch immer auch eine qualitative Dimension auf, deren Tragweite ein Algorithmus nie erfassen kann. Beispielsweise ist es sicherlich möglich, einem System eine bestimmte „optimale“ Budgetallokation als Ziel vorzugeben, die Frage, ob diese dann im Ergebnis im Einklang mit einem wie auch immer definierten Gemeinwohl steht, ist eine ganz andere und kann weder in der Praxis technisch noch in der Theorie legitim durch eine <a href="https://nerdwaerts.de/?s=K%C3%BCnstliche+Intelligenz&amp;submit=Search" target="_blank" rel="noreferrer noopener">KI </a>beantwortet werden, sondern verbleibt zwangsläufig Gegenstand der menschlichen Domäne.</p>



<p>Die faktischen Erscheinungsformen von Algorithmic Governance sollen in einem folgenden Beitrag behandelt werden, bevor sich dann ein weiterer Artikel mit der Legitimation algorithmischer Entscheidungen – insbesondere auch unter Rückgriff auf <a href="https://nerdwaerts.de/2019/06/maschinelles-lernen-und-ki-im-marketing-lernmethoden-und-ihre-einsatzmoeglichkeiten-im-marketing/" target="_blank" rel="noreferrer noopener">Verfahren des maschinellen Lernens</a> und <a href="https://nerdwaerts.de/?s=KI&amp;submit=Search">KI </a>befasst.</p>



<h2 class="wp-block-heading"></h2>



<p><em>Der Artikel erschien in überarbeiteter und deutlich erweiterter Form in der SWS-Rundschau, Andreas Wagener: Demokratische Legitimation von AI Governance, Sozialwissenschaftliche Rundschau, Heft 4/2021, 61. Jahrgang, S. 369 &#8211; 390</em></p>



<p></p>



<h2 class="wp-block-heading"></h2>



<p><strong>Vortrag/Keynote von Prof. Dr. Andreas Wagener: &#8222;Wie der Staat mit Daten umgeht.</strong> <strong>Was ist gesellschaftlich akzeptabel?&#8220;:   </strong></p>



<h2 class="wp-block-heading"></h2>



<iframe loading="lazy" width="560" height="315" src="https://www.youtube.com/embed/HCrHE-fSLx0" title="YouTube video player" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture" allowfullscreen=""></iframe>



<p><em>
Mehr Informationen zum Thema KI im Marketing finden Sie im Buch von <a href="https://nerdwaerts.de/keynotes/" target="_blank" rel="noopener noreferrer">Andreas Wagener</a> <a href="https://www.amazon.de/K%C3%BCnstliche-Intelligenz-Marketing-verbirgt-profitieren/dp/3648169572?__mk_de_DE=%C3%85M%C3%85%C5%BD%C3%95%C3%91&#038;crid=3LEYA68C1IHK9&#038;dib=eyJ2IjoiMSJ9.F0DFVjJXx3RDUq5AFGWmW72IYdQUzCcPngROcCJNE8MrT5C61IF2XaAkWPd_le2b5NPhi5td5gIJMn6bRqSJciSKGXyMa6Rl2rf8dzSbVR6sTRH9Exy9GurFiPKH0yYGAZsFgvQG6NeyubdeZNaRWEVcjwmhJmc_nJl4oafIWLlMbBn9e6hu_Jy3DVmk4iAv3Lg4OEXfVaJm88L9Q4G9iDM7nArvced8A0fx9Qj9qe0.nP-dKqYU-gE_d5W1Xtmrr8y7DR5pgrkPbPFkThWYiuY&#038;dib_tag=se&#038;keywords=Wagener+KI+im+Marketing&#038;qid=1728994048&#038;sprefix=wagener+ki+im+marketing%2Caps%2C94&#038;sr=8-1&#038;linkCode=ll1&#038;tag=nerdwaerts-21&#038;linkId=e5074a981472dec11b04d62f77503207&#038;language=de_DE&#038;ref_=as_li_ss_tl">Künstliche Intelligenz im Marketing</a>, Haufe, Freiburg, 2023</em></p>



<p>Mehr zu Themen wie Industrie 4.0, Big Data, Künstliche Intelligenz, Digital Commerce und Digitaler Ökonomie finden Sie auf unserer <a href="https://www.xing.com/news/pages/nerdwarts-de-316?sc_o=da980_e" target="_blank" rel="noopener noreferrer">Newsseite auf XING</a> sowie auf <a href="https://www.facebook.com/nerdwaerts/" target="_blank" rel="noopener noreferrer">Facebook</a>.</p>
<p>Der Beitrag <a href="https://nerdwaerts.de/2022/01/algorithmic-governance-ki-und-algorithmen-in-der-politik/">Algorithmic Governance &#8211; KI und Algorithmen in der Politik</a> erschien zuerst auf <a href="https://nerdwaerts.de">Nerdwärts.de</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://nerdwaerts.de/2022/01/algorithmic-governance-ki-und-algorithmen-in-der-politik/feed/</wfw:commentRss>
			<slash:comments>4</slash:comments>
		
		
			</item>
	</channel>
</rss>
