<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Algorithmic Bias Archive - Nerdwärts.de</title>
	<atom:link href="https://nerdwaerts.de/tag/algorithmic-bias/feed/" rel="self" type="application/rss+xml" />
	<link>https://nerdwaerts.de/tag/algorithmic-bias/</link>
	<description>Digitaler Wandel &#38; Digitale Bildung</description>
	<lastBuildDate>Thu, 12 Mar 2026 08:13:21 +0000</lastBuildDate>
	<language>de</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	

<image>
	<url>https://nerdwaerts.de/wp-content/uploads/2015/01/cropped-ASCII-Kompass_AW-32x32.gif</url>
	<title>Algorithmic Bias Archive - Nerdwärts.de</title>
	<link>https://nerdwaerts.de/tag/algorithmic-bias/</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Wie der Simplification Bias unseren Sinn für gute Entscheidungen trübt</title>
		<link>https://nerdwaerts.de/2024/11/wie-der-simplification-bias-unseren-sinn-fuer-gute-entscheidungen-truebt/</link>
					<comments>https://nerdwaerts.de/2024/11/wie-der-simplification-bias-unseren-sinn-fuer-gute-entscheidungen-truebt/#comments</comments>
		
		<dc:creator><![CDATA[Andreas Wagener]]></dc:creator>
		<pubDate>Tue, 26 Nov 2024 11:38:55 +0000</pubDate>
				<category><![CDATA[Allgemein]]></category>
		<category><![CDATA[Daten- & Algorithmusökonomie]]></category>
		<category><![CDATA[Digitale Bildung]]></category>
		<category><![CDATA[Industrie 4.0]]></category>
		<category><![CDATA[Kommentar]]></category>
		<category><![CDATA[Politik & Digitalisierung]]></category>
		<category><![CDATA[Weird & Strange]]></category>
		<category><![CDATA[#profwag]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[Algorithmic Bias]]></category>
		<category><![CDATA[Datenökonomie]]></category>
		<category><![CDATA[Digitalisierung]]></category>
		<category><![CDATA[Internet der Dinge]]></category>
		<category><![CDATA[KI]]></category>
		<category><![CDATA[Künstliche Intelligenz]]></category>
		<guid isPermaLink="false">https://nerdwaerts.de/?p=2328</guid>

					<description><![CDATA[<p>Natürlich sollte man nichts verkomplizieren. Oft sind ja einfache Lösungen durchaus sinnvoll. Aber angesichts der Komplexität unserer Umwelt neigen wir offenbar dazu, Probleme auf vermeintlich eindeutige Ursachen zurückzuführen. Dieser „Simplification Bias“ bestimmt zunehmend den gesellschaftlichen Diskurs, führt aber auch in Managementfragen zu schlechten Entscheidungen. Das regelmäßig schlechte und über die Jahre immer noch schlechter werdende [&#8230;]</p>
<p>Der Beitrag <a href="https://nerdwaerts.de/2024/11/wie-der-simplification-bias-unseren-sinn-fuer-gute-entscheidungen-truebt/">Wie der Simplification Bias unseren Sinn für gute Entscheidungen trübt</a> erschien zuerst auf <a href="https://nerdwaerts.de">Nerdwärts.de</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<p><strong>Natürlich sollte man nichts verkomplizieren. Oft sind ja einfache Lösungen durchaus sinnvoll. Aber angesichts der Komplexität unserer Umwelt neigen wir offenbar dazu, Probleme auf vermeintlich eindeutige Ursachen zurückzuführen. Dieser „Simplification Bias“ bestimmt zunehmend den gesellschaftlichen Diskurs, führt aber auch in Managementfragen zu schlechten Entscheidungen.</strong></p>



<img decoding="async" src="http://vg08.met.vgwort.de/na/623b636f509a4d969e038e774683fbc8" width="1" height="1" alt="">



<span id="more-2328"></span>



<img decoding="async" src="http://vg08.met.vgwort.de/na/623b636f509a4d969e038e774683fbc8" width="1" height="1" alt="">



<p>Das regelmäßig schlechte und über die Jahre immer noch schlechter werdende Abschneiden der Deutschen bei internationalen Sportwettkämpfen, bei Olympia sowie bei Welt- und Europameisterschaften liegt natürlich daran, dass wir „<a href="https://www.t-online.de/sport/olympia/id_100466278/nach-uli-hoeness-olympia-kritik-hat-deutschland-keinen-bock-auf-leistung-.html">keinen Bock mehr auf Leistung haben</a>“, was sich ja auch in der <a href="https://www.hna.de/kassel/siegen-muss-sich-auch-lohnen-93245386.html">Abschaffung</a> des <a href="https://www.eurosport.de/rodeln/felix-loch-knopft-sich-bundesjugendspiele-bjs-vor-augenwischerei_sto9777011/story.shtml">Wettkampfcharakters </a>der <a href="https://www.faz.net/aktuell/politik/inland/was-die-bundesjugendspiele-mit-olympia-ergebnissen-zu-tun-haben-19917633.html">Bundesjugendspiele</a> zeigt. Oder?&nbsp;</p>



<p>Und ja, nach einigen Messeattacken in der jüngeren Vergangenheit, erscheint es als probates Mittel, das Mitführen von Klingen mit <a href="https://www.tagesschau.de/inland/innenpolitik/faeser-messer-verbot-100.html">mehr als 6cm Länge</a> unter Strafe zu stellen. Das wird potenzielle Gewalttäter sicherlich in die Schranken weisen.</p>



<h2 class="wp-block-heading">Simplifizierung führt zu Fehleinschätzungen</h2>



<p>Vermeintlich naheliegenden Gründe werden als absolut und ausschlaggebend betrachtet. Das Problem ist dabei, dass man somit die eigentlichen Ursachen aus dem Blickfeld verliert und eine Problemlösung tatsächlich in weite Ferne rückt. Beispiel Bundesjugendspiele – ist es nicht eher ein Problem, dass die Vereinsstruktur im Sportbereich sich seit Jahren in einem <a href="https://www.deutschlandfunk.de/ehrenamt-sport-konkurrenz-100.html">Prozess der steten Auflösung befindet</a>? Und waren nicht in der Vergangenheit die Sportvereine die eigentliche Keimzelle des Leistungssports? Während sich noch vor 30 Jahren alle in eine Vereinskultur einfügten, die regelmäßig Sport treiben wollten, boomen heute Fitnessstudios. Es wird ebenfalls immer schwieriger, Menschen <a href="https://www.dfb.de/fileadmin/user_upload/_imported/Ehrenamtliches-freiwilliges-Engagement-im-Sport.pdf">insbesondere im Sportumfeld</a> für ehrenamtliche Tätigkeiten zu gewinnen. Vor allem gut ausgebildete Trainer, die sich am Wochenende und nach Feierabend dem sportaffinen Nachwuchs annehmen, sind heute eine echte Mangelware. Die Frage, wie man die Vereinskultur und die Bereitschaft zum sportlichen Ehrenamt stärken könnte, ist allerdings deutlich schwieriger zu beantworten.</p>



<p>Gleichfalls erscheint es zweifelhaft zu glauben, dass jemand, der bereit ist, vorsätzlich Körperverletzung zu begehen, sich nun durch ein Messerverbot davon abhalten ließe. Das eigentlich zugrundeliegende Problem der offenbar steigenden Gewaltbereitschaft anzugehen, ist jedoch weitaus schwieriger und langwieriger.</p>



<h2 class="wp-block-heading">Simplification Bias: Vereinfachung bis zur Verzerrung der Realität</h2>



<p>Eigentlich liegt es auf der Hand, dass diese Forderungen und Ableitungen blanker Unsinn sind. Warum aber verfangen diese argumentativen Kurzschlüsse immer wieder? Das Phänomen lässt sich auch als „Simplification Bias“ bezeichnen. Damit wird die Neigung umschrieben, komplexe Sachverhalte über die Maßen zu vereinfachen, um sie auf diese Weise verarbeitbar zu machen. Grundsätzlich ist der Versuch, Komplexität zu reduzieren, ja nichts Schlechtes. Aber wenn wichtige Details und bestimmende Faktoren dabei auf der Strecke bleiben, mündet dieser Prozess in einer verzerrten Wahrnehmung der Realität.</p>



<p>Tatsächlich dürfte ein Großteil des gegenwärtigen gesellschaftlichen Erregungspotenzials darauf zurückzuführen sein. Der Simplification Bias führt zu Generalisierung und Stereotypisierung.  Wichtige Details werden ausgeblendet, (vermeintliche) Korrelationen werden mit Kausalitäten gleichgesetzt. Und im Zweifelsfall sind wie immer die Grünen schuld (früher Merkel).</p>



<h2 class="wp-block-heading">Simplification Bias im Unternehmen</h2>



<p>Was im gesellschaftlichen Kontext zu Verwerfungen führt, trübt in der ökonomischen Sphäre den Entscheidungshorizont. Im Managementumfeld ist immer noch ein Bild des heroischen Lotsens vorherrschend, der Situationen schnell erfasst und darauf beruhend klare, eindeutige Entscheidungen trifft. Weit verbreitet ist auch das Mantra „besser falsche Entscheidungen als gar keine Entscheidungen treffen“. Detailversessenheit und langandauernde Meinungsbildung werden als Führungsschwäche ausgelegt. Rigoroses, schnelles Entscheiden und Durchgreifen gilt hingegen als Stärke und wird als „Macherqualität“ betrachtet.</p>



<p>Selbst wenn es dafür heute immer noch berechtigte Argumente geben mag, trifft dieses Führungsverständnis auf eine inzwischen deutlich komplexere Umwelt als noch vor wenigen Jahren. Immer kürzere Produktzyklen stehen zunehmend unberechenbaren externen (geopolitischen) Bedingungen gegenüber. Innovationen auf allen Gebieten – nicht zuletzt im Bereich der Digitalisierung und des maschinellen Lernens – führen zu äußerst volatilen Entscheidungsszenarien. Damit werden auch die Auswirkungen von (falschen) Entscheidungen komplexer. Einerseits erschwert dies die spätere Bewertung, die unternehmerische Evaluation, und damit auch die Zuweisung von Verantwortlichkeiten sowie die Identifizierung von Ursachen, erheblich. Andererseits legt dies nahe, dass allzu simple Entscheidungen vermutlich der Komplexität des Szenarios nicht gerecht werden.</p>



<h2 class="wp-block-heading">Langfristige Folgen falscher Entscheidungen in Phasen kurzer Entwicklungszyklen</h2>



<p>Folgen könnten zu kurzfristige Orientierungen sein, dort wo stattdessen langfristige Perspektiven angebracht wären. Fehlende Flexibilität und mangelnde Anpassungsfähigkeit drohen. Und schließlich besteht die Gefahr, dass dies in einer erheblich reduzierten Innovationskraft mündet: Wer einmal den Weg in die falsche Richtung eingeschlagen hat, muss fürchten, abgehängt zu werden, weil man durch eine spätere Korrektur, angesichts der skizzierten erhöhten Entwicklungsgeschwindigkeiten der Unternehmensumwelt, nicht mehr in der Lage ist, die ursprüngliche Fehlentscheidung zu kompensieren. </p>



<p>Womöglich erleben wir gerade einen entsprechenden Prozess bei der deutschen Automobilindustrie. Das Festhalten am Verbrenner kann auch als Simplifizierung des Entscheidungsraumes gelesen werden, der sich zu sehr an nationalen Gegebenheiten ausrichtete und durch entsprechende inner-gesellschaftliche Strömungen sowie nationale ideologische Diskurse flankiert wurde. Im Gegenzug unterschätzte man vielleicht die Wirkungsmacht der sich rapide ändernden globalen Haltung gegenüber E-Autos sowie die enorme <a href="https://www.tagesschau.de/wirtschaft/energie/erneuerbare-energien-china-100.html">Innovationsfähigkeit in Asien</a> und Amerika auf diesem Gebiet.</p>



<h2 class="wp-block-heading">Wie sollte man dem Simplification Bias entgegentreten?</h2>



<p>Wie also könnte man in diesen Zeiten in den Unternehmen dem Simplification Bias entgegenwirken? Auch darauf gibt es sicherlich keine einfache Antwort. Nicht zuletzt ist dies eine Kulturfrage. Sicherlich mit verbreiterten Entscheidungskanälen und „divers“ – im Sinne unterschiedlicher Kompetenzen &#8211; angelegter Expertise. Um diese zur Geltung zu bringen, bedarf es allerdings veränderter Entscheidungsstrukturen, die diese Kompetenzen auch angemessen integrieren. Zweifelsohne steigt mit der Erweiterung des Beteiligtenkreises die Gefahr, dringend notwendige Entscheidungen zu „zerreden“. Also müssen Instrumente und Verfahren geschaffen werden, die diesen Tendenzen entgegenwirken. Eine Etablierung einer effizienten Kultur der kritischen Reflexion und die Förderung systemischen Denkens innerhalb der Mitarbeiterschaft ist ein langfristiger Prozess, der entsprechende Führungsmodelle voraussetzt. Dieser kulturelle Wandel muss eben auch organisatorisch begleitet werden und sich in angepassten Strukturen widerspiegeln.</p>



<h2 class="wp-block-heading">Datengetriebene Methoden und maschinelles Lernen gegen Simplification Bias</h2>



<p>Zum anderen bieten aber gerade auch die aktuellen technologischen Entwicklungen Ansätze, um Simplification Bias in der Entscheidungsfindung abzubauen. Auch wenn diese bisher nur sehr selten und zögerlich aufgegriffen werden. Die Verwendung datengetriebener Methoden in der Entscheidungsfindung könnte neue Möglichkeiten eröffnen, die entstandene Komplexität beherrschbar zu gestalten. Dazu gehören Szenario-Planungen, flankiert durch virtuelle Simulationen oder die Verwendung von Predictive-Analytics-Werkzeugen in der strategischen Planung. KI könnten helfen, die Komplexität von Märkten, Kundenbedürfnissen oder operativen Prozessen sichtbar zu machen und blinde Flecken zu minimieren. Auch bei der strategischen Entscheidungsfindung ließen sich somit Produktivitätssteigerung realisieren.</p>



<p>Entscheidend dabei ist allerdings der richtige Umgang mit diesen technologischen Instrumenten. Zum einen muss sichergestellt sein, dass der Mensch <a href="https://nerdwaerts.de/2024/11/von-zentauren-und-cyborgs-wie-wir-ki-in-den-arbeitsalltag-integrieren/">im Fahrersitz bleibt</a>. Das erfordert unter anderem auch eine entsprechend aufzubauende Kompetenz. Zum anderen kann gerade die falsche „Fütterung“ der KI, ebenso wie ungenaues Prompting, zu einer Verstetigung des Simplification Bias <a href="https://nerdwaerts.de/2022/10/cdr-und-ki-bias/">führen</a>.</p>



<p>Auch wenn solche Ansätze für Managementprobleme derzeit noch kaum entwickelt sind: Datengetriebene Methoden, KI und maschinelles Lernen, könnten perspektivisch Verzerrungen reduzieren und für eine Bewältigung des Information Overflow in komplexen Entscheidungsumfeldern sorgen.</p>



<p>Das setzt allerdings neben dem entsprechenden Kompetenzerwerb auf Managementebene auch die Einsicht in das Kernproblem des Simplification Bias voraus: für komplexe Probleme gibt es selten einfache Lösungen.</p>



<p></p>



<p></p>



<p><strong>Mehr zum Thema: Vortrag/Keynote von Prof. Dr. Andreas Wagener: &#8222;Von Cyborgs und Digitalen Lebewesen: Wie generative KI&amp;VR menschliches Leben (und Sterben) verändern&#8220;:    </strong></p>



<iframe width="560" height="315" src="https://www.youtube.com/embed/2tjGPVbKElM?si=tVOpJ9AERWG_MVk3" title="YouTube video player" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>



<p><em>
Mehr Informationen zum Thema KI im Marketing finden Sie im Buch von <a href="https://nerdwaerts.de/keynotes/" target="_blank" rel="noopener noreferrer">Andreas Wagener</a> <a href="https://www.amazon.de/K%C3%BCnstliche-Intelligenz-Marketing-verbirgt-profitieren/dp/3648169572?__mk_de_DE=%C3%85M%C3%85%C5%BD%C3%95%C3%91&#038;crid=3LEYA68C1IHK9&#038;dib=eyJ2IjoiMSJ9.F0DFVjJXx3RDUq5AFGWmW72IYdQUzCcPngROcCJNE8MrT5C61IF2XaAkWPd_le2b5NPhi5td5gIJMn6bRqSJciSKGXyMa6Rl2rf8dzSbVR6sTRH9Exy9GurFiPKH0yYGAZsFgvQG6NeyubdeZNaRWEVcjwmhJmc_nJl4oafIWLlMbBn9e6hu_Jy3DVmk4iAv3Lg4OEXfVaJm88L9Q4G9iDM7nArvced8A0fx9Qj9qe0.nP-dKqYU-gE_d5W1Xtmrr8y7DR5pgrkPbPFkThWYiuY&#038;dib_tag=se&#038;keywords=Wagener+KI+im+Marketing&#038;qid=1728994048&#038;sprefix=wagener+ki+im+marketing%2Caps%2C94&#038;sr=8-1&#038;linkCode=ll1&#038;tag=nerdwaerts-21&#038;linkId=e5074a981472dec11b04d62f77503207&#038;language=de_DE&#038;ref_=as_li_ss_tl">Künstliche Intelligenz im Marketing</a>, Haufe, Freiburg, 2023</em></p>



<figure class="wp-block-image size-full is-resized"><a href="https://www.amazon.de/K%C3%BCnstliche-Intelligenz-Marketing-verbirgt-profitieren/dp/3648169572?__mk_de_DE=%C3%85M%C3%85%C5%BD%C3%95%C3%91&amp;crid=3LEYA68C1IHK9&amp;dib=eyJ2IjoiMSJ9.F0DFVjJXx3RDUq5AFGWmW72IYdQUzCcPngROcCJNE8MrT5C61IF2XaAkWPd_le2b5NPhi5td5gIJMn6bRqSJciSKGXyMa6Rl2rf8dzSbVR6sTRH9Exy9GurFiPKH0yYGAZsFgvQG6NeyubdeZNaRWEVcjwmhJmc_nJl4oafIWLlMbBn9e6hu_Jy3DVmk4iAv3Lg4OEXfVaJm88L9Q4G9iDM7nArvced8A0fx9Qj9qe0.nP-dKqYU-gE_d5W1Xtmrr8y7DR5pgrkPbPFkThWYiuY&amp;dib_tag=se&amp;keywords=Wagener+KI+im+Marketing&amp;qid=1728994048&amp;sprefix=wagener+ki+im+marketing%2Caps%2C94&amp;sr=8-1&amp;linkCode=ll1&amp;tag=nerdwaerts-21&amp;linkId=e5074a981472dec11b04d62f77503207&amp;language=de_DE&amp;ref_=as_li_ss_tl"><img fetchpriority="high" decoding="async" width="345" height="466" src="https://nerdwaerts.de/wp-content/uploads/2024/10/Kuenstliche-Intelligenz-im-Marketing-2023.jpg" alt="" class="wp-image-2211" style="width:248px;height:auto" srcset="https://nerdwaerts.de/wp-content/uploads/2024/10/Kuenstliche-Intelligenz-im-Marketing-2023.jpg 345w, https://nerdwaerts.de/wp-content/uploads/2024/10/Kuenstliche-Intelligenz-im-Marketing-2023-222x300.jpg 222w" sizes="(max-width: 345px) 100vw, 345px" /></a></figure>



<p>Mehr zu Themen wie Industrie 4.0, Big Data, Künstliche Intelligenz, Digital Commerce und Digitaler Ökonomie finden Sie auf unserer <a href="https://www.xing.com/news/pages/nerdwarts-de-316?sc_o=da980_e" target="_blank" rel="noopener noreferrer">Newsseite auf XING</a> sowie auf <a href="https://www.facebook.com/nerdwaerts/" target="_blank" rel="noopener noreferrer">Facebook</a>.</p>



<p></p>



<p></p>

<!-- nerdwaerts-affiliate-block -->

<hr/><h3>Weiterfuehrende Literatur</h3><table style="width:100%;border-collapse:collapse;"><tr><td style="padding:10px;vertical-align:top;width:33%;"><a href="https://www.amazon.de/dp/3868816739/?tag=nerdwaerts-21" target="_blank" rel="nofollow"><strong>Das Zeitalter des Ueberwachungskapitalismus</strong></a><br/><em>Shoshana Zuboff</em><br/><small>Pflichtlektuere fuer alle, die die politische Oekonomie von Google, Meta und Co. verstehen wollen.</small></td><td style="padding:10px;vertical-align:top;width:33%;"><a href="https://www.amazon.de/dp/3499632942/?tag=nerdwaerts-21" target="_blank" rel="nofollow"><strong>Technofeudalism</strong></a><br/><em>Yanis Varoufakis</em><br/><small>Hat der Kapitalismus dem Cloud-Feudalismus Platz gemacht? Eine provokante und erhellende Analyse.</small></td><td style="padding:10px;vertical-align:top;width:33%;"><a href="https://www.amazon.de/dp/3446479228/?tag=nerdwaerts-21" target="_blank" rel="nofollow"><strong>KI 2041</strong></a><br/><em>Kai-Fu Lee, Chen Qiufan</em><br/><small>Szenarien fuer die KI-Gesellschaft der Zukunft.</small></td></tr></table>
<div style="background:#f8f7f2;border-left:3px solid #b8972a;padding:10px 15px;margin:20px 0;font-size:0.88em;color:#555;"><strong>Hinweis:</strong> Dieser Artikel enthaelt Affiliate-Links zu Amazon. Wenn Sie ueber diese Links kaufen, erhalte ich eine kleine Provision &#8211; fuer Sie entstehen keine Mehrkosten.</div>
<p>Der Beitrag <a href="https://nerdwaerts.de/2024/11/wie-der-simplification-bias-unseren-sinn-fuer-gute-entscheidungen-truebt/">Wie der Simplification Bias unseren Sinn für gute Entscheidungen trübt</a> erschien zuerst auf <a href="https://nerdwaerts.de">Nerdwärts.de</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://nerdwaerts.de/2024/11/wie-der-simplification-bias-unseren-sinn-fuer-gute-entscheidungen-truebt/feed/</wfw:commentRss>
			<slash:comments>2</slash:comments>
		
		
			</item>
		<item>
		<title>Transparenz und Verantwortung: Das Legitimationsproblem algorithmischer Entscheidungen in der Politik</title>
		<link>https://nerdwaerts.de/2022/03/transparenz-und-verantwortung-das-legitimationsproblem-algorithmischer-entscheidungen-in-der-politik/</link>
					<comments>https://nerdwaerts.de/2022/03/transparenz-und-verantwortung-das-legitimationsproblem-algorithmischer-entscheidungen-in-der-politik/#respond</comments>
		
		<dc:creator><![CDATA[Andreas Wagener]]></dc:creator>
		<pubDate>Tue, 01 Mar 2022 10:09:47 +0000</pubDate>
				<category><![CDATA[Allgemein]]></category>
		<category><![CDATA[Daten- & Algorithmusökonomie]]></category>
		<category><![CDATA[Digitale Bildung]]></category>
		<category><![CDATA[Internet of Things]]></category>
		<category><![CDATA[Kommentar]]></category>
		<category><![CDATA[Politik & Digitalisierung]]></category>
		<category><![CDATA[Vorratsdatenspeicherung]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[AI Governance]]></category>
		<category><![CDATA[Algorithm Economy]]></category>
		<category><![CDATA[Algorithmic Bias]]></category>
		<category><![CDATA[Algorithmic Governance]]></category>
		<category><![CDATA[Algorithmusökonomie]]></category>
		<category><![CDATA[Artificial Intelligence]]></category>
		<category><![CDATA[Digitalisierung]]></category>
		<category><![CDATA[Explainable AI]]></category>
		<category><![CDATA[KI]]></category>
		<category><![CDATA[Künstliche Intelligenz]]></category>
		<category><![CDATA[Politische Disruption]]></category>
		<category><![CDATA[Predictive Policing]]></category>
		<category><![CDATA[Racial Profiling]]></category>
		<category><![CDATA[Responsible AI]]></category>
		<guid isPermaLink="false">https://nerdwaerts.de/?p=2036</guid>

					<description><![CDATA[<p>Im Zuge von Algorithmic Governance wird zunehmend auf den Einsatz von Algorithmen und KI für Entscheidungen und deren Ausführung in der praktischen Politik zurückgegriffen. Aber wie lassen sich diese Eingriffe demokratisch legitimieren und unter gesellschaftlichen Aspekten rechtfertigen? In den beiden vorangegangenen Beiträgen haben wir uns mit der Beschaffenheit von algorithmischen Entscheidungen und dem Problem des [&#8230;]</p>
<p>Der Beitrag <a href="https://nerdwaerts.de/2022/03/transparenz-und-verantwortung-das-legitimationsproblem-algorithmischer-entscheidungen-in-der-politik/">Transparenz und Verantwortung: Das Legitimationsproblem algorithmischer Entscheidungen in der Politik</a> erschien zuerst auf <a href="https://nerdwaerts.de">Nerdwärts.de</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<p><strong><strong><strong><strong><strong>Im Zuge von Algorithmic Governance wird zunehmend auf den Einsatz von Algorithmen und KI für Entscheidungen und deren Ausführung in der praktischen Politik zurückgegriffen. Aber wie lassen sich diese Eingriffe demokratisch legitimieren und unter gesellschaftlichen Aspekten rechtfertigen?</strong></strong></strong></strong></strong></p>



<img loading="lazy" decoding="async" src="http://vg08.met.vgwort.de/na/11cd627394904af9ac63a245a7fa95e1" width="1" height="1" alt="">



<span id="more-2036"></span>



<img loading="lazy" decoding="async" src="http://vg08.met.vgwort.de/na/11cd627394904af9ac63a245a7fa95e1" width="1" height="1" alt="">



<p>In den beiden vorangegangenen Beiträgen haben wir uns mit der <a href="https://nerdwaerts.de/2022/01/algorithmic-governance-ki-und-algorithmen-in-der-politik/">Beschaffenheit von algorithmischen Entscheidungen und dem Problem des Einsatzes von KI in der Politik</a> (<a href="https://nerdwaerts.de/?s=AI+Governance&amp;submit=Search" target="_blank" rel="noreferrer noopener">AI Governance</a>) <a href="https://nerdwaerts.de/2022/01/algorithmic-governance-ki-und-algorithmen-in-der-politik/" target="_blank" rel="noreferrer noopener">(Teil 1)</a> sowie mit den <a href="https://nerdwaerts.de/2022/02/kategorien-und-erscheinungsformen-von-algorithmic-governance" target="_blank" rel="noreferrer noopener">entsprechenden Einsatzfeldern (Teil 2)</a> beschäftigt. Nachdem der Rückgriff auf diese Verfahren bereits faktisch erfolgt, gilt es dringend die Rechtmäßigkeit und Legitimität dieses Einsatzes zu hinterfragen.</p>



<p>Für die Akzeptanz algorithmischer Entscheidungen ist deren Nachvollziehbarkeit von großer Bedeutung. Je mehr Daten aus unterschiedlichen Datenquellen zur Verfügung stehen, umso komplexer geraten jedoch zwangsläufig die zugrundeliegenden Berechnungen. In der Praxis sind die Entscheidungspfade von <a href="https://nerdwaerts.de/2019/06/maschinelles-lernen-und-ki-im-marketing-lernmethoden-und-ihre-einsatzmoeglichkeiten-im-marketing/" target="_blank" rel="noreferrer noopener">KI </a>heute oft nur durch ein aufwändiges „reverse engineering“ zu entschlüsseln. Transparenz ist allerdings wichtig, damit verständlich ist, warum eine Entscheidung auf diese Art und Weise getroffen wurde – und sich davon Betroffene gegebenenfalls mit den Mitteln des demokratischen Rechtsstaats dagegen zur Wehr setzen können. <a href="https://www.europarl.europa.eu/news/de/press-room/20200206IPR72015/kunstliche-intelligenz-parlament-will-faire-und-sichere-nutzung-fur-verbraucher" target="_blank" rel="noreferrer noopener">Schon seit geraumer Zeit wird daher eine Art Bürgerrecht auf die Offenlegung algorithmischer Entscheidungen diskutiert.</a> Die Komplexität moderner, vielschichtiger „Deep Learning“-Systeme und die ihnen immanente Eigenständigkeit bei der Weiterentwicklung der Entscheidungssystematiken erschweren diese Rekonstruktion jedoch erheblich. Diesem Aspekt widmet sich das noch neue Forschungsfeld der „<a href="https://de.wikipedia.org/wiki/Explainable_Artificial_Intelligence" target="_blank" rel="noreferrer noopener">Explainable AI</a>“, welches zum Ziel hat, <a href="https://openaccess.city.ac.uk/id/eprint/23405/" target="_blank" rel="noreferrer noopener">Handreichungen für die Erklärung von KI-Entscheidungen im Alltag zu liefern</a> – zum Beispiel warum ein Versicherungsantrag abgelehnt oder die Kreditwürdigkeit eines Schuldners herabgestuft wurde – und auch um mögliche Diskriminierungen in diesem Kontext aufzudecken.</p>



<h2 class="wp-block-heading" id="algorithmic-governance-und-algorithmic-bias">Algorithmic Governance und Algorithmic Bias</h2>



<p>Neben rational nachvollziehbaren Entscheidungswegen stehen hierbei auch technische Auswüchse und Fehlentwicklungen, wie der sogenannte „Algorithmic Bias“ im Fokus. Immer wieder kommt es zu einem vermeintlichen Versagen von algorithmischen Systemen, die plötzlich scheinbar irrationale, auch ethisch frag- oder verurteilungswürdige Ergebnisse produzieren. Die Ursache hierfür liegt allerdings meist nicht in der Systemstruktur, sondern im Lernprozess und ist in der Regel auf eine unausgewogene Zuführung von Trainingsdaten zurückzuführen.</p>



<p>Zu einer entsprechend zweifelhaften Berühmtheit brachte es ein von Google verwendeter Bilderkennungsalgorithmus, der Fotos autonom benannte und sortierte.&nbsp; Eine Aufnahme, die zwei Afroamerikaner zeigte, wurde mit der Bezeichnung „Gorillas“ etikettiert und verarbeitet. <a href="https://www.wsj.com/articles/BL-DGB-42522" target="_blank" rel="noreferrer noopener">Der Aufschrei vor allem in den USA war entsprechend groß</a>. Als Ursache wurde eine unbeabsichtigte einseitige Auswahl und Verwendung von Trainingsbildmaterial identifiziert. Offenbar hatte man vorwiegend Fotos von hellhäutigen Personen für das Training der Kategorie Mensch verwendet, die Zuordnung eines Bildes eines dunkelhäutigen Menschen durch den Algorithmus erfolgte dann zwangsläufig unter großer Unsicherheit: Je nachdem welches Merkmal der Algorithmus als signifikant für die Zuordnung zu einer Kategorie identifizierte – auch Gorillas haben schwarze Haut – <a href="https://qz.com/1064035/google-goog-explains-how-artificial-intelligence-becomes-biased-against-women-and-minorities/" target="_blank" rel="noreferrer noopener">wurde die Sortierung entsprechend ausgeführt</a>. Dass sich auch Facebook etliche Jahre später, im Jahr 2021, mit einer vergleichbaren Problematik konfrontiert sah – der Newsfeed-Algorithmus fragte Nutzer, <a href="https://www.nytimes.com/2021/09/03/technology/facebook-ai-race-primates.html" target="_blank" rel="noreferrer noopener">die sich ein Video mit dem Titel „Weißer Mann ruft Polizei wegen schwarzen Männern am Hafen“ angesehen hatten, ob sie nun „weitere Videos über Primaten“ sehen wollten</a> – zeigt, wie schwierig es offensichtlich ist, hier eine zufriedenstellende technische Lösung zu finden. Gerade im staatlichen Kontext wäre es aber selbstverständlich höchst problematisch, wenn Menschen nicht mehr als solche identifiziert werden.</p>



<h2 class="wp-block-heading" id="predictive-policing-als-algorithmic-governance">Predictive Policing als Algorithmic Governance</h2>



<p>Im Bereich der staatlichen Governance sorgt in diesem Zusammenhang regelmäßig das sogenannte „Predictive Policing“ für Aufsehen, das vor allem in den USA, aber auch zunehmend in Europa zum Einsatz kommt. Mit dem Ziel, die Polizeiarbeit auf diese Weise effizienter zu steuern, soll die Wahrscheinlichkeit „zukünftiger“ Straftaten oder des Eintritts anderer polizeilicher Einsatzszenarien, aus einer Vielzahl von verfügbaren Datenquellen berechnet werden. <a href="https://openscholarship.wustl.edu/cgi/viewcontent.cgi?article=6306&amp;context=law_lawreview" target="_blank" rel="noreferrer noopener">Durch die entsprechend daraus abgeleitete erhöhte Präsenz in ermittelten Problembezirken soll es gelingen, die Kriminalitätsraten erheblich zu senken</a>. Kritiker bemängeln allerdings die damit ihrer Ansicht nach zwangsläufig einhergehende Diskriminierung, werden hier doch alle Bewohner eines Stadtteils automatisiert unter Generalverdacht gestellt, sofern die hinterlegten Algorithmen ihre Nachbarn „statistisch“ als vergleichsweise kriminell einstufen. Auch sind in den USA überwiegend afroamerikanische Gegenden von den zusätzlichen Polizeikontrollen betroffen, was dem System den Vorwurf der Ungleichbehandlung und des „Racial Profiling“&nbsp;einbrachte. Die Funktionsweise der algorithmischen Entscheidungsfindung definiert somit in diesem Fall den Umgang des Staates mit seinen Angehörigen, teilt diese automatisiert in mehr- und minderprivilegierte Gruppen und wirkt mit diesem „Bias“ unweigerlich auf den Bereich der Bürgerrechte ein.</p>



<h2 class="wp-block-heading" id="algorithmic-governance-und-transparenz">Algorithmic Governance und Transparenz</h2>



<p>Die Gewährleistung von Transparenz verkörpert gerade in „Sachfragen“ seit jeher eine wichtige erste Bedingung zum Schutz vor Verzerrungen und Manipulationen. Gerade da, wo eine direkte politische Aufsicht durch entsprechende Institutionen nicht möglich oder nicht zweckmäßig erscheint, ist im demokratischen Staat eine Überwachung durch das öffentliche Publikum unabdingbar. Aber nur, wenn staatliches Handeln hier tatsächlich sichtbar und „durchschaubar“ wird, kann die Öffentlichkeit dieser Kontrollfunktion auch gerecht werden.</p>



<p>Neben der Nachvollziehbarkeit ist auch die Zuweisung von Verantwortlichkeiten von Governance-Entscheidungen und die dazugehörige Rechenschaftspflicht, also die „Accountability“, für die Funktionsweise des demokratischen Staates unerlässlich. Sofern die Abwicklung politischer Prozesse von den menschlichen Repräsentanten eines Staates gewissermaßen auf eine technische Lösung „outgesourced“ wird, so ist deren Arbeitsweise einerseits aufgrund von Effizienzerfordernissen, andererseits aber auch hinsichtlich der Vereinbarkeit der generierten Ergebnisse mit den staatlichen Zielen regelmäßig zu überprüfen.&nbsp;</p>



<h2 class="wp-block-heading" id="verantwortung-und-algorithmic-governance">Verantwortung und Algorithmic Governance</h2>



<p>Die Zurechenbarkeit politischer Handlungen ist in der Demokratie essentiell. Sie kann in diesem Kontext jedoch nur gewährleistet werden, wenn der Einsatz von Algorithmen ausdrücklich als Hilfsmittel der demokratisch legitimierten menschlichen Vertreter betrachtet wird – jedenfalls so lange es nicht möglich ist, den Algorithmus aufgrund von Unzufriedenheit mit den erbrachten Leistungen direkt selbst zu sanktionieren – also abzuwählen. Wenn diese – langfristig durchaus technisch denkbare &#8211; Option nicht besteht, bedeutet das, dass die Leistung eingesetzter Algorithmen zwingend mit den gewählten Repräsentanten des Staates, die diesen Einsatz verantworten, verknüpfbar sein muss. Dies bedeutet wiederum, dass nicht nur demokratische Kontrollinstanzen, sondern vor allem auch diejenigen, die den Einsatz von Algorithmen im Bereich der Governance verantworten, nachvollziehen und verstehen müssen, wie und warum diese auf ihre spezifische Weise funktionieren (oder eben nicht). Das kommt besonders dann zum Tragen, wenn die algorithmische Entscheidung einen hohen Automatisierungsgrad aufweist – in aller Regel bereits ab der <a href="https://nerdwaerts.de/2022/02/kategorien-und-erscheinungsformen-von-algorithmic-governance" target="_blank" rel="noreferrer noopener">beschriebenen Kategorie A2, in jedem Fall bei A3</a>, im Falle „echter“ <a href="https://nerdwaerts.de/?s=AI+Governance&amp;submit=Search" target="_blank" rel="noreferrer noopener">AI-Governance</a>.</p>



<h2 class="wp-block-heading" id="explainable-ai-und-responsible-ai">Explainable AI und Responsible AI</h2>



<p>Der in jüngster Zeit verstärkt verwendete Begriff der „<a href="https://www.gartner.com/en/documents/3988006/hype-cycle-for-artificial-intelligence-2020" target="_blank" rel="noreferrer noopener">Responsible AI</a>“ erweitert den oben genannten Terminus der „Explainable AI“. Er steht für den Übergang von Absichtserklärungen und formulierten Grundprinzipien hin zu einer Operationalisierung der Verantwortlichkeiten und Rechenschaftspflichten, auch, aber nicht ausschließlich, im Bereich der <a href="https://nerdwaerts.de/2022/01/algorithmic-governance-ki-und-algorithmen-in-der-politik/" target="_blank" rel="noreferrer noopener">Algorithmic Governance</a>. Gleichwohl sind diese Bestrebungen in der Umsetzung derzeit noch als recht rudimentär einzuordnen – <a href="https://www.gartner.com/en/documents/3988006/hype-cycle-for-artificial-intelligence-2020" target="_blank" rel="noreferrer noopener">zumindest was komplexere, KI-basierte Algorithmen betrifft</a>. Das bedeutet, dass sich zwar alle Ansätze zur demokratischen Legitimation von <a href="https://nerdwaerts.de/2022/01/algorithmic-governance-ki-und-algorithmen-in-der-politik/" target="_blank" rel="noreferrer noopener">Algorithmic Governance</a> selbstverständlich am Umgang mit den beschriebenen Herausforderungen im Bereich der Transparenz und Accountability messen lassen müssen, gleichzeitig aber auch, dass dies vermutlich nur schwer mittels herkömmlicher Modelle und Vorgehensweisen gelingen wird.</p>



<h2 class="wp-block-heading" id="grenzen-von-algorithmich-governance-und-ihrer-demokratischen-legitimation">Grenzen von Algorithmich Governance und ihrer demokratischen Legitimation</h2>



<p>Man könnte die Auffassung vertreten, dass angesichts der Bedeutung, die Algorithmen heute in unserem Alltag einnehmen, vielleicht bereits das Ende des Anthropozäns eingeläutet worden ist und wir damit nun am Anfang eines „posthumanen“ Zeitalters stehen. Das gilt vor allem dann, wenn man auf die Entwicklungen im Bereich der <a href="https://nerdwaerts.de/2019/06/maschinelles-lernen-und-ki-im-marketing-lernmethoden-und-ihre-einsatzmoeglichkeiten-im-marketing/" target="_blank" rel="noreferrer noopener">KI</a> und den entsprechenden Autonomiegrad solcher hoch entwickelten Systeme blickt. Entsprechend werden schließlich auch unter dem Aspekt der „Singularität“ die gesellschaftlichen und ökonomischen Auswirkungen <a href="https://philpapers.org/rec/BOSS" target="_blank" rel="noreferrer noopener">diskutiert</a>, sollten Algorithmen und intelligente Systeme eines – nicht allzu fernen – Tages die menschliche Leistungs- und Adaptionsfähigkeit übertroffen haben.</p>



<p>De Facto sind Algorithmen heute schon nicht mehr rein technisch-rationale Konstrukte. Sie repräsentieren auch immer den Einfluss derjenigen, die an ihrer Entstehung beteiligt sind, sowohl politisch als auch technisch. Insofern können sie als eine Art „Amalgam“ aus Mensch und Code verstanden werden. In dieser Auffassung spiegelt sich das Grundprinzip der Denkschule des „Neuen Materialismus“ wider. Demnach erschiene es zunehmend unangebracht, zwischen Menschen und Nichtmenschen, Leben und nicht lebendiger Materie und auch zwischen Akteuren und Strukturen zu unterscheiden. Vielmehr vermischen sich Menschen und Computeralgorithmen zu „sozio-materiellen Assemblagen“ (Kim 2020), wodurch neue Handlungsfähigkeiten und daraus resultierende Wirkungsweisen entstehen.</p>



<h2 class="wp-block-heading" id="von-algorithmic-governance-zur-governance-of-things">Von Algorithmic Governance zur Governance of Things</h2>



<p>In Anlehnung an das vielzitierte „Internet der Dinge“ („<a href="https://nerdwaerts.de/?s=Internet+of+Things&amp;submit=Search" target="_blank" rel="noreferrer noopener">Internet of Things</a>“) könnte auf diese Weise dann eine „Governance of Things“ entstehen. Die menschlichen Systementwickler diktierten dabei nicht die Funktionsweise des Algorithmus, die Governance entstünde aus dem Zusammenwirken von Algorithmus und Systementwicklern, explizit etwa beim menschlich induzierten Training mit <a href="https://nerdwaerts.de/2019/06/maschinelles-lernen-und-ki-im-marketing-lernmethoden-und-ihre-einsatzmoeglichkeiten-im-marketing/" target="_blank" rel="noreferrer noopener">KI</a>-Daten und der daraus resultierenden autonomen Lernentwicklung des Systems. Dieser Vorgang beinhaltet laufende Interaktionen und Iterationsschleifen zwischen beiden „Parteien“ und führt damit zu einer Verselbständigung dieser „Amalgambildung“.</p>



<h2 class="wp-block-heading" id="spannungsfelder-von-algorithmic-governance">Spannungsfelder von Algorithmic Governance</h2>



<p>Die Frage ist jedoch, ob diese Betrachtungsweise der Legitimation algorithmischer politischer Entscheidungen dienen kann. Wie wir gesehen haben, bewegt sich <a href="https://nerdwaerts.de/?s=Algorithmic+Governance&amp;submit=Search" target="_blank" rel="noreferrer noopener">Algorithmic Governance</a> in einem Spannungsfeld zwischen mehreren verschiedenen Polen, was es immens erschwert, hierauf eine eindeutige Antwort zu geben:</p>



<p>Einerseits kann sie für politische Ergebniseffizienz sorgen, indem die das menschliche Vermögen übersteigenden Rechenleistungen zielgerichtet eingesetzt werden. Andererseits besteht die Gefahr, dass damit im Einzelfall bürgerliche Rechte eingeschränkt werden oder dies Diskriminierung zur Folge hat, wenn Effizienz das ausschlaggebende Element von Politik wird.</p>



<p>Einerseits sorgt der Rückgriff auf Algorithmen für eine Versachlichung politischer Entscheidungen. Andererseits kann genau dies auch zu einer Entmenschlichung führen, wenn Einzelschicksale zu Gunsten „des großen Ganzens“ in automatisierten Entscheidungssituationen keine Berücksichtigung finden können.</p>



<p>Einerseits ist Transparenz der Entscheidungsprozesse ein wichtiges Legitimationserfordernis. Andererseits beinhaltet dies auch eine weitgehende Transparenz des Individuums, denn anders können spezifische Entscheidungen durch Algorithmen nicht effizient getroffen werden, wodurch aber das Bürgerrecht der informationellen Selbstbestimmung tangiert wird.</p>



<p>Diese Spannungsfelder berühren den Kern vieler hochrelevanter gesellschaftspolitischer Themen. Es erscheint schwer vorstellbar, diese bislang in allen Demokratien der Welt immer wieder aufs Neue auszuhandelnden Fragen einem letztlich doch seelenlosen System anzuvertrauen oder ihm hier zumindest ein qualitatives „Mitspracherecht“ einzuräumen &#8211; jedenfalls solange ein posthumanes Zeitalter noch nicht eingetreten ist. Und würde nicht gerade der regelmäßige Einsatz von intelligenten Algorithmen in der Politik dessen möglichen Eintritt beschleunigen?&nbsp;</p>



<h2 class="wp-block-heading" id="algorithmic-governance-vs-ai-governance">Algorithmic Governance vs. AI Governance</h2>



<p>Der Unterschied zwischen „<a href="https://nerdwaerts.de/?s=Algorithmic+Governance&amp;submit=Search" target="_blank" rel="noreferrer noopener">Governance by Algorithms</a>“ und „<a href="https://nerdwaerts.de/?s=AI+Governance&amp;submit=Search" target="_blank" rel="noreferrer noopener">Governance by AI</a>“ ist im eigenständigen Lernen und dem Autonomiegrad algorithmischer Entscheidungen zu sehen. Solange Algorithmen ein bloßes Hilfsmittel der Regierungsarbeit darstellen, die Kontrolle bei den menschlichen Entscheidern verbleibt – <a href="https://nerdwaerts.de/2022/02/kategorien-und-erscheinungsformen-von-algorithmic-governance" target="_blank" rel="noreferrer noopener">so wie im vorigen Artikel in dieser Reihe in der Kategorie A1 beschrieben</a> – können diese einen wichtigen und wertvollen Beitrag zur praktischen Politik leisten, indem sie Entscheidungen tatsächlich effizienter, sachlicher und transparenter machen. Mindestens aber, wenn von „echter“ <a href="https://nerdwaerts.de/?s=AI+Governance&amp;submit=Search" target="_blank" rel="noreferrer noopener">AI Governance</a> die Rede ist, aber eigentlich schon bei der <a href="https://nerdwaerts.de/2022/02/kategorien-und-erscheinungsformen-von-algorithmic-governance" target="_blank" rel="noreferrer noopener">zweiten, nicht gänzlich autonomen Kategorie (A2)</a>, werden schnell die Grenzen legitimer Einsatzszenarien überschritten. Eine Legitimation nach demokratietheoretischen (humanistischen) Gesichtspunkten ist dann eigentlich nicht denkbar. Für den demokratischen Staat kann das dann aber in letzter Konsequenz nur bedeuten, dass <a href="https://nerdwaerts.de/?s=AI+Governance&amp;submit=Search" target="_blank" rel="noreferrer noopener">AI Governance</a> in sämtlichen Bereichen der staatlichen Sphäre ausgeschlossen werden sollte – mit allen Konsequenzen, die dies auch für bereits erprobte Anwendungen hat.</p>



<p>Solange wir davon ausgehen, dass Politik und gesellschaftliche Prozesse auch in Zeiten zunehmender Komplexität zuallererst Gegenstand zwischenmenschlicher Verhandlungen sind, sollten wir uns der Demokratie willen dieser Verantwortung höchstpersönlich und nicht verschanzt hinter einer Mauer aus Einsen und Nullen stellen.</p>



<h2 class="wp-block-heading"></h2>



<p><em>Der Artikel erschien in überarbeiteter und deutlich erweiterter Form in der SWS-Rundschau, Andreas Wagener: Demokratische Legitimation von AI Governance, Sozialwissenschaftliche Rundschau, Heft 4/2021, 61. Jahrgang, S. 369 &#8211; 390</em></p>



<p></p>



<h2 class="wp-block-heading"></h2>



<p><strong>Vortrag/Keynote von Prof. Dr. Andreas Wagener: &#8222;Wie der Staat mit Daten umgeht.</strong> <strong>Was ist gesellschaftlich akzeptabel?&#8220;:   </strong></p>



<h2 class="wp-block-heading"></h2>



<iframe loading="lazy" width="560" height="315" src="https://www.youtube.com/embed/HCrHE-fSLx0" title="YouTube video player" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture" allowfullscreen=""></iframe>



<p><em>
Mehr Informationen zum Thema KI im Marketing finden Sie im Buch von <a href="https://nerdwaerts.de/keynotes/" target="_blank" rel="noopener noreferrer">Andreas Wagener</a> <a href="https://www.amazon.de/K%C3%BCnstliche-Intelligenz-Marketing-verbirgt-profitieren/dp/3648169572?__mk_de_DE=%C3%85M%C3%85%C5%BD%C3%95%C3%91&#038;crid=3LEYA68C1IHK9&#038;dib=eyJ2IjoiMSJ9.F0DFVjJXx3RDUq5AFGWmW72IYdQUzCcPngROcCJNE8MrT5C61IF2XaAkWPd_le2b5NPhi5td5gIJMn6bRqSJciSKGXyMa6Rl2rf8dzSbVR6sTRH9Exy9GurFiPKH0yYGAZsFgvQG6NeyubdeZNaRWEVcjwmhJmc_nJl4oafIWLlMbBn9e6hu_Jy3DVmk4iAv3Lg4OEXfVaJm88L9Q4G9iDM7nArvced8A0fx9Qj9qe0.nP-dKqYU-gE_d5W1Xtmrr8y7DR5pgrkPbPFkThWYiuY&#038;dib_tag=se&#038;keywords=Wagener+KI+im+Marketing&#038;qid=1728994048&#038;sprefix=wagener+ki+im+marketing%2Caps%2C94&#038;sr=8-1&#038;linkCode=ll1&#038;tag=nerdwaerts-21&#038;linkId=e5074a981472dec11b04d62f77503207&#038;language=de_DE&#038;ref_=as_li_ss_tl">Künstliche Intelligenz im Marketing</a>, Haufe, Freiburg, 2023</em></p>



<p>Mehr zu Themen wie Industrie 4.0, Big Data, Künstliche Intelligenz, Digital Commerce und Digitaler Ökonomie finden Sie auf unserer <a href="https://www.xing.com/news/pages/nerdwarts-de-316?sc_o=da980_e" target="_blank" rel="noopener noreferrer">Newsseite auf XING</a> sowie auf <a href="https://www.facebook.com/nerdwaerts/" target="_blank" rel="noopener noreferrer">Facebook</a>.</p>
<p>Der Beitrag <a href="https://nerdwaerts.de/2022/03/transparenz-und-verantwortung-das-legitimationsproblem-algorithmischer-entscheidungen-in-der-politik/">Transparenz und Verantwortung: Das Legitimationsproblem algorithmischer Entscheidungen in der Politik</a> erschien zuerst auf <a href="https://nerdwaerts.de">Nerdwärts.de</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://nerdwaerts.de/2022/03/transparenz-und-verantwortung-das-legitimationsproblem-algorithmischer-entscheidungen-in-der-politik/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
	</channel>
</rss>
