Mit seinem CaptionBot beschreitet Microsoft erneut das schwierige Pflaster der „Artifiziellen Intelligenz“. Nutzer können auf www.captionbot.ai ein Foto aus ihrem eigenen Fundus hochladen und analysieren lassen. Nach meist nur wenigen Sekunden meldet sich der Bot mit dem Ergebnis, der Beschreibung des bereitgestellten Bildes, zurück. Der User wird dabei nicht nur als Übermittler des „Übungsmaterials“ eingespannt, sondern zudem aufgefordert, die Resultate per Click und „Sternvergabe“ zu bewerten. Diese Rückmeldungen fließen in die Fütterung des Algorithmus‘ ein, der sich auf diese Weise selbst verbessern, also auf Grundlage der Nutzerfeedbacks hinzulernen soll.
Das funktioniert teilweise ganz gut, wie die beiden folgenden Beispiele zeigen…
…und manchmal weniger gut, wie bei unserem Bild zum „Urban Gardening“ in Berlin:
Spaßeshalber haben wir mal unser Logo durch den Bot gejagt – das Nerdwärts.de-Logo wird als Gruppe von Bäumen erkannt – naja.
Interessant auch das Ergebnis für mein Social Media Profilfoto: Immerhin vermutet CaptionBot richtigerweise mich als Motiv. Angeblich sehe ich aber zu 54% so aus wie der britische Late-Night-Talker John Oliver – ich bin mir noch nicht sicher, ob ich mich da geschmeichelt fühlen soll…
Andere Nutzer durften sich über noch extremere Ergebnisse freuen:
#captionbot thinks Michelle Obama is a cell phone. pic.twitter.com/FtC6tP6Ben
— David Sim (@davidsim) 14. April 2016
Auch das legendäre „blaue“ Kleid, das es zu Beginn des Jahres zum viralen Hit schaffte bereitet dem CaptionBot erhebliche Probleme:
I was hoping to get a definite answer from https://t.co/b5DYRwRxWz but it’s raised a lot more questions pic.twitter.com/WVz4gC9kLi — Paul Curry (@cr3) 14. April 2016
…fairerweise sollten man von AI allerdings auch nicht erwarten, dass sie Dinge versteht, die zu begreifen uns Menschen schon Probleme bereiten… 😉
captionbot.ai nailed it pic.twitter.com/BROvlNbgIT
— Jeff Atwood (@codinghorror) 13. April 2016
Künstliche Intelligenz: Potenzial und Grenzen
Das Beispiel des CaptionBot zeigt, dass Künstliche Intelligenz einerseits, trotz der beschriebenen Mängel, schon recht weit ist. Andererseits wird hieran auch deutlich, wo die Limitierungen und damit auch die vieldiskutierten Gefahren von AI liegen. Wenn Künstliche Intelligenz zur Entscheidungsfindung herangezogen wird, etwa in Fragen der Kreditwürdigkeit oder bei der Unterstützung der Personenfahndung, so müssen derartige Ausfälle absolut ausgeschlossen sein. Geschieht dies nicht, ist digitale Diskriminierung zwangsläufig die Folge.