Big Data: Wie man Daten zum Klingen bringt – und warum

Kann man Daten hören? Was klingt wie die erste, noch orientierungslose Frage nach einem üblen LSD-Trip hat durchaus auch einen rationalen Kern: Tatsächlich ist es nicht nur möglich, Daten und Datenmuster akustisch darzustellen, es existieren auch einige sinnvolle Anwendungsfälle für derartige Vorhaben – und zwar durchaus bei Menschen mit uneingeschränkter Sehfähigkeit. Die Nutzbarmachung weiterer Sinne bei der Informationsverarbeitung kann erhebliche Auswirkungen auf unseren Medienkonsum  haben.

Die Älteren unter uns, die noch in der Lage sind, den süßen Klang des Einwahlprozesses eines 14.4er Modems pfeifend zu simulieren, mögen diesem Sujet vermutlich mehr Verständnis entgegenbringen. Unsere Generation hat frühzeitig gelernt, dass Töne immer auch stellvertretend für spezifische Informationen stehen können. Aber kein Generation-Y-Bashing an dieser Stelle: rohe, ungezähmte Technik, außerhalb der sicheren Grenzen selbsterklärender Nutzeroberflächen, war nun auch nicht gerade das Gelbe vom Ei. Es geht hierbei allerdings auch nicht um die schnöde „Sounderkennung“ à la Shazaam, der App, mit der man dem Namen nach unbekannte Ohrwürmer im Radio per Analyse des Klangmusters bestimmen kann, sondern um die klangliche Darstellung sowie die darauffolgende kognitive Dekodierung von – aufbereiteten – Daten wie Diagrammen und Infografiken.

Big Data, Smart Data – und Acoustic Data?

Was auf den ersten, äh, Blick seltsam scheint, hat durchaus Potenzial unsere Mediennutzungsgewohnheiten zu verändern – sofern die akustische Aufbereitung einen zusätzlichen Wert liefert. Dieser kann in erhöhter Usability bzw. dem „Ease of Use“ von Informationsangeboten, verbesserter Didaktik – Erzeugung von „A-Ha-Effekten“ – oder auch in weiterführenden Verarbeitungsprozessen auf akustischer Basis – dort wo es sinnvoller ist, mit Klangsignalen statt mit reinen Binärdaten, zu arbeiten – begründet sein.

In der Folge möchten wir hierzu drei Praxisbeispiele vorstellen:

1. Immobilienindex als Arie

Der Case-Shiller Home Price Index gilt in den USA als einer der führenden Immobilien-Indizes. Als die Nachrichtenredaktion von npr („National Private Radio“), ein Zusammenschluss der nicht-kommerziellen US-Hörfunksender, über die neuen Monatszahlen auf dem Immobilienmarkt berichten wollte, sah sie sich wie so oft mit dem „Sinnes-Problem“ der Radioarbeit konfrontiert: Was prima in seiner visuellen Darreichungsform funktioniert – die Darstellung der Entwicklung in einem Diagramm oder einer Grafik – stellt die Berichterstattung auf rein akustischem Wege vor erhebliche Probleme. Kompensieren lässt sich dieser Nachteil gewöhnlich nur durch umfassende Verbalisierung, die einen womöglich simplen Sachverhalt durch wortreiches Beschreiben plötzlich übermäßig komplex erscheinen lässt. Bei npr behalf man sich mit einer ungewöhnlichen Vorgehensweise – die Intonation des Diagramms in der Kunstform des Operngesangs. Die Tonlage bildete dabei den Kurvenverlauf der Indexzahlen ab. Die Höhenflüge in den Jahren 2006/2007 werden damit genauso „erhörbar“ wie die darauffolgende Immobilienkrise und der damit einhergehende Preisverfall.

Ein Jahrzehnt Preisentwicklung auf dem US-Eigenheimmarkt – gesungen als Oper:

2. Zieleinlauf der 100m-Olympiasieger im historisch-akustischen Vergleich

Die New York Times hat 2010 anlässlich der Olympischen Spiele sehr ausgiebig mit der akustischen Darstellung von originär visuell dargestellten Sachverhalten experimentiert. Vielleicht das eindrucksvollste Beispiel ist die Gegenüberstellung sämtlicher Zieleinläufe der Goldmedaillengewinner bei den Olympischen Spielen seit 1896. Beginnend mit dem schnellsten – Usain Bolt bei seinem Olympiasieg 2010 – wird jeder Olympiasieger entsprechend seiner Einlaufzeit mit einem Ton versehen. Es gelingt damit auf eindrucksvolle Weise, die auf dem Papier zwar eigentlich immensen Zeitabstände zwischen den Sprintern in Echtzeitrelation zu setzen und dadurch die spröden Daten und Fakten um eine „fühlbare“ Dimension zu erweitern.

3. Algorithmen beim sortieren zuhören

Eine weitere Anwendunsgmöglichkeit ist die Statusanzeige bei Datensortierprozessen bzw. die Unterscheidbarkeit von Algorithmen über akustische Signale. Um in den vollen Genuss dieser multimedialen Errungenschaft zu kommen, sollten Sie dringend ihre Lautsprecherboxen auf extralaut stellen und – ganz wichtig – die Untertitel im Youtube-Video einschalten.

 

 

Quelle: Thoughts On Media

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.