Menü
Start
Anmelden / Registrieren
Suche
 
Start arrow Medien und Kommunikationswissenschaft arrow Methoden der empirischen kommunikationsforschung
< Zurück   INHALT   Weiter >

11.4 „Big Data“

Big Data ist ein in den letzten Jahren zunehmend verwendeter, allerdings eher unscharfer Begriff, mit dem die Fülle der Daten beschrieben wird, welche digital erhoben und gesammelt werden. Im Gabler Wirtschaftslexikon (Bendel o. J.) heißt es:

„Mit ‚Big Data' werden große Mengen an Daten bezeichnet, die u. a. aus Bereichen wie Internet und Mobilfunk, Finanzindustrie, Energiewirtschaft, Gesundheitswesen und Verkehr und aus Quellen wie intelligenten Agenten, sozialen Medien, Kreditund Kundenkarten, Smart-Metering-Systemen, Assistenzgeräten, Überwachungskameras sowie Flugund Fahrzeugen stammen und die mit speziellen Lösungen gespeichert, verarbeitet und ausgewertet werden. Es geht u. a. um Rasterfahndung, (Inter-)Dependenzanalyse, Umfeldund Trendforschung sowie Systemund Produktionssteuerung. Wie im Data Mining ist Wissensentdeckung ein Anliegen. Das weltweite Datenvolumen ist derart angeschwollen, dass bis dato nicht gekannte Möglichkeiten eröff werden. Auch die Vernetzung von Datenquellen führt zu neuartigen Nutzungen, zudem zu Risiken für Benutzer und Organisationen.“

Der Arbeitskreis Big Data des Branchenverbandes BITKOM (2015) ergänzt auf seiner Website:

„Big Data bezeichnet die wirtschaftlich sinnvolle Gewinnung und Nutzung entscheidungsrelevanter Erkenntnisse aus qualitativ vielfältigen und unterschiedlich strukturierten Informationen, die einem schnellen Wandel unterliegen und in bisher ungekanntem Umfang anfallen. Big Data stellt Konzepte, Methoden, Technologien, IT-Architekturen sowie Tools zur Verfügung, um die geradezu exponentiell steigenden Volumina vielfältiger Informationen in besser fundierte und zeitnahe Management-Entscheidungen umzusetzen und so die Innovationsund Wettbewerbsfähigkeit von Unternehmen zu verbessern.“

Big Data bezeichnet also zum einen die schier unendliche Menge von Daten, die digital aufgezeichnet, gesammelt, weiterverarbeitet und analysiert wird, zum anderen aber auch die wirtschaftliche oder wissenschaftliche Herangehensweise an diese Daten. Big Data ist damit auch ein Berufsfeld im Überschneidungsbereich von Informatik, Wirtschaft und Medien. Russom (2011) benennt die drei relevanten Dimensionen von Big Data mit den drei „V“: „volume, variety, and velocity“. Volume bezieht sich dabei auf die nahezu unendliche Menge solcher Daten, velocity auf die Geschwindigkeit bzw. Schnelligkeit, mit der die Daten erhoben und verarbeitet werden (müssen). Variety bezieht sich auf die unterschiedlichen Formate, in denen die Daten anfallen. Alle drei „V“ stellen die Entwickler und Anwender von Big-Data-Analysen vor große Herausforderungen. Die Menge der Daten bringt Probleme ihrer adäquaten Speicherung mit sich. Dies potenziert sich noch durch die Geschwindigkeit, mit der diese Daten entstehen. Schließlich erschwert die Vielfalt der Codes, mit denen solche Daten produziert werden, die Anwendung von Analysewerkzeugen über eine bestimmte Plattform oder einen bestimmten Typ von Daten hinweg.

Für die Kommunikationswissenschaft sind Verkehrs-, Börsenoder Wetterdaten sicherlich von geringerem Interesse. Wenn es allerdings um die Aufzeichnung von Mediennutzungsverhalten geht, berührt Big Data genuin kommunikationswissenschaftliche Forschungsfragen: Vor allem Menschen, die online sind, produzieren beim Surfen und Navigieren durch das Netz im weitesten Sinne Big Data. Dabei handelt es sich bei den Daten um meist automatisch generierte Aufzeichnungen von Nutzerverhalten. Jeder Nutzer-Klick auf einen Link im Internet wird protokolliert, zunächst von der entsprechenden Website selbst: Zusätzlich zur URL des Links selbst wird meist noch protokolliert, von welcher URL die Nutzer kamen und auf welche URL sie weitergehen. Zusätzliche Angaben wie Uhrzeit, Browsertyp, IP-Adresse etc. werden ebenfalls erfasst. Aber nicht nur die besuchten Seiten speichern das Navigationsverhalten der Nutzer, auch Cookies, die auf unseren Computern lokal gespeichert werden, erfassen Daten und leiten diese an die Auftraggeber weiter. Solche Protokolldaten werden unter dem Begriff „Logfile-Analyse“ auch seit Jahren untersucht, allerdings nicht mit der Intensität und der Datenmenge, die wir mit Big Data heute meinen.

Spätestens an dieser Stelle wird auch deutlich, warum ein Thema wie Big Data in einem Unterkapitel zur Beobachtung auftaucht. Logfile-Analysen sind letztlich nichts weiter als automatisierte Beobachtungsverfahren, mit denen Mediennutzungsverhalten technisch beobachtet wird, ähnlich dem telemetrischen Verfahren in der Fernsehnutzungsforschung. Die eigentlich interessante Analyse und der damit verbundene Mehrwert der Daten entstehen in dem Moment, in dem ich die angeklickten Links mit den jeweiligen Inhalten verbinde. Dann sieht man auf einmal, wie viele Menschen einen Videoclip bei Youtube angeschaut haben, wie viele davon über eine Facebook-Empfehlung gekommen sind und was die Nutzer danach gemacht haben. Die werbetreibende Industrie kann genau verfolgen, ob ein Werbebanner angeklickt wurde, ob danach die Website des Unternehmens besucht wurde und letztlich auch, ob dann beispielsweise das beworbene Produkt online gekauft wurde. Die Verknüpfung der Navigationsdaten mit den Inhalten ist gleichzeitig aber auch der schwierigste Teil einer Big-Data-Anwendung. Die Hypertextualität und Multimedialität der Daten (Bilder, Videos, Texte, Grafiken, etc.) erschwert die einheitliche Darstellung und Verarbeitung. Verschiedene Dateiformate tun ein Übriges, den Anwenderinnen und Anwendern das Leben schwer zu machen.

Die Wirtschaft, allen voran Firmen wie Amazon, Google und Facebook, machen sich die massenhaft zur Verfügung stehenden Nutzerdaten trotz vieler Datenschutzbedenken zunutze, um ihre Produkte und Leistungen zu vermarkten. Die Wissenschaft im Allgemeinen und die Kommunikationswissenschaft im Besonderen hinken in der Entwicklung noch hinterher. Dies ist vor allem dem hohen Programmieraufwand geschuldet, mit dem entsprechende Anwendungen entwickelt werden müssen. Wir verfügen oft weder über die notwendigen Kenntnisse noch über die großen Personalressourcen, die hierfür aufgewendet werden müssen. Dennoch werden an vielen Standorten automatisierte Inhaltsanalyseverfahren entwickelt, API-Schnittstellen programmiert und sogenannte Scraper getestet, mit denen Web-Inhalte automatisch aufgezeichnet werden.

 
Fehler gefunden? Bitte markieren Sie das Wort und drücken Sie die Umschalttaste + Eingabetaste  
< Zurück   INHALT   Weiter >
 
Fachgebiet
Betriebswirtschaft & Management
Erziehungswissenschaft & Sprachen
Geographie
Informatik
Kultur
Lebensmittelwissenschaft & Ernährung
Marketing
Maschinenbau
Medien und Kommunikationswissenschaft
Medizin
Ökonomik
Pädagogik
Philosophie
Politikwissenschaft
Psychologie
Rechtswissenschaft
Sozialwissenschaften
Statistik
Finanzen
Umweltwissenschaften