Lade Inhalt...

Das Ende des Verkaufsschlagers: Kritische Analyse zur These des Long Tails unter der Beachtung von Big Data Verfahren und dem Ansatz des Tipping Points

©2014 Bachelorarbeit 72 Seiten

Zusammenfassung

Chris Anderson beschreibt in seinem Buch „The Long Tail“ die zunehmende Bedeutung für Nischenartikel und damit das mögliche Ende von Bestsellern. Wenn Anderson Recht behält, ist es vorstellbar, dass Verbraucher ihr Konsumverhalten individueller entwickeln können als zuvor und somit Hits, die allgemein bekannt sind, langsam abklingen.
Diese Ansicht scheint allerdings, mit Betrachtung auf neue Auswertungsmethoden durch Big Data Verfahren, überholt zu sein. Hierbei handelt es sich um die Verarbeitung von großen Datenmengen. Mittels dieses Verfahrens ist man in der Lage, das Konsumverhalten sämtlicher Käufer zu analysieren und somit näher auf diese einzugehen. Diese Aussicht gibt Anlass, die Theorie von Anderson in Frage zu stellen.
Des Weiteren hat der Journalist und Unternehmensberater Malcolm Gladwell bereits 2000 Ansätze in seinem Buch „Tipping Point – Wie kleine Dinge Großes bewirken können“ veröffentlicht, die Aufschluss darüber geben, wie Trends gesetzt werden können.
Bei der Kombination von Big Data Verfahren und den Ansätzen des Tipping Points kann angenommen werden, dass Andersons Theorie untergraben werden kann und nicht mehr tragfähig ist.

Leseprobe

Inhaltsverzeichnis


2.2.1 Das Ende der Musikhits

Anderson führt in seinem Buch besonders die Musikindustrie als Beispiel für die fallende Bedeutung des Verkaufsschlagers an. Diese Erkenntnisse verallgemeinert er und überträgt sie auf andere Medienbereiche, die eine ähnliche Verkaufsstruktur aufweisen. Aus diesem Grund werden in diesem Unterkapitel seine Thesen, die in Verbindung mit der Musikindustrie aufgebaut werden und folglich die Theorie des Long Tails stützen, näher analysiert.

Andersons Aussagen nach haben die Hitalben in den neunziger Jahren einen regelrechten Aufschwung erlebt. Dieser Erfolg sei kein Zufall gewesen. „Die Branche hatte den Code geknackt, die schwer definierbare Erfolgsformel für einen Hit war endlich gefunden. [...] Man musste nur gut aussehende Männer an junge Frauen verkaufen“ (Anderson 2009, 36). Somit unterstellt er den Konsumenten keinen eigenen Geschmack und damit keine eigene Wahlmöglichkeit. Die Industrie hätte daher den idealen Weg der Manipulation gefunden. Um dies zu verdeutlichen, hat sich Anderson auf folgende Grafik bezogen:

Abbildung in dieser Leseprobe nicht enthalten

Abb. 4 Entwicklung Hitalben (Quelle: Anderson 2009, 37)

Die Abbildung zeigt ein Diagramm mit dem Verlauf von verkauften Hitalben in Amerika seit 1958. Musikalben werden ab 500.000 verkauften Einheiten als „Hit“ eingestuft. Von 1958 bis 2001 sieht man eine stetig steigende Kurve, die dann rapide abfällt. Hierzu muss die Entwicklung der Musikindustrie mit in Betracht gezogen werden. Mit der Steigerung der Qualität von Tonträgern haben sich ebenfalls Möglichkeiten privater Mitschnitte konstituiert. Nach der Schallplatte wurde 1963 die Musikkassette von der Firma Phillips etabliert, die sich dank Sonys Walkman 1979 auf dem breiten Markt durchsetzte. Somit wurde Musik tragbar und Tonträger wurden weniger anfällig (vgl. Faulstich 2000, 368ff). Zudem waren die Verbraucher ab diesem Zeitpunkt in der Lage gewesen selbstständig Kopien von anderen Tonträgern zu erstellen. „Bereits zu Beginn der achtziger Jahre wurden mehr als 100 Millionen [Leerkassetten] verkauft und für private Mitschnitte und Überspielungen verwendet“ (ebd., 378). Damit ließe sich der kurze Abfall von Verkäufen, der auf Abbildung 4 deutlich sichtbar ist, erklären. Nach der Kassette folgte 1982 die CD als Standardtonträger (vgl. ebd., 368ff). Aufgrund des nun eingeführten Standards konnte der Mitschnitt einer Kassette qualitativ nicht mehr standhalten. Musik wurde nun digital abgespielt und hatte ein deutlich klareres Klangbild. Zu diesem Zeitpunkt gab es keine Möglichkeit CD´s mit einem solchen Qualitätsstandard zu duplizieren. Dies könnte ein Hinweis für den steigenden Absatz von Musik Anfang der neunziger Jahre sein (vgl. Abb.4).

In den neunziger Jahren, die Anderson als den Höhepunkt der Musikbranche betrachtet, konnte der steigende Umsatz nicht nur durch die Rezepte der Musikindustrie erreicht werden, sondern möglicherweise auch durch die immer besser funktionierenden Kommunikationskanäle. Diese Annahme von Frank und Cook ist im Kapitel „Das Ende des Verkaufsschlagers“ schon erwähnt worden. Demnach konnten Musikalben zuvor nicht in dem Maße beworben werden, wie in den neunziger Jahren. Aus einer Langzeitstudie über den Medienkonsum in Deutschland, von den Sendern ARD und ZDF, ging hervor, dass sich die Gesamtmediennutzung pro Verbraucher von 346 auf 502 Minuten am Tag erhöht hat. Hierbei handelt es sich um den Zeitraum von 1980 bis 2000.[1] Zu dieser Zeit ist das Musikfernsehen beliebt geworden. 1981 ging MTV in Amerika erstmals auf Sendung (vgl. Schmidt 1999, 101). Zwar hatte es schon zuvor Musiksendungen gegeben, allerdings sind diese bis zu diesem Zeitpunkt nicht für den Verkauf von Musiksingels relevant gewesen. MTV hatte erkannt, dass die Visulaisierung eines Musiktitels für Zuschauer einen hohen Stellenwert genoss, weshalb man Musikvideos produzierte. „Der Clip garantierte [...] eine kostengünstige (im Vergleich zu Tourneen), globale und reichweitenintensive (durch die Verbreitung via TV), vernetzte und integrierte (Visualisierung schafft ein größeres Potenzial für Strategien der Cross-Media-Promotion) sowie kontrollierbare (aufgrund höherer vertikaler Integration) Form der Promotion von Popmusik“ (ebd., 98f). Diese Promotion stieß auf Erfolg und so wurden 1984 schon bei 67 Prozent aller Musiktitel der Top 100 Videoclips produziert, 1981 waren es noch 23 Prozent (vgl. ebd., 105). Der Erfolg dieser Promotionvariante ließ MTV den TV Markt durchdringen und wurde daher ebenfalls in anderen Ländern angewandt. „MTV erreichte 1995 mehr als 250 Mio. Haushalte in 58 verschiedenen Ländern und errang damit den konkurrenzlosen Status des einzigen globalen Werbemediums für jugendspezifische Tonträger und Konsumgüter“ (Schmidt 1999, 109).

Ebenso gehört das Medium Radio zu einem beutenden Kommunikationskanal. Anderson erklärt einen Rückgang von Radiohöhrern in seinen Ausführungen. Verantwortlich seien dafür Medien wie der iPod, das Handy oder das Internet. Verbraucher würden, aufgrund dieser neuen Medien, mehr altenative Musik konsumieren (vgl Anderson 2009, 41ff). Der Massengeschmack wird folglich nicht mehr durch das Radio bestimmt. „Das Verschwinden der Radiosender bedeutet gleichzeitig auch das baldige Ende der Top-40-Ära“ (ebd., 42). Eine Untersuchung von 2011 hat ergeben, dass sich der Trend in Deutschland allerdings positiv entwickelt und sogar vermehrt auf das Medium Radio zurückgegriffen wird. „Radio gelingt es vor allem auch, den positiven Reichweitentrend in den jüngeren Bevölkerungsschichten fortzusetzen, denn die 14- bis 49-Jährigen legen sowohl in der Reichweite als auch in der Nutzungsdauer zu. Außerdem hat Radio weiterhin eine sehr hohe Verweildauer von knapp vier Stunden pro Tag [...]“ (Gattringer und Klingler 2011, 456). Der Grund liegt in der Auswahl und Abspielreihenfolge von Musiktiteln, die von Kennern übernommen werden. „Das emotionale Medium Radio braucht Moderatoren, die mit Wissen, aber auch mit einer gehörigen Portion Bauchgefühl und Erfahrung ein Musikprogramm zusamenstellen, das dann auch beim Hörer zündet“ (Seldeck 2013, 56). Zudem werden Quellen aus dem Internet seit 2014 mit in die Musikplatzierungen eingerrechnet. „Neben den Single-, Longplay-, Compilation- und Genrecharts werden fortan zudem auch die gesonderten Streamingcharts in das offizielle Chartportfolio integriert“ (Bundesverband Musikindustrie 2014). Sogenannte Musikstreams sind vergleichbar mit Radiosendern und werden aus dem Internet gesendet. Internetfähige Abspielgeräte können folglich den Konsum des klassischen Radios ersetzen, mit dem Unterschied, dass die Benutzer gezielter Musik nach ihrem Geschmack auswählen können. Dieser lässt sich in Zukunft demzufolge noch besser ermitteln. Ein Musiktitel aus der Nische kann dadurch besser aufgespürt werden und letztlich zu einem Hit heranwachsen, der dann auch in konventionellen Radiosendern gesendet werden würde.

Den Einbruch der Musikbranche 2001 (vgl. Abb. 4) habe laut Anderson durch die Entstehung der Technologie stattgefunden. Die Möglichkeit, CD´s selbstständig zu kopieren, die Vermarktung von MP3-Playern und Internettauschbörsen seien die großen Ausschlaggber für den Marktwandel (vgl. Anderson 2009, 38ff).

Tatsächlich werden CD´s in hohem Maße vervielfätigt. „2001 kam auf eine gekaufte CD eine gebrannte Version. 2006 verlagerte sich dieses Verhältnis auf eins zu drei“ (Bundesverband Musikindustrie e. V. 2012, 18). Der schnelle Zuwachs dieser Opportunität ist wahrscheinlich nicht nur auf die gute Qualität der Kopien zurückzuführen, sondern auch auf die einfache Handhabung. Kassetten zu kopieren hat mindestens so viel Zeit in Anspruch genommen, wie die Länge des zu kopierenden Tonträgers, wohingegen CD´s um ein vielfaches schneller bespielt werden können.

Anderson behält ebenfalls Recht bei der Annahme, tragbare Geräte, in Kombination mit dem MP3-Format, würden dem Musikgeschäft schaden. Eine Studie über Raubkopien ergab: „17 Prozent der Bundesbürger haben 2010 mit Freunden oder Bekannten Medieninhalte per Festplatte getauscht“ (ebd., 19). Der Austausch von digitalen Inhalten auf Festplatten, oder ähnlichen Speichermedien, ist gegenüber der CD noch einfacher durchzuführen, da deutlich mehr und schneller kopiert werden kann. 2011 haben schon mehr als 50 Prozent der Bevölkerung ein MP3-fähiges Handy besessen (vgl. GvK 2011, 9). Anwender sind damit in der Lage Musik nebenbei zu tauschen und immer griffbereit zu haben.

Einen großen Beweis für den Bedarf nach Nischenartikeln sieht Anderson in den Internettauschbörsen. Hier würde die wahre Nachfrage ersichtlich sein: „Untersucht man die Daten, ergibt sich ein regelrechter Kulturwandel, eine Abkehr von den Hits und die Hinwendung zu Nischenkünstlern“ (Anderson 2009, 38). Um diese Betrachtung für allgemeingültig halten zu können, muss die Frage nach den Nutzern gestellt werden. Der Überblick auf die beliebtesten Downloads solcher Tauschbörsen sagt nur geringfügig etwas über die Abkehr von Hits aus. Eine Studie zur digitalen Content-Nutzung 2011 hat ergeben, dass überwiegend Männer im Durchschnittsalter von 23 Jahren Musikdownloads (legal und illegal) vornehmen. Demgegenüber stehen im Durchschnitt Frauen im Alter von 15 Jahren. Männer laden fast doppelt so viel Musik aus dem Internet, wie Frauen.[2] Aufgrund der ungleichen Verteilung, in Bezug auf Geschlecht und Alter, sind demnach Zahlen aus Internettauschbörsen nicht repräsentativ für die Gesellschaft.

Die Analyse zu dem Thema „Das Ende der Musikhits“ hat gezeigt, dass der Beweis für die Nachfrage nach Nischenprodukten nicht zwangsläufig gegeben ist. Lediglich hat sich der Markt, aufgrund sich verbessernder Technologien, verändert. Mit großer Wahrscheinlichkeit konnten daher gravierende Änderungen im Umsatzverlauf der Musikindustrie verzeichnet werden.

Das Auffinden von alternativen Musiktiteln, durch besser werdende Kommunikationskanäle, bestätigt nicht nolens volens die Verdrängung von Verkaufsschlagern. Möglicherweise hat es in der Vergangenheit unbekannte Songs gegeben, die vermeintliche Hits waren. Diese wurden nicht entdeckt und sind in den Charts daher nicht mit aufgeführt worden. Folglich hieße das, dass die Rangliste, durch verbesserten kommunikativen Austausch, nun genauer wird. Dies ist allerdings kein Indiz für das „Aussterben“ von Hits. Das Beispiel zum Musikfernsehen hat gezeigt, dass das Potenzial besser werdender Kommunikationskanäle sogar genutzt werden kann, um Verkaufsschlager besser zu promoten. Zudem darf nicht außer Acht gelassen werden, dass es auch zu Beginn der Musikindustrie die Möglichkeit gegeben hat, sich über alternative Musik zu informieren. Ein klassischer Plattenhändler, mit genügend kaufmännischem Sinn, hat seinen Kunden ebenfalls Empfehlungen ausgesprochen und bei Stammkunden sogar ungefragt Platten aufgelegt, die zu dessen Geschmack passten, um mögliche Käufe zu generieren. Einzig das Angebot von selbst erstellten Produktionen kann erstmals nur durch das Internet einer breiten Masse angeboten und präsentiert werden.

Die gewonnen Erkenntnisse lassen sich problemlos ebenso auf den Handel von Videospielen, Filmen und Büchern anwenden. Diese hier aufzuführen würde allerdings den Rahmen der Untersuchungen unnötig vergrößern. Daher werden die Analysen im Bereich der Musikindustrie repräsentativ für die Überprüfung des Longtails verwendet.

3. Big Data

Nachdem die Theorie des Long Tails ausführlich erklärt und analysiert worden ist, sollen nun Anwendungen aufgezeigt werden, die diesen eventuell beeinflussen können. In diesem Kapitel wird daher erklärt, was unter dem Begriff „Big Data“ zu verstehen ist und an welcher Stelle Daten gesammelt werden, die für die Wirtschaft und den Absatz von Konsumgütern von Nutzen sein können.

3.1 Defintion „Big Data“

Unternehmen sammeln heutzutage große Mengen an Daten, um daraus eventuell Schlüsse für eine Leistungssteigerung ziehen zu können. Durch ein klassisches Customer Relationship Management werden Daten bei Kontakt mit ihren Kunden angehäuft. „Zu diesen Kontaktpunkten gehören Käufe, Außendienstkontakte, Service- und Beratungshotlines, Website-Besuche, Zufriedenheitsbefragungen und Zahlungsvorgänge sowie alle sonstigen Kontakte zwischen einem Anbieter und seinen Abnehmern“ (Kotler, et al. 2011, 437). Mit den gesammelten Werten können z. B. Muster oder Zusammenhänge erkannt werden, die etwa auf Verhaltensweisen von Konsumenten hindeuten können. „Beispielsweise wird unnützes Wissen, wie z. B. einzelne Daten über Zeitpunkt und Anflugwinkel eines einzigen Flugzeugs erst dann zu nützlichem Wissen, wenn Tausende Anflüge von Flugzeugen aufgezeichnet wurden und sich beim Vergleich der Daten Muster erkennen lassen“ (Pohlmann und Hasse 2013, 20). Solche Informationen sind sehr wertvoll und können wettbewerbsentscheidend für ein Unternehmen sein. „Das Problem ist, dass diese Informationen gewöhnlich im gesamten Unternehmen verstreut sind. Sie sind tief in den unterschiedlichsten Datenbasen, Plänen und Unterlagen der verschiedenen Abteilungen vergraben“ (ebd., 437). Hinzu kommt der Einsatz immer mehr technischer Geräte, die in sämtlichen Lebensbereichen unseres Alltags zu finden sind. Diese ermöglichen eine zusätzliche Erstellung von Daten. Somit kommen weitere Quellen und damit mehr unstrukturierte Daten zusammen. Es entsteht eine Datenflut. „Die breite Akzeptanz von Social Media wie Facebook, Twitter, Blogs und Foren, aber auch der Einsatz mobiler Endgeräte als ständiger Begleiter sowie die Sensortechnik (z. B. RFID, Wetterdaten etc.) und Maschine-zu-Maschine Kommunikation (M2M) lassen die weltweite Datenflut exponentiell wachsen“ (Picot und Propstmeier 2013, 34). Daten werden so in Form von Videos, Bildern, Texten oder Dokumenten und Emails gesammelt (vgl. ebd., 34f). Den Ergebnissen einer Studie zufolge seien 2012 weltweit bereits 2,5 Zettabyte[3] insgesamt an Daten gespeichert worden. Diese Menge solle sich jedes Jahr verdoppeln, sodass sich bis 2020 circa 40 Zettabyte angesammelt haben (vgl. IDC 2012, vgl. in Picot und Propstmeier 2013).

Die soeben angesprochenen Problemfelder der unstrukturierten Daten und der Masse an Informationen lassen sich durch Big Data-Verfahren bewältigen: „Big Data bezeichnet die wirtschaftlich sinnvolle Gewinnung und Nutzung entscheidungsrelevanter Erkenntnisse aus qualitativ vielfältigen und unterschiedlich sturkturierten Informationen, die einem schnellen Wandel unterliegen und in bisher unbekanntem Umfang anfallen“ (BITKOM 2012a, 7). Somit können Daten auf eine zielgerichtete Fragestellung hin ausgewertet werden und für nützliche Aufklärung sorgen. Solche Herangehensweisen hat es bereits in der Vergangenheit gegeben. Zuvor ist mit Data Mining und Data-Warehouse gearbeitet worden: „Wenn im Data-Warehouse [...] Daten zur Analyse zusammengefügt wurden, benutzt man leistungsstarke Data-Mining-Techniken, die die Daten durchsuchen und die interessanten Zusammenhänge und Ergebnisse über den Kunden herausfiltern“ (Kotler, et al. 2011, 437). Früher auch als „Knowledge Discovery in Databases“, kurz KDD, bekannt. „KDD is the nontrivial process of identifying valid, novel, potentially useful, and ultimately understandable patterns in data“ (Fayyad, Piatetsky-Shapiro und Smyth 1997, 40f). Allerdings gibt es eine Abgrenzung zu dem neuen Begriff Big Data: „Das Besondere bei Big Data-Analysen ist vor allem die neue Qualität der Ergebnisse aus der Kombintaion bisher nicht aufeinander bezogener Daten. In der Regel sind dies Bestandsdaten, die zu 85% bislang technisch nicht ausgewertet werden konnten“ (Horvath 2013, 2). Des Weiteren können Auswertungen dieser Art, bei richtiger Anwendung, sehr aktuell sein. Fakt ist, „dass die Datenmengen immer häufiger kontinuierlich entstehen. Entscheidend kommt hinzu, dass sie in der Regel ganz aktuell mit sehr hoher Geschwindigkeit, nicht selten sogar in oder nahe Echtzeit analysiert werden – bevor sie ihren Wert vielleicht schon wieder verloren haben“ (Picot und Propstmeier 2013, 35). Mit diesen Fähigkeiten entsteht eine hohe Priorität Big Data-Verfahren zu nutzen, um im Marktwettberwerb bestehen zu können. „Die wirtschaftliche Bedeutung von Daten wird inzwischen als so groß angesehen, dass diese neben Arbeitskraft, Ressourcen und Kapital als „vierter Produktionsfaktor“ angesehen werden. Denn der Wert von Erkenntnissen, die durch Auswertung vorhandener Daten gewonnen werden können, gilt als potentiell gewaltig“ (vgl. Horvath 2013, 1). Nicht nur die Wirtschaft kann aus diesem Potenzial Nutzen schöpfen, sondern ebenfalls die wissenschaftliche Forschung, die Medizin oder aber auch Bereiche der Öffentlichkeitsarbeit (vgl. ebd., 2). Generell kann Big Data überall da eingesetzt werden, wo viele Daten anfallen. Es gibt sogar Stimmen, die der Meinung sind, dass durch Big Data eine regelrechte Revolution stattfinden wird. „Big Data wird Gesellschaft, Politik und Wirtschaft so grundlegend verändern wie der elektrische Strom und das Internet“ (Bloching 2013, 102).

Grundsätzlich bedeutet die Anwendung von Big Data-Technologien, Daten zu aggregieren, diese auszwerten und letztlich die gewonnenen Feststellungen zu benutzen.

3.1.1 Die drei V´s von Big Data

Fundamental stützt sich die Funktionsweise von Big Data-Verfahren auf drei Säulen. Diese drei Säulen sind zum Teil schon angerissen worden. An dieser Stelle werden sie jedoch noch einmal explizit aufgezeigt und erklärt, damit die Faktoren von Big Data eindeutiger werden.

Volume (Datenmenge)

Organisationen und Unternehmen sammeln immer mehr Daten an und sind durch fortschreitende Digitalisierung des modernen Lebens einer unheimlichen Quantität ausgesetzt. Weltweit gespeicherte Daten sind nach Schätzungen schon auf eine Größe von bereits über 2 Trilliarden Bytes gewachsen (vgl. Horvath 2013, 1). Dies würde „auf iPads gespeichert und gestapelt eine 21.000 km lange Mauer“ (ebd., 1) ergeben.

Beispielsweise werden zwölf Terabytes[4] an Tweets pro Tag bei Twitter gesendet. Wenn ein Unternehmen nun prüfen möchte, wie beliebt ein gerade neu auf den Markt gekommenes Produkt ist, so lässt sich ein Trend aus diesen Tweets lesen. Mit anderen Worten ist man dazu in der Lage Gespräche zu verfolgen, die öffentlich abgehalten werden. Hieraus kann eine Kritik für das neue Produkt entnommen werden, die im Idealfall sogar Verbesserungsvorschläge liefert. Allerdings müssen hierzu über Tage oder auch Wochen die Tweets verfolgt werden. Das heißt, eine Datenanalyse von zwölf Terabytes fällt täglich an. Mit Hilfe von Big Data-Anwendungen ist es möglich solche Datenmengen zu analysieren und auf relevante Informationen zu filtern (vgl. Klezl 2012, 13f).

Variety (Vielfalt)

Unternehmen bedienen sich einer Vielfalt von Quellen und Formaten, um mögliche Entwicklungen oder Muster erkennen zu können. Hierbei werden unstrukturierte[5], semistrukturierte[6] oder auch sogenannte polystrukturierte[7] Daten gesammelt. Hinzu kommen eben solche aus dem externen Bereich. So können Daten beispielsweise gekauft werden, wobei hier die Gewissheit über adäquate Korrektheit nicht gegeben ist und bei einer Auswertung zu ungenauen Ergebnissen führen kann (vgl. BITKOM 2012a, 21).

Generell müssen Daten demnach also sortiert werden, um einen Überblick ermöglichen zu können. Beispielsweise liegen in Krankenhäusern sämtliche Befunde und Erkrankungen vor, die es evtl. an anderen Standorten auch schon gegeben hat. Allerdings konnten keine Zusammenhänge aufgedeckt werden, da die Krankenhäuser in sich schon Probleme haben die unterschiedlichen Werte ordnen zu können. Hinzu kommen die Krankenhistorien der Patienten. Big Data ermöglicht ein Standortübergreifendes Sortiersystem, welches unnötige Informationen auslässt und Managemententscheidungen vereinfacht (vgl. Rasche 2013, 1081).

Velocity (Geschwindigkeit)

Bevor sich technische Geräte in den Lebensalltag integriert haben, wurden Daten von Unternehmen annähernd periodisch zusammengetragen. Aus diesem Grund ist man in der Lage gewesen, Auswertungen innerhalb bestimmter Zeitabstände vorzunehmen. Heutzutage gibt es einen regelrechten Datenfluss, der schnellstmöglich analysiert werden muss, um diesen auch nutzen und verfolgen zu können. Die ständig einfließenden Daten müssen daher in Echtzeit empfangen und analysiert werden (vgl. Horvath 2013, 1).

Ein Beispiel hierzu liefert die Kommunikationsfirma Telekom. Diese hatte in jüngster Vergangenheit immer wieder Kundenverluste zu verzeichnen. Diese Verluste sind jedoch nicht auf zu hohe Gebühren zurückzuführen, sondern vielmehr auf Verbindungsprobleme. Im Telekommunikationsgeschäft sind solche Probleme schwerwiegend. Daher ist es hilfreich, diese Störungen zeitnah zu erkennen, um sie dann beseitigen zu können. Ein rechtzeitiges Eingreifen könnte, dank Big Data, gewährleistet und somit der Kundenerhalt gesichert werden (vgl. Klezl 2012, 14).

Die drei grundlegenden Säulen von Big Data sind im Zuge einer Healthcare-Konferenz des Wirtschafts- und Gesundheitsgremiums 2012 auf insgesamt sechs erweitert worden (vgl. Rasche 2013, 1080). Diese weiteren Aufzählungen sind nicht maßgebend für die Funktion von Big Data, aber dennoch sinnvoll für eine richtige Anwendung und ein besseres Verständnis:

Value (Wert)

Die anaylsierten Daten sollen Entscheidungen und Nutzererwartungen bei meist kleinen Zeitfenstern höchstmöglich gerecht werden. Die Objektivität der Analyse stellt einen Wert dar, der den Experten eventuell widerspricht. Subjektive Meinungen können daher durch klare Fakten vereitelt werden. Somit kann eine Big Data-Ananlyse als eine zweite, sachliche Ansicht verstanden werden, die Fehlentscheidungen eventuell verhindert (vgl. ebd., 1081).

Verification (Feststellung der Richtigkeit)

Damit eine Analyse der Richtigkeit entspricht, müssen die Rohdaten, die zur Verarbeitung verwendet werden, sorgfältig geprüft werden. Hierbei sollte darauf geachtet werden, dass die Daten adressatenkonform, relevant und übertragungssicher sind. Aus diesem Grunde müssen insbesondere die Quellen der Daten auf Vertrauenswürdigkeit untersucht werden. Hierbei soll zudem eine Manipulation vermieden werden. Bei Eingabe von fehlerhaften Daten wird logischerweise auch das Analyseergebnis verfälscht. Eine solche Verfälschung kann schwerwiegende Probleme, durch falsch getroffene Entscheidungen, nach sich ziehen (vgl. ebd., 1081).

Viability (Brauchbarkeit)

Ein weiterer Faktor stellt die Vitalität der Daten dar. Daten müssen „brauchbar“ sein. Zum einen müssen die zu untersuchenden Informationen aktuell sein und zum anderen sollten sie auf die zu untersuchende Fagestellung passen. Vitalität ist relativ, da diese aus verschiedenen Blickwinkeln andere Qualitäten aufweisen kann. Allerdings sollten veraltete Daten vernichtet werden, um Speicherplatz zu sparen und zeitlich abgelaufene Erkenntnisse zu vermeiden (vgl. ebd., 1081).

Anhand der Säulen konnte gezeigt werden, was den Nutzen von Big Data ausmacht und wie es verwendet wird.

3.1.2 Formen von Analysen

Nachdem die grundlegenden Fähigkeiten von Big Data aufgezeigt worden sind, sollen nun mögliche Analyseformen vorgestellt werden, die mit diesem Verfahren erreicht werden können:

Beschreibende Analyse

Eine beschreibende Analyse bildet den Istzustand einer Sachlage ab. Hierzu werden unternehmensrelevante Daten, wie „Unternehmens-, Markt- und Wettbewerbsdaten“ (Klausnitzer 2013, 101), verwendet. Außerdem „sind meist statische Vergangenheitsdaten, die aus dem Controlling und Rechnungswesen gewonnen werden“ (Rasche 2013, 1082), von Nöten.

Diese Analyse lässt Unternehmer die aktuellen Möglichkeiten überblicken und kann für zukünftige Handlungsweisen von Nutzen sein.

Voraussagende Analyse

Voraussagende Analysen können Prognosen über bevorstehende Entwicklungen machen, in dem Spieltheorien und statistische Modelle angewendet werden. Es finden also Simulationen statt, die über Daten der Vergangenheit und der Gegenwart Muster hervorbringen (vgl. Klausnitzer 2013, 102; Rasche 2013, 1082).

Ein Beispiel hierzu liefert eine Supermarktkette aus Amerika: Ein Mädchen bekam Werbecoupons für Babyutensilien. Aufgrund dessen hat sich der Vater des Mädchens beim Supermarktmanager beschwert, da er in der Werbung für seine Tochter eine Ermutigung für Schwangerschaften sah und diese für unangebracht hielt. Einige Zeit später stellte sich heraus, dass das Mädchen tatsächlich schwanger gewesen ist. Das Marketing hatte über das Einkaufsverhalten Muster erkennen können, die auf eine Schwangerschaft hingedeutet haben. Daher hat die Kundin zielgerichtete Werbung erhalten (vgl. Duhigg 2012).

Ein weiteres Beispiel aus Amerika liefert das „Predictive Policing“. Die Polizei ist in der Lage, dank Statistiken und Mustererkennungen, Verbrechen vorherzusehen. So kann festgestellt werden, mit welcher Wahrscheinlichkeit wann an einem bestimmten Ort ein Verbrechen begangen wird (vgl. Beuth 2011).

Präskriptive Analyse

Die präskriptive Analyse ist ähnlich aufgebaut wie die vorhersagende. Allerdings werden hier Handlungsvorschläge geliefert, die sich mittels ständig aktuell zulaufender Daten möglicherweise noch ändern. Hier werden nicht nur Tendenzen aufgezeigt, wann und wo sich etwas ändert, sondern auch weshalb. Teilweise kann eine Entwicklung durch den Ursachenfund auch abgewendet oder abgeschwächt werden.

Im Idealfall werden mehrere Entscheidungsoptionen ausgearbeitet, die unterschiedliche Risiken und Potenziale bieten (vgl. Klausnitzer 2013, 102f).

Ein Beispiel für präskriptive Analysen soll durch den deutschen Forscher Dirk Helbing aufgezeigt werden, der zurzeit einen Weltsimulator mithilfe von Big Dat erstellt:

„Der Weltsimulator soll durch Echtzeit-Analyse der anschwellenden Datenmasse den epidemischen Weg von Schweinegrippeviren vorausberechnen können. Er wird effiziente Maßnahmen gegen den Klimawandel identifizieren und rechtzeitig Alarm schlagen, wenn eine neue Finanzkrise droht“ (Bloching 2013, 103). Ein solcher Weltsimulator würde also nicht nur aufzeigen wann und wo etwas geschieht, er könnte auch simulieren wie einzelne Entscheidungen sich weiter entwickeln würden.

Die Vorstellung der Analyseformen konnte das Potenzial von Big Data deutlich machen. Gewiss gibt es ähnliche Formen schon länger, aber diese waren mittels Echtzeitbearbeitung nicht aktuell und konnten nicht mit stetig zulaufenden Daten arbeiten. Somit ergeben sich genauere und dadurch verlässlichere Analysen.

3.2 Big Data Anwendungen

Nachdem erklärt werden konnte in welcher Weise Big Data eingesetzt werden kann, soll nun eine kurze Erläuterung der Funktionsweise aufgezeigt werden.

3.2.1 Algorithmen

Generell sind Unternehmen schon länger in der Lage Analysen durch den Einsatz von Computern vorzunehmen. Allerdings konnte die Rechenleistung den Datenmengen oft nicht gerecht werden. Daher ist man auf der Suche nach Verbesserungen im Softwarebereich gewesen, um Analysen höherer Größenordnungen möglich zu machen.

Hierzu sind Algorithmen entwickelt worden, die eine intelligente Auswertung möglich machen. Der Algorithmus ist eine „abgeleitete Bezeichnung für die Beschreibung einer endlichen Menge eindeutiger und methodischer Regeln, Arbeitsschritte, Anweisungen und Parameter zur erfolgsorientierten und systematischen Abwicklung technischer, mathematischer oder wissenschaftlicher Verfahren“ (Klußmann 2000, 27). Computer sind daher lernfähig und können für Analysemodelle eingesetzt werden. „Maschinelles Lernen ist ein Teilbereich der künstlichen Intelligenz (KI, im Englischen >>Artificial Intelligence<<, AI) der sich mit Algorithmen befasst, die es Computern erlauben zu lernen“ (Segaran 2008, 5). Aufgrund der Entwicklung von künstlicher Intelligenz durch Algorithmen sind diese mittlerweile nahezu überall auffindbar: „Computer und digitale Geräte, Internetprotokolle und Softwareanwendungen, Datenbanken und Suchverfahren, all diese verschiedenen Dinge, Phänomene und Hilfsmittel eint, dass sie von Algorithmen getrieben werden. Ihre Anwendung ist eine Kulturtechnik, welche unsere Gesellschaften massiv umformt“ (Bunz 2012, 9).

Ein einfaches Beispiel erklärt die Funktionsweise von Algorithmen: Wenn ein Durchschnittspreis für Nudeln in einem Supermarkt errechnet werden soll, müssen sämtliche Angebote mit Menge und Preis ermittelt werden. Anschließend teilt man Menge durch Preis und multipliziert diese mit dem Faktor eintausend. Wenn alle Werte aufgenommen sind, addiert man diese und dividiert das Ergebnis anschließend durch die Menge der Anzahl der angebotenen Nudeln. So erhält man einen Durchschnittswert. Ein Algorithmus schafft diese Rechnung innerhalb kürzester Zeit und benötigt regelrecht eine Befehlszeile. Durch die Befehlszeile wird eine Anleitung für die richtige Rechenweise eingegeben. Somit wird KI erschaffen, die Zeit und Arbeit einspart (vgl. Kurz und Rieger 2011, 51). Angenommen, man benötigt spezielle Informationen aus einer großen Menge an Daten, so können Algorithmen die Komplexität aus der Fülle nehmen und eine Zusammenfassung liefern.

Vier Studenten haben die Möglichkeiten der KI ausgenutzt und ein Programm namens „Stats Monkey“ erstellt, welches in der Lage ist Sportberichte eigenständig zu verfassen. Hierzu suchen sich Algorithmen Spielstände im Internet heraus und kennzeichnen die wichtigsten Spieler, z.b. anhand von Punkterzielungen. Des Weiteren werden die Daten in vorgefertigten Textbausteinen eingefügt, sodass ein Bericht entsteht (vgl. Bunz 2012, ).

Algorithmen können verschiedene Qualitäten haben. Diese unterscheiden sich vor allem in ihrer Arbeitsweise und letztlich in der Geschwindigkeit. Da Algorithmen für Unternehmen von hohem Wert in Hinblick auf spezielle Fragestellungen sind, werden ständig gute Programmierer gesucht. Einen Hinweis bietet eine Plattform auf der Preisgelder in Millionenhöhe von Firmen ausgeschrieben werden, für den Algorithmus, der am effektivsten arbeitet. Es handelt sich daher um einen Wettbewerb und bekommt somit einen spielerischen Charakter. Diese Plattform nennt sich Kaggle. „Kaggle is the leading platform for predictive modeling competitions. Companies, governments and researchers present datasets and problems and the world’s best data scientists compete to produce the best solutions“ (Kaggle 2014).

Das Kapitel konnte deutlich machen, dass Algorithmen die Bausteine für eine KI bilden.

Diese KI ist grundlegend für Big Data-Programme und bildet daher das Herzstück dieser Analysen.

3.2.2 Programme

Die wissenschaftlichen Dienste des Bundestages nennen zwei relevante Neuentwicklungen für die Anwendung von Big Data-Verfahren. Diese lauten MapReduce und Hadoop (vgl. Horvath 2013, 2). Im Grunde arbeitet Hadoop mit MapReduce, sodass von einem Programm gesprochen werden kann, welches lediglich eine bekannte Algorithmusfunktion verwendet. Es gibt darüber hinaus andere Programme, die für Analysen zuvor verwendet worden sind, allerdings werden solche an dieser Stelle nicht weiter erwähnt, um den Umfang der Untersuchungen nicht unnötig zu vergrößern. Es wird daher nur die relevante Anwendung Hadoop erklärt, die eine Big Data-Analyse möglich macht.

Hadoop ist in der Lage große Daten zu speichern und bedarf keine aufwendige Hardware. Daher können handelsübliche Computer mit diesem Programm arbeiten. Das bedeutet, es werden weder Experten für spezielle Computer benötigt, noch fallen hohe Beschaffungskosten für diese an. Hadoop besteht aus zwei Bestandteilen: HDFS und MapReduce (vgl.Wartala 2012, 22ff).

HDFS (Hadoop Distributed File System)

HDFS ist ein stark arbeitsfähiges und sicheres Dateisystem, dass zur Speicherung sehr großer Datenmengen auf mehreren Computern verwendet wird.

Das HDFS arbeitet mit zwei verschiedenen Diensten. Diese Dienste werden Namenode und Datenode bezeichnet. Über diese Dienste werden Daten aufgeteilt und verarbeitet. Die folgende Abbildung erleichtert das Verständnis für die Arbeitsweise:

Abbildung in dieser Leseprobe nicht enthalten

Abb. 5 HDFS (Wartala 2012, 25)

Die Abbildung zeigt drei Computer mit der Bezeichnung „Datanode“. Auf diese Computer werden zerlegte Datenblöcke mit gleicher Größe[8], redundant abgelegt. Durch die Redundanz wird das System in sich sicherer, da ein ausgefallener Computer keine Datenverluste ausmacht (vgl. Wartala 2012, 24ff).

Im oberen Teil der Abbildung ist eine Namenode zu sehen. Auf dieser werden Metadaten gespeichert, um die Verteilung der Daten zu koordinieren. Metadaten sind „in Datenbanken und ähnlichen Systemen zum Management von gespeicherten Nutzdaten (z.B. beim à Dokumentmanagement) die systeminternen Daten, die zur Verwaltung der eigentlichen Nutzdaten verwendet werden („Daten über Daten“) (Klußmann 2000, 483)“. Die Namenode verwaltet somit das gesamte System (vgl. Wartala 2012, 24ff).

Neben der Namenode befindet sich die „Secondary Namenode“. Diese entlastet die Namenode und dient zusätzlich als Sicherung.

Der Client oder auch Benutzer überwacht das System und ist zuständig für die Wartung der Computer.

Die Funktionsweise von Hadoop bildet ein System, dass in der Lage ist ständig eingehende Daten zu archivieren und jederzeit abrufen zu können. Somit können Analyseergebnisse immer zeitgemäß ausgeführt werden. Durch die Kopplung mehrerer Computer ist das System zu dem befähigt exorbitante Mengen an Daten zu speichern (vgl. ebd.)

MapReduce

MapReduce ist ein Algorithmenmodell, das von zwei Mitarbeiten aus dem Hause Google entwickelt worden ist. Dies dient zur Bearbeitung von sehr großen Datenmengen.

Der Grundgedanke liegt darin, Verarbeitungsprozesse auszulagern, damit mehrere Analysen zeitgleich stattfinden können. Daher müssen die Anwendungen auf mehrere Datensätze unterschiedlicher Computern verteilt werden. Somit können diese lokal arbeiten. Der Name MapReduce setzt sich aus den Wörtern Map und Reduce zusammen. Diese beiden Bezeichnungen haben jeweils eine Funktion, die kombiniert worden sind. In der ersten Arbeitsphase werden die Daten „gemapped“. Das heißt, es werden Schlüsselbegriffe gesucht und zusammengetragen. In der zweiten Phase werden die zusammengetragenen Ergebnisse zusammengefasst und auf wenige Werte reduziert. (vgl. Dean und Ghemawat 2004)

Ein Beispiel soll diese Vorgehensweise erläutern: Angenommen, man möchte in Erfahrung bringen, wie viele Äpfel in fünf verschiedenen Supermärkten zur Verfügung stehen. Um dies festzustellen, zählen nun fünf Personen diese Äpfel, wobei „die Äpfel“ unser Schlüsselbegriff ist. Nun hat man fünf einzelne Ergebnisse, die Auskunft über die Menge von Äpfeln jedes einzelnen Marktes geben: 30, 45, 63, 20, 12. Dieser Vorgang ist unser Map-Vorgang. Nun werden die Einzelergebnisse addiert und man erhält die Gesamtsumme von 170 Äpfeln. Dieser Vorgang wird als Reduce-Vorgang bezeichnet. Die MapReduce-Analyse ist nun beendet. Man könnte die Suche auch noch spezifizieren und nach der Gesamtzahl aller verfügbaren Sorten der Äpfel fragen. Der Schlüsselbegriff würde sich also auf fünf verschiedene Schlüsselbegriffe aufteilen. Dann bekäme man Summen der unterschiedlichen Sorten und somit einen Überblick über das gesamte Apfelsortiment.

Das Besondere bei dieser Vorgehensweise ist die Verteilung von Aufgaben auf mehrere Rechner. Werte können parallel zueinander errechnet werden, ohne dass ein einzelner Computer überlastet wird. Zudem wird die Geschwindigkeit der zu verarbeitenden Daten erhöht (vgl. Baron 2013, 163).

Die Erläuterungen haben gezeigt, dass HDFS in der Lage ist, große Datenmengen zu organisieren, wohingegen MapReduce parallel Daten untersuchen und bearbeiten kann. Durch die Kombination dieser Anwendungen ist ein leistungsfähiges Programm namens Hadoop geschaffen worden, welches eine ideale Plattform für Big Data-Untersuchungen bietet.

3.3 Datengenerierung für Big Data Analysen

Der Einsatz von mobilen Endgeräten mit Internetzugang kann durch die Anwendung von Big Data-Verfahren in Zukunft, gerade im Medienbereich, sämtliche Produkte, und somit auch den Markt grundlegend, verändern. „Ein breites Verständnis (und damit breite Datenbasis) der Medienunternehmen, wie (auf welchem Endgerät), wann (unterwegs, zu Hause, etc.) und von wem diese Inhalte genutzt werden, kann dazu beitragen, insgesamt attraktivere Produkte und Inhalte zu kreieren und neue Wege aufzeigen diese zu monetarisieren“ (Picot und Propstmeier 2013, 38). Ein Beispiel liefern die sich verbessernden Empfehlungssysteme. Verbraucher haben durch ihren vormaligen Medienkonsum andere Produkte vorgeschlagen bekommen, die sie eventuell interessiert haben können. Dieser Prozess wurde in der Vergangenheit meist teilautomatisiert, mittels Schlüsselbgriffen, vorgenommen. Durch den Einsatz von Big Data-Technologien können unstrukturierte Daten in allen Formen nutzbar gemacht und anaylsiert werden (vgl. ebd., 38). „Lernende Systeme können beispielsweise mit Hilfe von kollaborativen Filtermechanismen und anhand der Präferenzen unzähliger anderer Mediennutzer die Relevanz der vorgeschlagenen Inhalte steigern und somit Qualität und Dauer des Medienkosnums erhöhen – mit positiven Auswirkungen auf die Werbemöglichkeiten“ (ebd., 38). Aus medienwissenschaftlicher Sicht wird der Einsatz von Datenbanken, sprich die groß angelegte Sammlung von Daten, als ein möglicher Wandel der Gesellschaft gesehen: „Lev Manovich [...] hat die Datenbank als >symbolische Form< konzeptualisiert und damit [...] die Datenbank als charakteristische Signatur für die veränderte Stellung des Menschen im Zeitalter elektronischer Datenverarbeitung aufgerufen“ (Böhme, Nohr und Wiemer 2012, 9).

Durch die Möglichkeit, das Marketing zielgerichtet aufgrund von Big Data-Analysen anwenden zu können, ist es realisierbar Marktpotenziale stärker auszuschöpfen und letztlich auch den Long Tail beeinflussen zu können, wie das Empfehlungssystem bereits aufzeigt. Die folgenden Ausführungen sollen sichtbar machen, wie und wo Daten gewonnen werden, die durch Konsumenten generiert werden und folglich ein zielgerichtetes Marketing möglich zu machen. „Datengetriebenes Marketing erlaubt uns, dem einzelnen Kunden zum richtigen Zeitpunkt die richtigen Angebote zum richtigen Preis in der richtigen Ansprache zu unterbreiten“ (Bloching 2013, 105). Um im Rahmen der Long Tail-These zu bleiben, werden lediglich Bereiche aufgezeigt, die Film-, Buch-, Videospiel- und Musikumsätze beeinflussen können.

3.3.1 Datengenerierung durch Kommunikation

Der monetäre Wert von Daten kann durch die Existenz von kommunikativen Plattformen, wie sozialen Netzwerken oder auch Suchmaschinen, angenommen werden. „Gerade das omnipotente Beispiel Google zeigt [...], dass die Organisation der Suche nicht neutral verstanden werden kann, sondern zumindest eine ökonomische, wenn nicht gar eine politische Komponente hat: Google ist nicht der Zettelkasten einer Staatsbibliothek, sondern ein nur vorgeblich kostenloses Serviceangebot eines global agierenden Konzerns“ (Böhme, Nohr und Wiemer 2012, 14). Der richtige Umgang mit Daten und dessen Auswertung stellt also einen ökonomischen Wert dar, der von Werbemaßnahmen generiert wird. Werbung kann durch Datensammlung gezielt eingesetzt werden: „Daten ermöglichen personalisierte oder personalisierbare, in jedem Fall auf Personen zugeschnittene Werbung. Je mehr Daten zur Verfügung stehen, desto zielgenauer wird die Werbung, desto größer ist der Gewinn, mit dem wieder neue, noch interessantere Online-Angebote und Netzwerkfunktionen entwickelt werden können, die zur Generierung weiterer Daten eingesetzt werden“ (Wagner 2012, 221). Neben Google gibt es besonders im Bereich der sozialen Netzwerke weitere vermeintlich kostenlose Dienste, die ähnliche Werbepraktiken anwenden. Die Umsatzzahlen des Unternehmens Facebook liefern hierzu einen deutlichen Hinweis: Der Nettogewinn des Jahres 2013 liegt bei 523 Mio. Dollar. Diese Summe konnte, neben Werbeinnahmen, durch Aktien erzielt werden (vgl. Park 2014).

Laut einer BITKOM-Studie sind zwei Drittel aller Internetnutzer in sozialen Netzwerken aktiv. Darunter fallen Netzwerke, wie Facebook, Twitter, Google+, Xing, etc., wobei Facebook am meisten genutzt wird. Somit verwendet ein Großteil der Gesellschaft soziale Netzwerke. Am häufigsten werden private Nachrichten verschickt bzw. chatten die Nutzer miteinander. Weiter werden die Netzwerke überwiegend für das Hochladen und Teilen von Fotos, Videos, Texten und Links verwendet (vgl. BITKOM 2013a). Mit einer solchen Verwendung gehen Daten über Vorlieben und Zusammenhänge einher, die eine zielgereichte Werbung sicherstellen. Darüber hinaus geben Nutzer freiweilig Daten zu ihrer Person preis, wie E-Mail-Adresse, Geschlecht oder Geburtstag. „Zu diesen Bestandsdaten kommen die freiwilligen Profil- bzw. Inhaltsdaten hinzu, also all jene Daten und Informationen, mit denen die Nutzer sich selbst beschreiben und charakterisieren: ihre Heimatstadt, ihre Adresse, ihre Familienmitglieder und Partner, ihre politischen Ansichten, religiösen Einstellungen und sexuellen Vorlieben, ihre Ausbildung und ihr Beruf, ihre Lieblingsmusik und ihre Hobbys, um nur ein paar Beispiele zu nennen“ (Wagner 2012, 223).

Soziale Netzwerke haben durch „Social Plugins“ eine weitere Opportunität der Datengewinnung geschaffen. Mit den „Social Plugins“ sind andere Anbieter in der Lage Dienste von sozialen Netzwerken zu nutzen, indem sie Funktionen, wie z.B. das Teilen einer Information auf einer sozialen Plattform, auf ihrer Webseite integrieren. Hierdurch wird die Bekannheit des Anbieters auf sozialen Plattformen gesteigert. Allerdings gewinnen Anbieter von sozialen Netzwerken dadurch weitere Informationen der Verbraucher. „Zum einen ermöglichen [Social Plugins], auf Drittseiten beispielsweise Interessen bzw. Vorlieben der Freunde auszulesen, und zum anderen [nutzen soziale Netzwerke] diese Erkenntnisse, um Empfehlungen für Inhalte und Produkte auf der Basis der eigenen, aber auch auf Basis der Interessen von Freunden auzuspielen“ (Bender und Grau 2012, 317).

Durch den Verkauf von WhatsApp an Facebook ergeben sich weitere Möglichkeiten Daten von Benutzern zu erheben. Whatsapp ist ein Messenger, der einen kostenlosen Nachrichtenaustausch mit internetfähigen Mobiltelefonen ermöglicht. Der Dienst ermöglicht, neben dem Senden von einfachen Nachrichten, den Austausch von Daten wie Bildern, Videos oder auch Musik. Nicht nur der Dienst an sich ist von Facebook übernommen worden, sondern auch sämtliche Daten, die über diesen entstanden sind (vgl. Klemm 2014).

Ähnlich verhält es sich mit der Übernahme der Plattform YouTube von Google. Google hat das Videoportal 2006 erstanden und ist seitdem in der Lage auf sämtliche Benutzerdaten, die zuvor gesammelt worden sind , zuzugreifen (vgl. Levy 2012, 312ff). YouTube ist ein Videoportal mit sozialer Netzwerkfunktion. Nutzer können sich ein Profil erstellen, Videos kommentieren und teilen oder solche selbst auf das Portal laden. Mit der Übernahme von Google ist die Kommentarfunktion nur noch über das soziale Netzwerk Google+ möglich. Aufgrund dieser Verknüpfung kann Google die Vorlieben seiner Nutzer besser analysieren und ist dadurch befähigt noch zielorientierter Werbung für jeden einzelnen Nutzer zu schalten.

Bei Spielekonsolen können Daten ebenfalls gesammelt werden. „Ein Spiel zu spielen ist der freiwillige Versuch, unnötige Hindernisse zu überwinden“ (Suits 2005, 38). Das Überwinden eines Hindernisses wird bei Konsolen mit Internetanschluss durch virtuelle Trophäen belohnt. Diese Trophäen kann der Nutzer mit anderen Konsumenten teilen, um Erfolge zu vergleichen. Dies geschieht über ein internes Konsolennetzwerk (vgl. Playstation o.J.). Dies soll den Spieler einen zusätzlichen Anreiz geben, das Spiel zu spielen. Allerdings sind die Hersteller somit auch in der Lage einzusehen, wie intensiv ein Spiel gespielt worden ist. Manche Trophäen können nur erlangt werden, wenn ein bestimmter Fortschritt innerhalb des Spiels erreicht worden ist. Über Big Data-Analysen können somit nützliche Daten erhoben werden, die über Spielverhalten und Spieler Aussagen treffen können. Wenn Spieler zuvor ein Netzwerkkonto errichtet haben, lässt sich eine Auswertung durch Bestandsdaten erreichen. Weiter wären Anbieter durch eine Big Data-Analyse in der Lage festzustellen, welche Altersgruppen in welchem Grad Interesse an welchen Spielen haben. Somit können Spielmechnanismen verbessert und daher Kundenbedürfnisse befriedigt werden.

Kommunikation kann auch einseitig stattfinden, wie bei Büchern. Eine solche Art der Kommunikation wird immer mehr durch E-Books, sprich digitale Bücher, genutzt. Laut einer BITKOM-Studie liest jeder fünfte Bundesbürger digitlae Bücher und 58% der E-Book-Nutzer lesen auf Smartphones (vgl. BITKOM 2013b). Auf den E-Books sind Konsumenten in der Lage Stellen, die sie für wichtig erachten, zu markieren. Amazon hat durch eine „Feedbackschleife“ die Möglichkeit diese persönlichen Markierungen einzusehen. Wenn Amazon Übereinstimmungen von Markierungen mehrer Nutzer findet, werden diese auf der Webseite als „Popular Highlights“ veröffentlicht (vgl. Häntzschel 2010). Durch den Rückkanal kann angenommen werden, dass Amazon so auch feststellen kann, wie schnell ein Buch gelesen wurde, an welcher Stelle der Leser das Buch aufgehört hat zu lesen, in welcher Reihenfolge gelesen und nach welchen Begriffen gesucht worden ist (vgl. Köhler 2012, 52). Anhand dieser neu gewonnen Daten können ebenfalls Vorlieben der Masse erkannt und angepasst werden. Bücher, die nur bis zu einem gewissen Abschnitt gelesen worden sind, können z.B. mit einem alternativen Ende verbessert werden, um so evtl. einen höheren Umsatz zu erzielen.

Die Beispiele konnten deutlich machen, auf welche Weise Daten auf kommunikativem Wege gesammelt werden. Kommunikation jeglicher Art kann zur Datenspeicherung eingesetzt werden und potentiell für Big Data-Analysen weiterverarbeitet werden.

[...]


[1] siehe Anhang Abb. 8

[2] siehe Anhang Abb. 9

[3] 1 Zettabyte entspricht 1 Billion Gigabyte

[4] 1 Terabyte = 1000 Gigabyte

[5] Texte, Video, Bilder, etc.

[6] Kommunikation innerhalb von Maschinen

[7] Mischform von unstrukturierten und semistrukturierten Daten

[8] üblicherweise 64 Megabyte pro Block

Details

Seiten
Erscheinungsform
Erstausgabe
Jahr
2014
ISBN (PDF)
9783958208100
ISBN (Paperback)
9783958203105
Dateigröße
3.2 MB
Sprache
Deutsch
Institution / Hochschule
Fachhochschule Braunschweig / Wolfenbüttel; Standort Wolfenbüttel
Erscheinungsdatum
2015 (Februar)
Note
1,7
Schlagworte
Long Tail Tipping Point Verkaufsschlager Datenschutz Empfehlungssystem

Autor

Robert Göhmann, B.A., wurde 1984 in Gifhorn geboren. Während des Studiums zum Medienmanagement wuchs das Interesse für die Themenschwerpunkte Medienkommunikation, Unternehmenskommunikation, Markenbildung und Marketing. Fasziniert von diesen Lehrinhalten, unterstütze der Autor die Firma Volkswagen AG für ca. ein Jahr im Bereich Event Kommunikation. Derzeit vertieft der Medienmanager sein Wissen in einem weiterführenden Studium.
Zurück

Titel: Das Ende des Verkaufsschlagers: Kritische Analyse zur These des Long Tails unter der Beachtung von Big Data Verfahren und dem Ansatz des Tipping Points
book preview page numper 1
book preview page numper 2
book preview page numper 3
book preview page numper 4
book preview page numper 5
book preview page numper 6
book preview page numper 7
book preview page numper 8
book preview page numper 9
book preview page numper 10
book preview page numper 11
book preview page numper 12
book preview page numper 13
book preview page numper 14
72 Seiten
Cookie-Einstellungen