Lade Inhalt...

Der Einfluss von Buchrezensionen auf den Buchabsatz: Eine empirische Analyse

Masterarbeit 2013 64 Seiten

Leseprobe

3 Empirische Analyse des Einflusses von Buchrezensionen auf den Buchabsatz

Damit eine empirische Analyse des zu untersuchenden Sachverhalts über den Einfluss von Buchrezensionen auf den Buchabsatz erfolgen kann, müssen verschiedene Voraussetzungen geschaffen werden. Hierzu ist unter anderem notwendig, eine solide Datengrundlage zu schaffen, aus der Erkenntnisse gezogen werden können. Diese Datengrundlage muss so aufbereitet werden, dass eine Anwendung von statistischen Verfahren gewährleistet werden kann.

Das vorliegende Kapitel behandelt die Daten- und Modellgrundlagen, welche im Unterkapitel 3.1 dargestellt und erläutert werden. Nachfolgend wird auf Grundlage dieser Daten in Kapitel 3.2 eine Regressionsanalyse durchgeführt. Anschließend wird in Kapitel 3.3 die Propensity Score Matching Methode angewandt. Die Gründe für die gewählten Verfahren werden in den jeweiligen Kapiteln der Verfahren erläutert. Im darauffolgenden Kapitel 4 werden die gewonnen Ergebnisse diskutiert.

3.1 Daten- und Modellgrundlagen

Grundlage der empirischen Analyse der vorliegenden Masterarbeit ist eine Datenbank des Marktforschungsunternehmens Gesellschaft für Konsumforschung (GfK). Diese Datenbank umfasst die Absatzdaten von 186.113 Artikeln des Buchhandels für den Zeitraum 45. Kalenderwoche 2004 bis 30. Kalenderwoche 2010. Erfasst wurden diese Daten über 800 Einzel- und Onlinehändler. Das entspricht einer Marktabdeckung von 80 % in Deutschland (Schmidt-Stölting/Blömeke/Clement, 2011, S. 30).

Zusätzlich zu den Absatzdaten enthält die Datenbank Angaben über den Buchtitel, den Autor, den Verlag, die Seitenanzahl, die ISBN-Nummer, das Erscheinungsdatum, den Verkaufspreis bei Erscheinung sowie die Platzierung in der Bestseller-Liste je Woche.

Um den Einfluss von Buchrezensionen auf den Buchabsatz zu untersuchen, werden nicht alle in der Datenbank enthaltenen Informationen benötigt, bzw. noch benötigte Informationen ergänzt. In Tabelle 2 wird aufgeführt wie diese Datenbank zunächst reduziert wurde:

Abbildung in dieser Leseprobe nicht enthalten

Tabelle 2: Bearbeitung der Datengrundlage (Angaben in Stück) (Quelle: eigene Darstellung)

Rezensionen in Tageszeitungen sind tagesaktuell und erscheinen meist zeitnah zum Erscheinungsdatum eines Buches. Verlage verwenden für Erstauflagen oft hochpreisige und hochwertigere Hardcover- (fester Einband) bzw. Broschurausgaben – zukünftig einheitlich Hardcover genannt (Schrape, 2011, S. 48). Daher wird in dieser Arbeit der Fokus auf Hardcover gelegt und somit alle andersartigen 60.696 Artikel aus dem Datensatz eliminiert. Nachfolgend werden nur die relevanten Warengruppen der Belletristik betrachtet, die den Kern der Unterhaltungsliteratur darstellen, wie Romane oder Erzählungen. Dazu gehören aber auch Warengruppen wie zum Beispiel Märchen sowie Anthologien. Die 62.775 reduzierten Artikel sind zum Beispiel aus Warengruppen wie „Briefe und Tagebücher“ oder „Essays, Feuilleton, Literaturkritik, Interviews“. Warengruppen stellen eine themenbasierte Abgrenzung der einzelnen Bücher dar und wurden von der deutschen Buchindustrie festgelegt. Eine vollständige Auflistung dieser Warengruppe kann dem Anhang 1 entnommen werden. Damit die verbleibenden Bücher einheitlich betrachtet werden können und eine relevante zeitliche Basis besitzen, werden nur Bücher betrachtet die mindestens 52 Wochen nach Erscheinungsdatum verfügbar sind. Somit scheiden weitere 30.654 Bücher aus dem Datensatz aus. Des Weiteren werden nur Bücher betrachtet, die Mindestverkäufe von 1.500 Exemplaren innerhalb der ersten 52 Wochen nach Erscheinung vorweisen können und daher eine Relevanz für Verlage besitzen. Bücher mit einer geringeren Anzahl an verkauften Exemplaren tragen nur geringfügig zum wirtschaftlichen Erfolg eines Verlages bei und sind somit uninteressant für die Verlage (Schmidt-Stölting/Blömeke/Clement, 2011, S. 31). Das führt dazu, dass der Datensatz um weitere 26.873 Bücher reduziert wurde. Nachfolgend werden 1.482 ungültige Datensätze, wie identische Neuauflagen unter der gleichen ISBN-Nummer sowie 23 unvollständige Datensätze eliminiert. Abschließend werden 462 fremdsprachige Bücher und fremdartige Artikel sowie 48 doppelte Datensätze aus dem Datensatz eliminiert, da diese ebenfalls nicht verwendet werden können und das Ergebnis durchgeführter Analysen verfälschen können. Der verbleibende Datensatz beinhaltet 3.100 Bücher und stellt die Grundlage dieser Masterarbeit dar. Alle weiteren Berechnungen und Betrachtungen beziehen sich auf diesen Datensatz.

Anschließend wurden für diese verbliebenden 3.100 Bücher die Erscheinungsdaten der jeweiligen Rezensionen erhoben. Hierzu wurden die größten überregionalen Tageszeitungen Deutschlands, die Frankfurter Allgemeine Zeitung (FAZ) mit 1.406.064 (Montag – Freitag) und die Süddeutsche Zeitung (SZ) mit 1.626.191 (Montag – Freitag) verkauften Exemplaren in 2012 (IVW, 2013), herangezogen. Die Angaben über die Erscheinungsdaten der Rezensionen wurde über die Internetseite www.buecher.de erhoben. Zusätzlich wurde über das Internet-Rezensionsportal www.perlentaucher.de – nachfolgend Perlentaucher genannt – die Verfügbarkeit eigener Rezensionen bzw. kommentierter oder resümierter FAZ- und SZ-Rezensionen festgestellt. Perlentaucher ist führend im Alexa Ranking in der Kategorie Zeitschriften und Onlinemagazine und somit die meistbesuchte Internetseite in diesem Bereich (Alexa Internet, 2013). Eine Rezension wurde nur als relevant erachtet, wenn diese vor Erscheinung des Buches oder innerhalb der ersten 52 Wochen nach Erscheinung verfügbar war.

Nachdem der Gesamtdatensatz auf 3.100 Bücher reduziert wurde, erfolgte eine Bestandsaufnahme dieser Warengruppen. Hierbei wurde festgestellt, dass verschiedene Warengruppen eine sehr geringe Stückzahl an Büchern aufwiesen. Damit fundierte Aussagen bezüglich der Warengruppen getroffen werden können, wurden einzelne Warengruppen sinnvoll zusammengeführt. So wurden die Warengruppen „Spannung“ (Warengruppenindex: 120), „Krimis“ (121), „Historische Krimis“ (122) und „Horror“ (123) zu „Krimis“ zusammengeführt. Ebenfalls wurden die Warengruppen „Science Fiction, Fantasy“ (130), „Science Fiction“ (131), „Fantasy“ (132) und „Fantastische Literatur“ (133) zu „SF+Fantasy“ zusammengeführt. Abschließend wurde „Gemischte Anthologien“ (140) den „Anthologien“ (115) zugeordnet. Die daraus entstandene Verteilung der Warengruppen ist in Abbildung 1 abgebildet.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1: Verteilung Warengruppen nach Zusammenführung (Quelle: eigene Darstellung)

3.2 Regressionsanalyse

Damit die Zusammenhänge zwischen den Rezensionen in Tageszeitungen oder Onlinemedien und dem Buchhandel erklärt werden können, wurde in vergleichbaren Arbeiten als Methode eine lineare Regressionsanalyse gewählt, wie zum Beispiel von Schmidt-Stölting/Blömeke/Clement (2011).

In der vorliegenden Masterarbeit wurden die Modellprämissen der linearen Regression überprüft. Hierbei wiesen die Residuen den Schiefe-Wert 10,351 und den Kurtosis-Wert 140,815 auf. Somit liegt keine Normalverteilung der Daten vor. Eine der Prämissen zur Reduktion des Gesamtdatensatzes ist, dass ein Mindestabsatz von 1.500 Stück eines Buches vorliegen muss. Somit bestehen keine Nullabsätze und die vorliegenden Absatzzahlen dürfen logarithmiert werden, um bessere Werte der Schiefe und Kurtosis zu erreichen. Die logarithmierten Werte der Residuen von ABSATZ52W haben einen Schiefe-Wert von 1,204 und einen Kurtosis-Wert von 1,890. Eine Normalverteilung liegt vor, wenn die Schiefe- und der Kurtosis-Werte Null sind. Nach dem Logarithmieren liegt also weiterhin keine Normalverteilung vor. Auch wenn nun von einer deutlich verbesserten Datenstruktur auszugehen ist, ist eine Anwendung der Methode der linearen Regression nicht zu empfehlen (Janssen/Laatz, 2012, S. 213f.).

Da die Buchabsätze der ersten 52 Wochen als Zähldaten vorliegen, wurde zuerst als Alternativmethode eine Poisson Regression gewählt. Bei diskreten Verteilungen, die insbesondere Zähldaten berücksichtigen oder welche die Prämisse der linearen Regression bezüglich der normalverteilten Störgrößen nicht einhalten können, wird die Poisson-Verteilung am häufigsten verwendet. Zähldaten liegen vor, wenn die Anzahl bestimmter Ereignisse in einem Zeitraum betrachtet werden sollen. Für die betrachteten Buchabsätze der ersten 52 Wochen nach Erscheinung trifft das zu (Fahrmeir/Kneib/Lang, 2009, S. 210).

Modellformulierung und Hypothesenbildung

Die zu analysierende Kernthese dieser Masterarbeit ist, dass Buchrezensionen einen Einfluss auf den Buchabsatz haben. Somit wird der Absatz der ersten 52 Wochen nach Erscheinung (ABSATZ52W) als abhängige Variable gewählt. Bereits Berger/Sorensen/Rasmussen (2010) und Schmidt-Stölting/Blömeke/Clement (2011) haben für ihre wissenschaftlichen Ausarbeitungen den Absatz als abhängige Variable gewählt.

Gemäß Kernthese und der bereits gewonnenen Erkenntnisse der in Kapitel 2 untersuchten wissenschaftlichen Arbeiten wird vermutet, dass Buchrezensionen einen signifikanten Einfluss auf den Buchabsatz haben. Hierfür werden für die Analyse die Buchrezensionen der Tageszeitungen FAZ und SZ sowie Internet-Buchrezensionen von Perlentaucher herangezogen und diesen einen signifikanten Einfluss unterstellt.

Die Hypothesen lauten somit:

Hypothese 1 : Eine Buchrezension in der FAZ hat einen signifikanten Einfluss auf den Absatz des jeweiligen Buches.

Hypothese 2 : Eine Buchrezension in der SZ hat einen signifikanten Einfluss auf den Absatz des jeweiligen Buches.

Hypothese 3 : Eine Buchrezension auf Perlentaucher hat einen signifikanten Einfluss auf den Absatz des jeweiligen Buches.

Neben den Buchrezensionen werden als weitere Kontrollvariablen der Verlag, der Preis pro Seite, die Warengruppe und das Erscheinungsdatum eines Buches eingeführt. Auch diese Einflussfaktoren wurden bereits erfolgreich in anderen wissenschaftlichen Arbeiten verwendet. Den Verlag hat ebenfalls Shehu et al. (2013) als Einflussfaktor erkannt. Des Weiteren wählten auch Berger/Sorensen/Rasmussen (2010), Schmidt-Stölting/Blömeke/Clement (2011), Shehu et al. (2013) und Zhu/Zhang (2010) den Preis als unabhängige Variable. Das Genre und somit gleichbedeutend die Warengruppe verwendeten Schmidt-Stölting/Blömeke/Clement (2011), Shehu et al. (2013), Moon/Bergey/Iacobucci (2010), Chen/Liu/Zhang (2012) und Peng/Gui/Li (2013) als unabhängige Variable. Das Erscheinungsdatum eines Buches wurde bereits von Schmidt-Stölting/Blömeke/Clement (2011) als Einflussfaktor gewählt.

Damit die vorliegenden und in Kapitel 3.1 bereits reduzierten Daten für das Regressionsmodell verwendet werden können, wurden diese Daten aufbereitet und operationalisiert. Die Variablen wurden so konstruiert, dass die Verarbeitung effektiver und eine anschließende Ergebnisbewertung qualitativer erfolgen kann:

- In den nachfolgenden Betrachtungen wird der Buchverkaufspreis in Cent pro Seite (PREIS) angegeben.
- Das Erscheinungsdatum wurde in Quartals-Dummy-Variablen transformiert (Q1, Q2, Q3 und Q4 jeweils mit 0 = „nicht im Quartal erschienen“ und 1 = „im Quartal erschienen“).
- Die Angabe über die jeweilige Warengruppe wurde ebenfalls in eine Dummy-Variable transformiert (ERZÄHL. LITERATUR, GEGENW. LITERATUR, HIST. ROMANE, MÄRCHEN, ROMANH. BIOGRAPHIEN, ANTHOLOGIEN, KRIMIS und SF+FANTASY jeweils mit 0 = „Buch nicht in Warengruppe erschienen“ und 1 = „Buch in Warengruppe erschienen“).
- Die Angaben über eine vorhandene Rezension in der FAZ, der SZ und auf PERLENTAUCHER wurden analog zur Warengruppe konstruiert. Die Variablen über vorhandene Rezensionen wurden ebenfalls binärcodiert (0 = „keine Rezension“ und 1 = „Rezension vorhanden“).

In Tabelle 3 sind für alle verwendeten Variablen die deskriptiven Parameter der einzelnen Variablen aufgeführt. Diese Tabelle zeigt die jeweiligen Minimum-, Maximum- und Mittelwerte sowie die Werte der Standardabweichung und der Varianz pro Variable der 3.100 Bücherdatensätze (Schlittgen, 2009, S. 56 f.).

Abbildung in dieser Leseprobe nicht enthalten

Tabelle 3: Deskriptive Parameter (Quelle: eigene Darstellung)

Die unabhängige Variable PERLENTAUCHER wird aufgrund festgestellter Korrelationen zu den unabhängigen Variablen FAZ und SZ aus der weiteren Betrachtung herausgenommen. Die aufgestellte Hypothese 3 wird somit nicht weiter betrachtet. Die Korrelationsmatrix der unabhängigen Variablen ist in Anhang 2 aufgeführt.

Schätzung der Regressionsfunktion

Im gewählten Poisson-Modell wird die Anzahl der Ereignisse im betrachteten Zeitraum als Rate λi der Poisson-Verteilung angegeben mit

Abbildung in dieser Leseprobe nicht enthalten

(3.21)

Für das Log-lineare Poisson-Modell gilt dann

Abbildung in dieser Leseprobe nicht enthalten

(3.22)

Die unabhängigen Variablen haben also auf die Rate λi einen exponentiellen-multiplikativen Einfluss, während der Einfluss auf die logarithmierte Rate log(λi) linear ist. Für die Schätzung der abhängigen Variablen λi (ABSATZ52W) wird somit folgende Regressionsfunktion zugrunde gelegt:

Abbildung in dieser Leseprobe nicht enthalten

(3.23)

mit

β0 = konstantes Glied

βi = Regressionskoeffizient

X = Unabhängige Variable

Die abhängige Variable ABSATZ52W stellt den Absatz der ersten 52 Wochen nach Erscheinung eines Buches dar. Als unabhängige Variablen wurden die bereits in Kapitel 3.1 vorgestellten Variablen über eine vorhandene Rezension, den Verlag, die Preis-, die Quartals- sowie die Warengruppenangeben festgelegt (Fahrmeir/Kneib/Lang, 2009, S. 210 ff.).

Bei den ersten Berechnungen konnte festgestellt werden, dass eine Überdispersion vorliegt. Das wurde durch die später ermittelten Alpha-Werte aus Tabelle 6 bestätigt. Diese weichen signifikant von Null ab. Von Überdispersion wird gesprochen, wenn die Daten mehr Variabilität aufweisen, also der Standardfehler überschätzt wird, als durch das Modell unterstellt wird (Fahrmeir/Kneib/Lang, 2009, S. 197) Das Poisson-Modell wäre dann zwar konsistent, aber insgesamt ineffizient. Das könnte auf das einfache Design der Poisson-Regression zurückzuführen sein (Tutz, 2000, S. 261).

Um das Modell zweckmäßig verändern zu können, wird häufig ein Überdispersions-Parameter eingeführt. Ein komplexerer Ansatz, der zusätzliche Variabilität von Zähldaten berücksichtigt, stellt die Negative-Binomial-(NB)-Regression dar (Fahrmeir/Kneib/Lang, 2009, S. 211). Als Entscheidungsunterstützung über die Wahl des korrekten Modells wird der Akaike’s Information Criterion (AIC)- und der Bayesian Information Criterion (BIC)-Wert dieser Modelle in Tabelle 4 herangezogen.

Abbildung in dieser Leseprobe nicht enthalten

Tabelle 4: Modellvergleich zur Regression (Quelle: eigene Darstellung)

Die Grundidee dieses Vergleiches ist, dass ein Kompromiss zwischen guter Datenanpassung und Modellkomplexität (in Bezug auf die Anzahl an Parametern) gefunden werden soll. Vergleichbar ist hier die Betrachtung des Bestimmtheitsmaßes R² bei der linearen Regression. Es wird das Modell mit dem kleinsten AIC-Wert ausgewählt (Fahrmeir/Kneib/Lang, 2009, S. 477). Zu der gleichen Entscheidung führt der Bayes-Faktor BIC. Hierbei wird ebenfalls das Modell mit dem kleinsten BIC-Wert gewählt (Fahrmeir/Kneib/Lang, 2009, S. 489). Im vorliegenden Fall aus Tabelle 4 weist die NB-Regression für beide Kriterien deutlich niedrigere Werte auf als die der Poisson-Regression. Deshalb kommt die NB-Regression als Methode zur Anwendung.

Das gewählte Modell (3.21) sowie die daraus resultierende und auf diese Masterarbeit angepasste Regressionsfunktion (3.23) können beibehalten werden. Die Schätzung der Regressionsfunktion basiert jedoch nun auf der NB-Verteilung (Greene, 2003, S. 744 f.).

Überprüfung der Regressionsfunktion und der Regressionskoeffizienten

Für die Berechnung der Regressionsergebnisse wurde die Statistik-Software Stata 11 verwendet. Bei der Poisson- und NB-Regression werden die gleichen Kriterien zur Modellanpassung sowie die gleichen Teststatistiken für das Testen der linearen Hypothesen wie bei den binären Regressionsmethoden eingesetzt (Fahrmeir/Kneib/Lang, 2009, S. 213). Bei der Berechnung wurden robuste Schätzer verwendet. Diese robusten Schätzer verhindern, dass aufgrund der nicht vorhandenen Normalverteilung, sensibel auf extreme Werte des verwendeten Datensatzes reagiert wird (Schlittgen, 2009, S. 102).

Zuerst soll die Überprüfung des Gesamtmodells anhand der gewonnen Werte aus Tabelle 5 erfolgen.

Abbildung in dieser Leseprobe nicht enthalten

Tabelle 5: Modellzusammenfassung (Quelle: eigene Darstellung)

Der Wald-Test überprüft, ob die unabhängigen Variablen einen Einfluss auf die abhängige Variable haben und somit die Nullhypothese abgelehnt werden kann. Für den Wald-Wert von 246,32 bei 14 Freiheitsgraden (Df) wird unter „Prob > chi2“ der entsprechende Signifikanzwert angegeben. Der Wert 0,000 gibt an, dass die Nullhypothese abgelehnt wird und das Modellergebnis hochsignifikant ist (Schlittgen, 2009, S. 119).

Die LogLikelihood (LL)-Werte werden für den Likelihood-Ratio-Test benötigt. Dieser Test versucht, die mit der Devianz einhergehenden Probleme zu beheben. Der maximierte LL-Wert wird dabei nicht mit Null, sondern mit dem konstanten Term verglichen. Dieser ergibt sich, wenn die Regressionskoeffizienten aller unabhängigen Variablen auf Null gesetzt werden. Der Devianzwert des Null-Modells wird anschließend mit demjenigen Devianzwert des vollständigen Modells verglichen. Hierbei beträgt die Differenz 207,45 und ist mit diesem Wert als gering einzuschätzen. Folglich ist festzustellen, dass die in diesem Regressionsmodell verwendeten unabhängigen Variablen eine relativ geringe Erklärungskraft besitzen (Backhaus et al., 2011, S. 268).

Die Aussagekraft der AIC- und BIC-Werte ist nur begrenzt. Die AIC- und BIC-Werte berücksichtigen die Güte der Modellanpassung und die Modellkomplexität. Kleinere Werte sprechen für eine erhöhte Informativität. Bei den ermittelten Werten von 62.718,29 für AIC und 62.814,92 für BIC ist somit eine verringerte Informativität anzunehmen (Wollschläger, 2010, S. 183).

Nachdem der Wald-Test ergeben hat, dass ein signifikanter Zusammenhang zwischen den unabhängigen Variablen und der abhängigen Variablen besteht und somit nicht alle Regressionskoeffizienten βi Null sind, werden diese einzeln überprüft. Der durch Stata 11 generierte Output wird in Tabelle 6 dargestellt. Für die Dummy-Variablen der Quartale wurde die Variable Q1 als Referenzkategorie festgelegt. Analog wurde GEGENW. LITERATUR als Referenzkategorie für die Warengruppen festgelegt. Diese Referenzvariablen haben in ihrer jeweiligen Kategorie die höchste Anzahl an Büchern und wurden daher als Referenz gewählt (Fahrmeir/Kneib/Lang, 2009, S. 82).

Abbildung in dieser Leseprobe nicht enthalten

Tabelle 6: Regressionskoeffizienten (Quelle: eigene Darstellung)

Ähnlich wie beim Wald-Test werden die unabhängigen Variablen mit dem t-Test überprüft. Der unter „P>|z|“ angegebene Wert entspricht dem Signifikanzniveau. In der weiteren Bewertung des Modellergebnisses werden nur Regressionskoeffizienten mit einem Signifikanzwert von unter 0,05 betrachtet. Folgende unabhängigen Variablen haben somit einen signifikanten Einfluss auf die Regressionsbeziehung: SZ, VERLAG, PREIS, MÄRCHEN, ROMANH. BIOGRAPHIEN und ANTHOLOGIEN (Schlittgen, 2009, S. 108 f.). Das bei FAZ festgestellte Signifikanzniveau von 0,061 lässt vermuten, dass ein gewisser Einfluss auf den Buchabsatz bestehen könnte. Aufgrund des Grenzwertes von 0,05, wird diese Vermutung nicht weiter verfolgt.

Die Einflussnahme dieser signifikanten unabhängigen Variablen auf die abhängige Variable kann folgendermaßen interpretiert werden: die unabhängige Variable SZ hat einen signifikanten Einfluss, somit wird hier der Regressionskoeffizient betrachtet. Dieser gibt einen positiven Wert von 0,3558 an. Das bedeutet, dass eine Rezension in der SZ zu einer Erhöhung um 35,58 % des Absatzes führt im Vergleich zu einem nicht rezensierten Buch. Der Regressionskoeffizient von VERLAG hat ebenfalls einen signifikant positiven Einfluss von 0,0013. Die Absatzsteigerung die auf den jeweiligen Verlag zurückzuführen ist, liegt daher bei 0,13 %. Da der Regressionskoeffizient von PREIS einen negativen Wert von -0,0535 aufweist, bedeutet eine Erhöhung des Preises um einen Cent pro Seite, einen Rückgang des Absatzes um 5,35 %. Bei den verwendeten Dummy-Variablen zur Warengruppe kann jeweils nur eine Aussage zur Referenzvariable GEGENW. LITERATUR gemacht werden. Die Regressionskoeffizienten von MÄRCHEN (-0,9921), ROMANH. BIOGRAPHIEN (-0,6415) und ANTHOLOGIEN (-0,8213) weisen alle einen negativen Regressionskoeffizienten auf. Das bedeutet, dass ein Buch der Warengruppe Märchen einen um 99,21% geringeren Absatz aufweist, als ein Buch der Warengruppe Gegenwartsliteratur. Analog dazu haben Bücher der Warengruppen Romanhafte Biographien einen um 64,15% geringeren Absatz und Anthologien einen um 82,13% verminderten Absatz zu einem Buch aus der Warengruppe Gegenwartsliteratur. Folglich sind die Warengruppen Märchen, Romanhafte Biographien und Anthologien gegenüber der Referenzwarengruppe Gegenwartsliteratur nicht zu empfehlen.

Bei den durch die Regressionsanalyse ermittelten Ergebnissen kann vermutet werden, dass sie durch Selektionseffekte beeinflusst wurden. Solche Selektionseffekte können auftreten, wenn die Auswahl der zu rezensierenden Bücher der Verlage der Tageszeitungen nicht zufällig geschieht, sondern gegebenenfalls nach einem bestimmten Muster erfolgt. Zum Beispiel kann vorab durch die zuständigen Redakteure der Tageszeitungen festgelegt werden, dass nur Bücher aus bestimmten Genres oder bestimmter Verlage rezensiert werden. Durch solche auftretenden Effekte könnte man vermuten, dass die Regressionsergebnisse verzerrt sein können. Um solche Selektionseffekte zu erkennen und zu neutralisieren, wird in Kapitel 3.3 ein Propensity Score Matching durchgeführt (Gensler/Skiera/Böhm, 2005, S. 38).

3.3 Propensity Score Matching

In diesem Kapitel wird zunächst das Vorgehen und das Ziel des Propensity Score Matching (PSM) erläutert. Anschließend werden die verwendeten Algorithmen erklärt und die Ergebnisse präsentiert und in Kapitel 4 diskutiert.

Um Selektionseffekte auf eine Ergebnisvariable (hier: ABSATZ52W) einer Rezension auf den Buchabsatz zu untersuchen, wird die PSM Methode verwendet. Ein Propensity Score bezeichnet die bedingte Wahrscheinlichkeit für die Teilnahme an einem Programm oder Experiment (Schlittgen, 2009, S. 212). Ausgangspunkt dieser Methode ist eine logistische Regression, bei der die abhängige, binärkodierte Variable angibt, ob an einem Programm teilgenommen wird oder nicht (0 = „Nicht-Teilnahme“ und 1 = „Teilnahme“). Diese Matching-Methode stellt eine Beziehung zwischen einer Ergebnisvariablen, einer Variablen, die eine Teilnahme an einem Programm identifiziert und einem Bündel an zusätzlichen Einflussfaktoren, sogenannte Störvariablen her. Verglichen mit anderen Studien versuchen diese Matching-Methoden ein Experiment nachzuahmen, welches die Auswirkungen eines Programms, das eine Gruppe von Teilnehmern mit einer Vergleichsgruppe von Nicht-Teilnehmern bewertet (Essama-Nssah, 2006, S. 5f.).

Im Rahmen dieser Masterarbeit lautet die grundlegende Fragestellung für das PSM: Können Selektionseffekte festgestellt werden, die die Auswirkungen von Buchrezensionen auf den Buchabsatz verfälscht darstellen? Zum weiteren Verständnis wird von einem Teilnehmer gesprochen, wenn für ein Buch eine Rezension vorliegt und von einem Nicht-Teilnehmer, wenn für ein Buch keine Rezension vorliegt.

Hierbei gilt es einen kausalen Zusammenhang abzuleiten, um daraus Implikationen für Management und Forschung festzustellen. Die Entscheidung einer Tageszeitung über die Herausgabe einer Buchrezension kann nicht als zufällig angenommen werden, sondern anhand bestimmter Kriterien, wie Verlag, Autor oder Inhalt, getroffen. Dadurch kann es zu Verzerrungen hinsichtlich einer eindeutigen Aussage über die Auswirkungen von Buchrezensionen auf den Buchabsatz kommen, welche zu Selektionseffekten führen. Unter diesen Umständen führt ein Vergleich der beiden Gruppen (rezensiertes Buch ó nicht-rezensiertes Buch) zu verfälschten Ergebnissen. Ein beobachteter Unterschied der beiden Gruppen kann einerseits bedingt durch Selektionseffekte auftreten, andererseits durch verschiedene andere Störvariablen verursacht werden, die einen solchen Effekt abbilden (Gensler/Skiera/Böhm, 2005, S. 38).

Das Ziel vom PSM ist, die von Störvariablen ausgehende Einflussnahme und die daraus entstehenden systematischen Unterschiede zwischen den beiden betrachteten Gruppen zu eliminieren. Um das Design einer experimentellen Untersuchung nachzubilden, werden aus der Gruppe der rezensierten Bücher und der Gruppe der nicht-rezensierten Bücher Zwillingspaare gebildet. Diese Matchingpaare gleichen sich hinsichtlich der Störvariablen und unterscheiden sich nur darin, ob eine Rezension für dieses Buch vorliegt oder nicht. Bei der Bestimmung der Ähnlichkeit dieser Matchingpaare wird der Propensity Score herangezogen. Je ähnlicher die Matchingpaare sind, desto kleiner ist die Differenz derer Propensity Scores. Im Gegensatz zum direkten Matching werden beim Propensity Score nicht nur einzelne Störvariablen betrachtet. Der Propensity Score bildet aus den relevanten Störvariablen und deren Eintrittswahrscheinlichkeiten eine Funktion und reduziert so die mehreren Dimensionen, die beim direkten Matching ein Problem darstellen, auf eine Dimension. Nachdem für jedes rezensierte Buch, je nach verwendetem Matching-Algorithmus, ein oder mehrere nicht-rezensierte Bücher zugeordnet wurden, kann hierauf basierend das Counterfactual Outcome berechnet werden, wodurch der Selektionseffekt auf die Ergebnisvariable evaluiert wird. Somit wird erreicht, dass die von Störvariablen ausgehende Einflussnahme und die daraus entstehenden systematischen Unterschiede eliminiert werden. Anschließend wird ein Mittelwertvergleich durchgeführt, um eine unverzerrte Schätzung des Effekts einer Rezension auf den Buchabsatz vorzunehmen (Gensler/Skiera/Böhm, 2005, S. 42 ff.).

Die Spezifikation von Matching-Algorithmen basiert auf zwei Überlegungen. Jede Methode erfordert die Definition eines Entfernungsmaßes, um festzustellen, ob Nicht-Teilnehmer, gemessen an ihrem Propensity Score, ausreichend nah zu einem gegebenen Teilnehmer stehen. Zusätzlich muss eine Gewichtung für jeden in der Umgebung (Nachbarschaft) liegenden Nicht-Teilnehmer erfolgen, die in die Berechnung des Matched Outcome eingeht (Essama-Nssah, 2006, S. 10).

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2: Propensity Score Matching-Algorithmen (Quelle: in Anlehnung an Gensler/Skiera/Böhm, 2005, S. 47)

Die Abbildung 2 zeigt die verwendeten Algorithmen zur Bestimmung der Matching-Partner. Diese Algorithmen unterscheiden sich durch verschiedene Kriterien bzw. Vorgehensweisen. Zuerst wird darin unterschieden, ob für die Bestimmung der Matching-Partner eines Teilnehmers ein oder mehrere Nicht-Teilnehmer identifiziert werden. Des Weiteren wird festgelegt, ob eine maximale Distanz zwischen den Matching-Partnern berücksichtigt wird und ob das Matching mit oder ohne Zurücklegen der Nicht-Teilnehmer erfolgt. Das letztere bedeutet, dass für mehre Teilnehmer gegebenenfalls mehrfach ein bestimmter Nicht-Teilnehmer gewählt wird (Gensler/Skiera/Böhm, 2005, S. 46).

Die genannte maximale Distanz bezieht sich auf den gemeinsamen Stützbereich (Region of Common Support). Damit geeignete Matching-Partner gefunden werden können, ist es erforderlich, dass sich die Wertebereiche der jeweiligen Verteilungen der Teilnehmer und Nicht-Teilnehmer überschneiden (Gensler/Skiera/Böhm, 2005, S. 45; Heckman/Ichimura/Todd, 1998, S. 263). Das Festlegen der genannten maximalen Distanz erfolgt individuell und wird entsprechend von einzelnen Algorithmen berücksichtigt. Wird nur ein Matching-Partner gesucht, werden die Algorithmen Nearest Neighbor und Caliper verwendet. Hierbei gewichtet der Nearest Neighbor-Algorithmus innerhalb des gemeinsamen Stützbereiches den nächstliegenden Nicht-Teilnehmer mit Eins und alle anderen mit Null. Wenn mehr als ein Nachbar in Frage kommt, werden diese gleichgewichtet. (Essama-Nssah, 2006, S. 10). Der Caliper-Algorithmus ergänzt den Nearest Neigbor-Algorithmus um die erwähnte maximale Distanz. Nur in dieser sogenannten Bandbreite wird der Propensity Score von Nicht-Teilnehmern für den betrachteten Teilnehmer berücksichtigt (Essama-Nssah, 2006, S. 13). Wenn für einen Teilnehmer mehrere Nicht-Teilnehmer in Betracht gezogen werden sollen, werden die Algorithmen Kernel und Radius gewählt. Die Kernel-Methode benutzt, genau wie der Nearest Neighbor-Algorithmus, keine maximale Distanz, sondern alle Nicht-Teilnehmer innerhalb des gemeinsamen Stützbereiches. Hierbei werden die Nicht-Teilnehmer nach ihrer Nähe zum Teilnehmer gewichtet. Je weiter entfernt ein Nicht-Teilnehmer ist, desto geringer ist seine Gewichtung (Essama-Nssah, 2006, S. 10). Beim Radius-Algorithmus wird, wie bei Caliper, eine maximale Distanz der Matching-Partner berücksichtigt. Innerhalb dieser Distanz werden alle potenziellen Nicht-Teilnehmer gleichgewichtet. Welcher Algorithmus sich am besten eignet, hängt von der Fragestellung ab. In der vorliegenden Masterarbeit werden zuerst alle Algorithmen berechnet und anschließend die Algorithmen mit den besten Ergebnissen weiterverwendet (Gensler/Skiera/Böhm, 2005, S. 49).

Die nachfolgend vorgestellten Ergebnisse wurden ebenfalls mit der Statistik-Software Stata 11 ermittelt. Zusätzlich wurde Stata-Modul psmatch2 verwendet. Bei den Algorithmen, die eine Bandbreite enthalten, wurde die Bandbreite von 0,06 sowie eine kleinere Bandbreite von 0,01 verwendet (Silverman, 1986, S. 9 ff.).

Auf den nachfolgenden Seiten zeigt Tabelle 7 einen Ausschnitt der Ergebnisse. Bei der Bewertung der Güte der Ergebnisse hat sich herausgestellt, dass die Algorithmen beim Matching mit mehreren Matching-Partnern, also der Kernel- und Radius Caliper-Algorithmus, die besten Ergebnisse erzielen konnten. In Anhang 3 sind alle ermittelten Ergebnisse aufgeführt.

Abbildung in dieser Leseprobe nicht enthalten

Tabelle 7: Fortsetzung

Wie bereits erwähnt wurde, ist der Ausgangspunkt der Betrachtung des PSM eine logistische Regression. Die Ergebnisse dieser Regression haben eine untergeordnete Rolle für die spätere Interpretation und werden daher nicht in die weitere Ergebnisbetrachtung mit einbezogen. In Tabelle 7 sind die gewonnen Ergebnisse des PSM aufgeführt. Die Tabelle ist in drei Abschnitte aufgeteilt. In jedem dieser Abschnitte wurde eine andere abhängige Variable verwendet.

Diese abhängige Variable gibt an, ob der jeweilige Untersuchungsgegenstand Teilnehmer (treated) oder Nicht-Teilnehmer (untreated) und somit in der Kontrollgruppe ist, bzw. hier im speziellen, ob eine Rezension für ein Buch vorliegt oder nicht. Im ersten Abschnitt wurde REZENSION als abhängige Variable gewählt. Hierbei spielt die Herkunft einer Rezension (FAZ und/oder SZ) keine Rolle. Im zweiten und dritten Abschnitt wurde als abhängige Variable FAZ und SZ gewählt. Das Ergebniskriterium (Outcome) stellt die Variable ABSATZ52W dar.

Bevor die gewonnen Ergebnisse bezüglich eines Selektionseffektes untersucht werden, wird zunächst die Güte des Matching begutachtet. Die Ergebnisse mit der höchsten Güte werden zuerst anhand des Mean Standardized Bias der Distribution (unter 5) sowie des Pseudo R² (nahe 0) nach dem Matching des Samples identifiziert. Hierbei wiesen über alle drei betrachteten abhängigen Variablen die Algorithmen Kernel (epan) mit einer Bandbreite von 0,01 (Mean: 1,24 – 1,76; Pseudo R²: 0,001 – 0,002), Kernel (epan) mit einer Bandbreite von 0,06 (Mean: 1,04 – 1,55; Pseudo R²: 0,001 – 0,003), Radius Caliper mit einer Bandbreite von 0,01 (Mean: 1,32 – 1,78; Pseudo R²: 0,001 – 0,002) und Kernel (normal) mit einer Bandbreite von 0,01 (Mean: 1,23 – 1,55; Pseudo R²: 0,001 -0,002) die besten Werte auf und werden somit für eine genauere Betrachtung herangezogen (Caliendo/Kopeinig, 2005, S. 15 f.).

Nachfolgend werden die Werte der Störvariablen betrachtet. Hierbei sollte der Sample Percent Reduction Bias einen möglichst hohen Wert (zwischen 0 und 100) aufweisen. Die betrachteten Algorithmen weisen über alle drei betrachteten abhängigen Variablen gute Werte auf: Kernel (epan) mit einer Bandbreite von 0,01 (REZENSION: 64,2 – 99,9; FAZ: 80,9 – 99,6; SZ: 56,4 – 99,6), Kernel (epan) mit einer Bandbreite von 0,06 (REZENSION: 81,8 – 99,8; FAZ: 82,6 – 99,9; SZ: 74,7 – 99,9), Radius Caliper mit einer Bandbreite von 0,01 (REZENSION: 75,7 – 99,4; FAZ: 79,1 – 99,6; SZ: 49,4 – 99,9) und Kernel (normal) mit einer Bandbreite von 0,01 (REZENSION: 88,6 – 99,4; FAZ: 84,0 – 100,0; SZ: 73,5 – 99,6) (Gensler/Skiera/Böhm, 2005, S. 51).

Nachdem die Güte des Matching bewertet wurde, kann überprüft werden, ob ein Selektionseffekt vorliegt. Hierbei sollte beim Mittelwertvergleich darauf geachtet werden, ob sich eine Veränderung des t-Wertes nach dem Matching ergibt. Wenn sich nach dem Matching eine Änderung der Signifikanz feststellen lässt, kann auf einen Selektionseffekt geschlossen werden.

Bei den betrachteten Algorithmen sind keine Veränderungen festzustellen (Clement et al. 2007, S. 213). Alle Algorithmen weisen vor und nach dem Matching signifikante t-Werte auf (vorher/nachher): Kernel (epan) mit einer Bandbreite von 0,01 (REZENSION: 2,99/2,58; FAZ: 3,41/2,54; SZ: 4,04/3,04), Kernel (epan) mit einer Bandbreite von 0,06 (REZENSION: 2,99/2,68; FAZ: 3,41/2,61; SZ: 4,04/3,02), Radius Caliper mit einer Bandbreite von 0,01 (REZENSION: 2,99/2,60; FAZ: 3,41/2,55; SZ: 4,04/3,04) und Kernel (normal) mit einer Bandbreite von 0,01 (REZENSION: 2,99/2,66; FAZ: 3,41/2,56; SZ: 4,04/3,05).

Hierbei ist anzumerken, dass auch alle übrigen verwendeten Algorithmen zulässige Werte aufweisen und somit vollumfänglich darauf geschlossen werden kann, dass kein Selektionseffekt vorliegt.

Die in Kapitel 3.2 gewonnen Regressionsergebnisse werden nun für die Betrachtung nach dem durchgeführten PSM wieder herangezogen. Nach dem PSM wurde mit dem durch das Matching veränderte Datensatz erneut eine NB-Regression durchgeführt. Die nun ermittelten Ergebnisse haben somit keinen Einfluss durch einen Selektionseffekt. Als zusätzliche unabhängige Variable wurde WEIGHT eingeführt. Diese Variable gibt die Gewichtung eines Buches an, welche durch das PSM ermittelt wurde. Eine erneute vollständige Betrachtung der Regressionsergebnisse wird aufgrund des Umfangs nicht vorgenommen. Der Fokus bei dieser Ergebnisbetrachtung liegt ausschließlich auf der Betrachtung der unabhängigen Variablen REZENSION, FAZ sowie SZ.

Es kann festgestellt werden, dass sich, nach dem durchgeführten PSM mit der abhängigen Variablen REZENSION, bei den Regressionsergebnissen nach der Anwendung der PSM-Algorithmen Kernel (epan) mit der Brandbreite 0,06 und Kernel (normal) mit der Bandbreite 0,01 Änderungen der Signifikanz der unabhängigen Variablen FAZ ergeben haben. Die Änderung des Signifikanzniveaus fällt gering aus, somit ist hier auch nur ein schwacher Selektionseffekt festzustellen. Bei der Signifikanz der unabhängigen Variablen SZ konnte keine Änderung und daher kein Selektionseffekt festgestellt werden.

Bei der Betrachtung der Daten nach dem PSM mit der abhängigen Variablen FAZ zeigten sich keine Änderungen der Regressionsergebnisse bei beiden betrachteten unabhängigen Variablen.

Beim PSM mit der abhängigen Variablen SZ können ähnlich wie beim PSM mit REZENSION bei der anschließenden Regression geringe Änderungen der Signifikanz bei der unabhängigen Variablen FAZ ausgemacht werden. Bei den PSM-Algorithmen Kernel (epan), dem Radius Caliper und dem Kernel (normal) jeweils mit der Bandbreite 0,01 konnten geringe Änderungen beim Signifikanzniveau festgestellt werden. Somit kann ebenfalls nur von einem schwachen Selektionseffekt gesprochen werden. Bei der Betrachtung der abhängigen Variablen SZ sind bei den verwendeten PSM-Algorithmen Kernel (epan) mit den Bandbreiten 0,01 und 0,06 und Radius Caliper mit der Bandbreite 0,01 eindeutige Änderungen der Signifikanz festzustellen. Folglich ist ein Selektionseffekt auszumachen.

[...]

Details

Seiten
64
Erscheinungsform
Erstausgabe
Jahr
2013
ISBN (eBook)
9783956849046
Dateigröße
1.4 MB
Sprache
Deutsch
Katalognummer
v297820
Institution / Hochschule
Universität Hamburg
Note
1,3
Schlagworte
Propensity Score Matching Regressionsanalyse Buchmarkt Buchmarketing Vertrieb

Autor

Zurück

Titel: Der Einfluss von Buchrezensionen auf den Buchabsatz: Eine empirische Analyse