Preisbildung an deutschen Aktienmärkten: Eine empirische Analyse
Zusammenfassung
Um zu ermitteln, an welcher Stelle Informationen in den Markt gebracht werden, ist es von großem Interesse, wie sich die Aktienmärkte untereinander beeinflussen und welcher Markt den Preisbildungsmechanismus dominiert. Hierfür ist zu untersuchen, ob die Preisentwicklung an einem bestimmten Markt Reaktionen auf den restlichen Märkten verursacht. Außerdem ist zu klären, ob die geographische Herkunft des börsennotierten Unternehmens Einfluss darauf hat, welcher Markt den Prozess der Informationsverarbeitung einleitet. Der deutsche Aktienmarkt wurde in Bezug auf diese Fragestellung noch nicht untersucht. Korrespondierende Forschungsergebnisse internationaler Studien liefern jedoch erste Anhaltspunkte und lassen sich auf zwei Standpunkte verdichten. Demnach ist entweder die marktführende Leitbörse richtungsweisend oder die preisrelevanten Informationen gehen von der dem notierten Unternehmen geographisch nächstgelegenen Börse aus. Dies soll für den deutschen Aktienmarkt an Einzelfällen überprüft werden.
Hierzu werden die parallelen Aktienpreis-Verläufe der Unternehmen Commerzbank, Bayer, Siemens und Porsche an den beiden größten deutschen Wertpapierbörsen in Frankfurt und Stuttgart analysiert. Unter Anwendung eines vektorautoregressiven Modells wird ermittelt, ob ein signifikanter dynamischer Zusammenhang zwischen der gemeinsamen Vergangenheit der parallelen Aktienpreise besteht und ob einer der beiden Märkte im Preisbildungsprozess dominierend ist. Zur Verbesserung der […]
Leseprobe
Inhaltsverzeichnis
2.2 Stand der Forschung
Der parallele Verlauf von Wertpapierpreisen und die Interaktion zwischen Aktienmärkten wurden in der Vergangenheit bereits untersucht. Dabei existieren zwei Hauptansätze, die mehrfach zitiert und modifiziert wurden: Granger und Gonzalo (1995) sowie Hasbrouck (1995) gehen von einer gemeinsamen, nicht direkt beobachtbaren Komponente in parallelen Wertpapierpreisen aus. Die Existenz dieser gemeinsamen Komponente (engl. common factor) begründen sie auf der Theorie, dass Wertpapierpreise[1] durch Arbitrage verbunden seien und sich nie unendlich weit auseinander entwickeln, woraus eine Kointegrationsbeziehung resultiere. Sie versuchen, den common factor zu quantifizieren und anhand seiner Veränderung den Beitrag des jeweiligen Marktes zum Prozess der Informationsverarbeitung in Preisen (engl. price discovery) zu messen. Beide nutzen das Vector Error Correction Model (VECM) als Ausgangspunkt. Bailliea, Booth und Tseb (2002) vergleichen beide Ansätze und zeigen, dass sie verbunden sind und zu ähnlichen Ergebnissen führen. Sie unterscheiden sich in der Behandlung der Varianz der Fehlerkorrekturterme und der Dimension, in welcher der Beitrag zum Price-Discovery-Prozess gemessen wird. Während Hasbrouck den Beitrag zur Veränderung eines Preises ermittelt, eruieren Granger und Gonzalo den Prozess der Preisanpassung.
Granger und Gonzalo (1995) typisieren den common factor als gemeinsamen stochastischen Trend und zerlegen ihn zunächst in eine permanente und eine transitorische Komponente, weshalb ihre Methode auch als permanent-transitory-method (PT) bezeichnet wird. Als Ursache für Preisunterschiede postulieren sie die Fehlerkorrekturterme des VECM. Sie messen auf jedem Markt den relativen Einfluss der auf die Veränderung der permanenten Komponente. Die Einflussquote, als Funktion der auf dem jeweiligen Markt, sei ein Indikator für die Stärke des Price-Discovery-Prozesses. Als Leitmarkt identifizieren sie jenen, der sich am wenigsten an die Preisentwicklung der anderen anpasst.
Hasbrouck (1995) bezeichnet den Beitrag eines Marktes zum Price-Discovery-Prozess als Information Share (IS)[2]. Er ergründet den Beitrag eines Marktes zur Varianz der Veränderungen des gemeinsamen Faktors, welchen er als impliziten effizienten Preis bezeichnet[3]. Dieser sei die Random-Walk-Komponente der jeweiligen Zeitreihe. Er stützt seine Annahme eines gemeinsamen effizienten Preises auf die Ausführungen von Garbade und Silber (1983) und deren 1979 durchgeführte Untersuchung an der New York Stock Exchange (NYSE). Sie kamen zu dem Ergebnis, dass die NYSE den Price-Discovery-Prozess dominiert, während die Regionalbörsen ihr überwiegend folgen und prägten die Begriffe „dominante“ und „Satelliten“-Märkte.[4] Vor diesem Hintergrund versucht Hasbrouck zu messen, wie stark die Preisvariation innerhalb eines Marktes durch die historischen Preisveränderungen in allen betrachteten Märkten erklärt wird. Ausgehend davon, dass Preisschwankungen die Verarbeitung von Informationen reflektieren, konkludiert er, dass jener Markt die meisten Informationen einbringe, dessen auch den größten Beitrag zur Volatilität des effizienten Preises leiste. Als Indikator dienen die Beiträge der jeweiligen Märkte zu dessen Varianz, für die er Grenzwerte (Schranken) definiert, innerhalb derer ein Beitrag als hoch oder niedrig gilt. Dabei verfüge derjenige Markt über den größten IS, der die größte Entfernung vom effizienten Preis verursacht. Des Weiteren könne abgelesen werden, welcher Markt sich zuerst bewege („who moves first“[5] ). Sein Modell wendet er auf den amerikanischen Kapitalmarkt an. Er untersucht die hochfrequenten Aktienkurse der 30 im Dow-Jones-Index gelisteten US-Unternehmen an der NYSE und allen regionalen Aktienmärkten der USA (aggregiert als „non-NYSE“[6] ). Hasbrouck stellt fest, dass der Price-Discovery-Prozess größtenteils von der NYSE ausgeht (Median: IS 92,7 %). Für mittelgroße Unternehmen ermittelte er außerdem eine starke Korrelation zwischen Marktanteil am Handelsvolumen und Information Share. Sein Untersuchungsresultat bestätigt somit die These von Garbade und Silber (1979), dass eine große Leitbörse (hier die NYSE) existiere, welche die Informationsverarbeitung dominiere, während die Regionalbörsen (hier non-NYSE) ihre Preisbildung an das Verhalten der Leitbörse anpassen.
Die Untersuchung von Eun und Sabherwal (2003) hat die Preisbildung von 62 Aktien kanadischer Unternehmen an der NYSE und der Toronto Stock Exchange (TSX[7] ) zum Gegenstand. Hier wird der Aspekt beleuchtet, welcher Zusammenhang zwischen der geographische Lage des Unternehmens und der Börse beim Price-Discovery-Prozess besteht. Die Analyse ergibt, dass sich die Preise der NYSE meistens an jene der TSX anpassen. Die TSX als Heimatmarkt der kanadischen Aktien dominiert demgemäß den Preisbildungsprozess gegenüber einer ausländischen Börse, obwohl es sich dabei mit der NYSE um die größte Börse der Welt handelt. Ferner ist zu beobachten, dass mit zunehmendem US-Marktanteil an Aktien mittelgroßer Unternehmen auch der amerikanische Einfluss auf die Preisbildung steigt. Eun und Sabherwal leiten daraus ab, dass der Handel mit Wertpapieren mittelgroßer Unternehmen insgesamt eine stärkere Informationsverarbeitung aufweise als der Handel mit Wertpapieren sehr großer oder kleiner Unternehmen.[8] Die These, dass der Heimatmarkt einer Aktie bei grenzüberschreitendem Handel die Preisbildung dominiert, bestätigen Kehrle und Peter (2009). Sie untersuchen ebenfalls kanadische Aktien an der NYSE sowie der TSX und stellen einen noch signifikanteren Einfluss des Heimatmarktes (TSX) fest als Eun und Sabherwal.
Grammig, Melvin und Schlag (2005) bedienen sich der Methodik von Hasbrouck, um die Aktienpreise der deutschen DAX-Unternehmen Daimler-Chrysler, Deutsche Telekom und SAP in New York (NYSE) und Frankfurt (Xetra) während paralleler Handelszeiträume zu vergleichen. Neben der Rolle der USD/EUR-Wechselkursänderungen soll der Einfluss des Handelsplatzes auf den Price-Discovery-Prozess untersucht werden. Als Lag-Länge werden zehn Sekunden gewählt. Die Analyse ergibt einen IS zwischen 79,8 und 99,1 % für Xetra. Insbesondere bei der Preisbildung der Deutsche-Telekom-Aktie beträgt der IS der NYSE nahezu null; für das global aufgestellte Unternehmen SAP verzeichnet New York zumindest einen geringen IS. Der Price-Discovery-Prozess des Unternehmens, welches am stärksten im Heimatmarkt operiere, finde folglich auch dort statt, was mit den Feststellungen von Eun und Sabherwal (2003) und Kehrle und Peter (2009) korrespondiert.
Anlehnend an Grammig et al. untersuchen auch Binh, Chong und Eom (2010) den grenzüberschreitenden Preisbildungsprozess. Sie beobachten die Aktienkurse der Pohang Iron and Steel Company (POSCO), einer der größten globalen Stahlerzeuger mit Sitz in Südkorea. Zum Vergleich werden die Kursverläufe an der Korea Exchange (KRX) und der Tokyo Stock Exchange (TSE), der größten Börse Japans, herangezogen. Auch hier wird das VECM instrumentalisiert. Binh et al. messen den relativen Beitrag des Preises an einem Markt zur Entwicklung des korrespondierenden Preises am Parallelmarkt. Sie kommen zu dem Ergebnis, dass die Preisfindung hauptsächlich in der Heimatbörse der POSCO, der Korea Stock Exchange, stattfinde.
Parallel gehandelte Aktien innerhalb der Volksrepublik China untersuchen Ma, Swan und Song (2010). Sie erforschen den Price-Discovery-Prozess an Börsen des chinesischen Festlandes und der Sonderverwaltungszone Hong Kong. Obwohl hier ein intranationaler Vergleich stattfindet, besteht eine politische und geographische Distanz zwischen dem chinesischen Festland mit der Währung Renminbi und der Insel Hong Kong mit der eigenen Währung Hong Kong Dollar. Der Kursverlauf von insgesamt 30 A- und H-Aktien[9] wird sieben Jahre lang (2001 bis 2007) dokumentiert und mit der Methodik von Hasbrouck (1995) sowie Granger und Gonzalo (1995) analysiert. Beide Verfahren führen zu dem Ergebnis, dass die Börsen des Festlandes einen größeren Beitrag zur Preisentwicklung leisten. Ma et al. leiten daraus ab, dass der Price-Discovery-Prozess vornehmlich im Heimatmarkt der notierten Unternehmen stattfinde, während sich der weniger verbundene Markt (hier Hong Kong) anpasse. Sie erklären dies mit dem Informationsvorsprung der Börse, die geographisch und politisch stärker mit den Unternehmen assoziiert sei. Daneben berufen sie sich auf Hong, Kubik und Stein (2005), welche Mundpropaganda im nahen Umfeld einer Aktiengesellschaft als wichtigen Treiber von Informationsasymmetrien zwischen Handelsplätzen aufzeigen.
Schließlich existieren Studien, die zu keinem eindeutigen Ergebnis hinsichtlich der Dominanz im Prozess der Informationsverarbeitung kommen. Hupperets und Menkveld (2002) bestimmen den Information Share für den Handel mit niederländischen Aktien in Amsterdam und New York mit dem Resultat, dass je nach Aktie die Informationsherkunft und Preisbildungsdominanz zwischen beiden Handelsplätzen wechsele.
Die oben aufgeführten Untersuchungen verbindet das VECM als Basis ihrer Methodik, die meist an Hasbrouck (1995) oder Granger und Gonzalo (1995) angelehnt ist. Sie untersuchen, welcher Markt Informationen in den Markt bringt beziehungsweise diese zuerst in seinen Preisen verarbeitet und wie stark andere Märkte dadurch beeinflusst werden. Es werden sowohl die Stärke des Einflusses als auch zeitliche Aspekte untersucht. Neben Untersuchungen, die zu keinem eindeutigen Ergebnis führen, können die Ergebnisse der meisten empirischen Analysen auf zwei Kernthesen verdichtet werden. Die erste These besagt, dass große, marktführende Leitbörsen den Price-Discovery-Prozess dominieren, insbesondere für global aktive Aktiengesellschaften. Die Ergebnisse der zweiten Kategorie sprechen für eine Überlegenheit der geographisch nähergelegenen Börse, speziell bei regional verankerten Unternehmen und begründen dies mit dem Informationsvorsprung durch Beziehungen im Umfeld des Unternehmens und Mundpropaganda. Bisher wurden jedoch nur geographisch stark distanzierte Aktienmärkte betrachtet. Entweder handelte es sich um grenzüberschreitende Vergleiche oder um eine große politische und geographische Distanz, wie bei Ma, Swan und Song (2010). Außerdem konzentrieren sich die meisten Untersuchungen auf einen Vergleich innerhalb Asiens oder auf die NYSE als Maßstab. Interaktionen nationaler Börsen in Deutschland wurden noch nicht untersucht. Anhand der Ergebnisse der oben genannten Studien und deren Erklärungen können aber erste Vermutungen für den deutschen Aktienmarkt angestellt werden.
2.3 Hypothesen
Übertragen auf den deutschen Aktienmarkt verkörpert die Deutsche Börse in Frankfurt die Rolle, welche die NYSE als große Leitbörse in den beschriebenen Untersuchungen einnimmt. Korrespondierend zu den beiden in der Literatur bestehenden Kernthesen werden für die Informationsverarbeitung an deutschen Aktienmärkten für den parallelen Handel folgende Hypothesen aufgestellt:
(1) Die Deutsche Börse in Frankfurt dominiert den Price-Discovery-Prozess für Aktien großer, global aktiver Unternehmen. Weil in der Finanzmetropole Frankfurt der effizienteste Informationsaustausch stattfindet und die Börse infrastrukturelle Vorteile gegenüber den Regionalbörsen hat, findet dort die schnellste und stärkste Einpreisung von Informationen statt, an welche sich die Wettbewerber anpassen.
(2) Für Aktien regional verwurzelter Unternehmen dominiert deren geographisch nächstgelegene Börse den Price-Discovery-Prozess, weil sie Informationsvorteile gegenüber der Konkurrenz hat und Anleger sie beim Handel der Aktie priorisieren.
3 Methoden
3.1 Untersuchungsdesign
Zur Überprüfung der Hypothesen wird eine Einzelfallstudie am deutschen Aktienmarkt durchgeführt. Die parallelen Kursverläufe vier liquider deutscher Aktien ─ Commerzbank, Bayer, Siemens, und Porsche ─ werden eine Woche lang (13.08.─17.08.2012) im Parketthandel der Aktienmärkte in Frankfurt und Stuttgart beobachtet. Hierzu werden die auf der Homepage der Börse Stuttgart[10] veröffentlichten Tick-Daten für beide Handelsplätze abgerufen. Aufgrund der schnellen Verfügbarkeit von Informationen und der hohen Reaktionsgeschwindigkeit auf Aktienmärkten erlauben hochfrequente Intra-Tages-Daten besser Rückschlüsse über die Marktdynamik als aggregierte Werte, bei denen Informationen verloren gingen. In Übersicht 2 sind die Eckdaten bezüglich Handelsvolumen und -frequenz im Erfassungszeitraum angeführt. Die Daten werden zunächst transformiert, bevor in einem vektorautoregressiven Modell untersucht wird, welcher Zusammenhang zwischen den Preisen an beiden Börsen besteht und welche Börse im Preisbildungsprozess zeitlich der anderen vorausgeht. Auf diese Weise sollen Rückschlüsse über die Informationsverarbeitung gezogen werden.
Abbildung in dieser Leseprobe nicht enthalten
Übersicht 2: Handelsvolumen und -frequenz im Beobachtungszeitraum 13.08.─17.08.2012
Unter der Prämisse, dass hochfrequenter Handel und ein hohes Handelsvolumen die regelmäßige Verarbeitung von Informationen implizieren, wurden die beiden führenden deutschen Aktienmärkte in Frankfurt und Stuttgart für die Untersuchung herangezogen. Die Börse Frankfurt ist Marktführer bei deutschen Aktien und bahnt täglich den Handel mit circa 800.000 verschiedenen Wertpapieren an. Sie verfügt deutschlandweit über die höchste Liquidität und weist das größte Umsatzvolumen auf.[11] Das Handelsvolumen im Parketthandel Xetra Frankfurt Specialist lag beispielsweise am 14. August 2012 bei rund 177 Mio. und im Computerhandel Xetra bei circa 2,7 Mrd. Euro.[12] Frankfurt gilt als wichtigster Handelsplatz für Börsengänge und die FWB wird aufgrund ihrer Lage im Wirtschaftszentrum Deutschlands häufig als Leitbörse deklariert und mit der NYSE verglichen.
Die Stuttgarter Wertpapierbörse weist ein tägliches Handelsvolumen von durchschnittlich 379 Mio. Euro auf und stellt etwa 932.000 unterschiedliche Wertpapiere zur Verfügung.[13] Dank ihrer Nischenpolitikstrategie, die sich auf den Handel mit Optionsscheinen und Zertifikaten konzentriert, behauptet sich die Börse Stuttgart mit dem Derivatesegment Euwax als Marktführer in diesem Bereich. Überdies zeichnet sie sich als führende Privatanlegerbörse aus, da sie den Handel mit kleineren Volumina als die Börse Frankfurt anbietet. Obgleich die Börse den zweiten Platz am deutschen Aktienmarkt einnimmt, gilt sie doch im Vergleich zur FWB als Regionalbörse.
Aus der Vielzahl der gehandelten Wertpapiere werden vier hochfrequent gehandelte Aktien deutscher Unternehmen untersucht. Dabei handelt es sich einesteils um zwei große, im Deutschen Aktienindex (DAX) gelistete Industrieunternehmen: Den Technologiekonzern Siemens AG[14] mit Sitz in Berlin und München und den Chemie- und Pharmakonzern Bayer AG[15] in Leverkusen. Ferner werden die Aktienpreise der Commerzbank AG[16] mit Sitz in Frankfurt betrachtet. Für den Price-Discovery-Prozess dieser drei Aktien soll entsprechend Hypothese 1 überprüft werden, ob die FWB als Leitbörse gegenüber der Regionalbörse in Stuttgart den Price-Discovery-Prozess dominiert. Für die Commerzbank-Aktie kommt außerdem hinzu, dass Frankfurt ihr Heimatmarkt ist und die Bank stark mit der Finanzmetropole assoziiert ist. Gemäß Hypothese 1 und 2 müsste sich die FWB hier eindeutig als dominant erweisen.
Abbildung in dieser Leseprobe nicht enthalten
Übersicht 3: Das klas- sische Porsche-Wappen
Als viertes fließen die Aktienpreise der Porsche Automobil Holding SE[17] in die Untersuchung ein. Das im Composite DAX (CDAX) gelistete Unternehmen weist eine geringere Handelsfrequenz und ein geringeres Handelsvolumen auf als die oben genannten DAX-Unternehmen.[18] Trotz globalem Erfolg ist Porsche sehr stark mit seiner Heimat Stuttgart verbunden und repräsentiert die Stadt weltweit als Automobilstandort. Die Gründung und Entwicklung des Unternehmens fand in Stuttgart statt. Wie Übersicht 3 zu entnehmen ist, enthält darüber hinaus das Porsche-Wappen den Schriftzug „Stuttgart“ und das Wappen der Stadt vor dem im Hintergrund ab- gebildeten Landeswappen des freien Volksstaates Württemberg (1922 bis 1933).[19] Gemäß These 2 müsste bei diesem geographisch traditionell mit seiner Heimatstadt verbundenen Unternehmen auch der dort ansässige Aktienmarkt den Price-Discovery-Prozess einleiten.
3.2 Zur Behandlung von Finanzmarkt-Zeitreihen
Bei Zeitreihen spielt die Reihenfolge, in welcher die Beobachtungen auftreten, eine wichtige Rolle. Finanzmarktzeitreihen besitzen besondere Eigenschaften. Im Vergleich zu anderen Zeitreihen weisen sie nahezu keine Publikationsverzögerungen auf, das heißt Innovationen (z. B. neue Aktienkurse) werden sofort veröffentlicht. Es kann davon ausgegangen werden, dass zum Zeitpunkt t festgestellte Preise bei der Preisbildung zum Zeitpunkt t + 1 bekannt waren, während die in t herrschende wirtschaftliche Situation oder die allgemeine Konjunkturlage (z. B. Bruttoinlandsprodukt) erst nach t + 1 veröffentlicht wurden. Bei der Bildung von Prognosemodellen ist folglich zu berücksichtigen, dass makroökonomische Daten, die eine Reaktion auf Finanzmärkten hervorrufen, häufig verzögert publiziert werden und eine Reaktion somit auch erst zeitverzögert zu beobachten ist.
Ein weiterer Unterschied zu makroökonomischen Zeitreihen ist das Fehlen einer Saisonfigur; es wurden jedoch teilweise überdurchschnittliche Aktienrenditen im Januar und unterdurchschnittliche Renditen an Montagen beobachtet.[20] Durch eine höhere Frequenz (Tick-Daten) sind außerdem kurzfristige und aktuelle Untersuchungen möglich. Bei der Verwendung längerer Zeitintervalle ginge der kurzfristig beobachtbare Effekt von Informationsasymmetrien verloren, da sich die Marktteilnehmer mittelfristig mit den fehlenden Informationen versorgen können.
Bei hochfrequenten Finanzmarktdaten ist zudem an den Rändern der Verteilung eine höhere Wahrscheinlichkeitsmasse als bei der Normalverteilung zu messen (Leptokurtosis), was eine höhere Wahrscheinlichkeit für betragsmäßig besonders hohe Renditen anzeigt[21]. Hierbei sind negative Renditen wahrscheinlicher als positive (Linksschiefe). Überdies weisen Finanzmarktzeitreihen häufig bedingte Heteroskedastizität auf. Demnach folgen die Renditen einem bestimmten Muster: Hohen Kursschwankungen schließen sich weitere Werte mit hoher Schwankung an; gleichzeitig existieren Zeiträume, in denen geringe Schwankungen aufeinanderfolgen. Die Volatilität und somit die Varianz der Zeitreihen sind folglich nicht konstant, was eine weitere wichtige Eigenschaft anzeigt: Die Nichtstationarität. Ökonometrische Schätzungen und Aussagen zur Regression fallen bei der Analyse nichtstationärer Zeitreihen in vielen Fällen fehlerhaft aus. Deshalb ist in der angewandten Ökonometrie auf schwache Stationarität zu achten, welche sich durch folgende Merkmale der Zeitreihe auszeichnet: Der Erwartungswert, die Varianz und die Autokovarianzen der beobachteten Variablen sind im Zeitablauf konstant.[22] Eine nicht konstante Varianz würde das Bestimmtheitsmaß und die Ergebnisse des t-Test und des F-Test verfälschen, was das Erkennen zeitlich kausaler Zusammenhänge erschweren beziehungsweise fälschlicherweise signifikante Zusammenhänge (Scheinregression) suggerieren würde.[23] Finanzmarktzeitreihen sind daher in stationäre Zeitreihen zu transformieren, bevor sie ökonometrisch analysiert werden. Üblicherweise sind Finanzmarktzeitreihen I(1) [24] , das heißt sie sind stationär, nachdem sie der ersten Differenzenbildung unterzogen wurden.[25] Bei Aktienkursen ist zu unterscheiden zwischen der Differenzenbildung der logarithmierten Zeitreihe für zeitstetige Veränderungen und der relativen Differenz für zeitdiskrete Veränderungen[26]. Da für Tick-Daten letzterer Fall zutrifft, wird die gewöhnliche Netto-Rendite in Prozent gebildet, wie in Gleichung 1 beschrieben.
Abbildung in dieser Leseprobe nicht enthalten
Um den oben genannten Aspekten Rechnung zu tragen, werden die erhobenen Daten entsprechend aufbereitet. Da die untertägigen Tick-Daten beider Börsen in Anzahl und Länge der Zeitintervalle nicht übereinstimmen, müssen sie zeitlich synchronisiert werden, um eine Vergleichsbasis zu schaffen. Hierzu werden die Einzelsequenzen zu einem diskreten Zeitraster aggregiert. Jeder Zeitverzug, nach welchem an einer Börse ein neuer Preis festgestellt wird, bildet einen Lag t, zu dem die Aktienpreise verglichen werden: mit .
Dabei gilt der an der jeweiligen Börse zuletzt veröffentlichte Preis solange, bis ein neuer zustande kommt[27], wie Übersicht 4 veranschaulicht. In den Spalten FRA mod. und STU mod. sind die auf die aggregierte Zeitreihe erweiterten Kursangaben an den beiden betrachteten Aktienmärkten in Euro gelistet. Neue Preisfeststellungen sind durch Fettdruck gekennzeichnet. In Anlehnung an Hasbrouck (1995) werden die Zeitreihen um ihre Anfangskurse bereinigt, da nur unmittelbar
Abbildung in dieser Leseprobe nicht enthalten
Übersicht 4: Ausschnitt aus dem synchronisierten Kursverlauf der Commerzbank-Aktie am 13.08.2012 an den Börsen Frankfurt und Stuttgart[28]
aufeinanderfolgende Kurse verglichen werden sollen.[29] Grundsätzlich werden die Daten erst ab jenem Zeitpunkt berücksichtigt, zu dem an beiden Börsen Preise vorliegen. Aus den erfassten Daten wird jeweils der Wochentag mit der höchsten Tick-Anzahl als Stichprobe verwendet, wobei zu beachten ist, dass mindestens 100 Beobachtungen vorliegen.[30] Da für die weniger frequent gehandelte Porsche-Aktie an keinem der Tage annähernd 100 Beobachtungen (Ticks) vorliegen, werden hier zwei separate Untersuchungen durchgeführt. Zum Einen fließen die Preise von zwei aufeinanderfolgenden Börsentagen[31] in das Modell ein, um der Anforderung der Tick-Anzahl gerecht zu werden. Dies geht mit dem Trade-off eines groben Bruchs in der Zeitstruktur der Beobachtungen einher. Des Weiteren wird der handelsstärkste Tag[32] isoliert betrachtet, wobei jedoch lediglich 69 Beobachtungen vorliegen.
Die normierten Zeitreihen werden anschließend durch die erste Differenzenbildung anhand der gewöhnlichen Nettorendite transformiert, um die notwendige Bedingung der schwachen Stationarität zu erfüllen. Übersicht 5 zeigt beispielhaft für die Commerzbank-Aktie den ursprünglichen Verlauf der Zeitreihe gegenüber dem Verlauf der Renditen. Die Stationarität der ursprünglichen und der differenzierten Zeitreihe wird mit dem Augmented Dickey-Fuller Test (ADF-Test) überprüft. Hierzu wird zunächst unter Anwendung des Statistikprogrammes Stata 11.2 für jede Zeitreihe die im ADF-Test zu verwendende Lag-Länge nach dem Akaike-Informationskriterium (AIC) bestimmt, wie Anhang 1 zu entnehmen ist. In Stata werden folgende Variablenbezeichnungen verwendet:
Abbildung in dieser Leseprobe nicht enthalten
Übersicht 5: Verlauf der Preise und Renditen der Commerzbank-Aktie am 17.08.2012
Der ADF-Test wird auf folgende Hypothesen angewendet: : Die Zeitreihe ist nicht stationär. : Die Zeitreihe ist stationär. Der Wert der Dicker-Fuller-Statistik (Test Statistik) wird mit der t-Statistik zum 1 %-, 5 %- und 10 %-Niveau (critical value) verglichen und die Nullhypothese ist zu verwerfen, wenn der Wert in Test Statistik kleiner ist, als der critical value. In diesem Fall liegt jeweils Stationarität auf dem entsprechenden Niveau vor.
Wie aus Anhang 2 hervorgeht, kann für die ursprünglichen Zeitreihen die Nullhypothese nicht ─ beziehungsweise nur selten ─ auf dem 10 %-Niveau verworfen werden. Somit liegt keine Stationarität vor. Die differenzierten Zeitreihen hingegen weisen durchweg Testwerte auf, die den kritischen Wert auf dem 1 %-Niveau deutlich unterschreiten, woraufhin die Nullhypothese zu verwerfen ist. Es liegt Stationarität vor, weshalb die differenzierten Zeitreihen in das Modell einfließen. Hierdurch wird die Problematik der Scheinregression im Vorfeld minimiert, was die Validität des Modells erhöht. Ein Nachteil der Differenzenbildung ist, dass ein Teil der Informationen verloren geht, weil langfristige Zusammenhänge der Zeitreihen nicht abgebildet werden. Im vorliegenden Fall sind jedoch insbesondere kurzfristige Zusammenhänge von Interesse. Als Modell zur Untersuchung dieser dynamischen Eigenschaften wird das Vektorautoregressionsmodell herangezogen.
3.3 Bivariates Vektorautoregressionsmodell
Das Vektorautoregressionsmodell (VAR) als Ursprung des VECM eignet sich für die vorliegende Untersuchung in hohem Maße, da es mehrere Vorteile gegenüber anderen Modellen aufweist. Es ist besonders geeignet zur Messung kurzfristiger dynamischer Zusammenhänge, die aufgrund der Schnelllebigkeit und Informationseffizienz von Aktienmärkten hier zugrundegelegt werden. Das Modell kommt zunächst ohne ökonomisch fundierte Prämissen aus und beschränkt sich auf den zeitlichen Ursache-Wirkungs-Zusammenhang, der bei der vorliegenden Fragestellung von Interesse ist. Mehrere Gleichungen werden simultan geschätzt, ohne vorher festlegen zu müssen, welche Variablen endogen beziehungsweise exogen sind. Es handelt sich im bivariaten Fall um ein lineares Zeitreihenmodell, welches darauf gerichtet ist, zwei endogene Größen und aus ihrer gemeinsamen Vergangenheit anhand der für die Zeitpunkte t = 1,…,T vorliegenden Beobachtungen und sowie zufälliger Störgrößen beziehungsweise zu erklären.[33] Die Spezifikationslogik des Modells ist in den Gleichungen 2 und 3 für den einfachsten Fall mit einer Lag-Länge von p = 1 dargestellt. Für den zu untersuchenden Fall der parallelen Preisentwicklung einer Aktie an zwei Börsen ergibt sich folgendes Gleichungssystem:
Abbildung in dieser Leseprobe nicht enthalten
Die endogenen Variablen stehen dabei für die zu erklärenden Kurse an den Börsen Frankfurt ( und Stuttgart ( zum Zeitpunkt t, die aus ihrer Vergangenheit und modelliert werden sollen. Die Konstanten zeigen, welchen Wert durchschnittlich annimmt, wenn alle Regressoren Null betragen. Die Fehlerterme und fangen die Abweichungen zwischen den beobachteten und den modellierten Werten in jeder Gleichung auf. Es handelt sich um reine Zufallsprozesse mit die miteinander korrelieren dürfen. Die Koeffizienten beschreiben jeweils die Abhängigkeit der endogenen Größen von ihrer eigenen Vergangenheit und der Vergangenheit der zweiten endogenen Größe, wie aus Übersicht 6 hervorgeht.
Abbildung in dieser Leseprobe nicht enthalten
Übersicht 6: Koeffizienten der Abhängigkeit der endogenen Größen von der Vergangenheit aller endogenen Größen des Modells
Der Koeffizient und die Konstanten werden im Modell via Stata iterativ geschätzt, wobei die Störterme zu minimieren sind. Zunächst ist die optimale Lag-Länge des Modells zu bestimmen. Von den endogenen Variablen werden die zeitlichen Verzögerungen in p Perioden berücksichtigt [VAR(p)-Prozess]. Die in den Gleichungen 2 und 3 müssen bei einer Betrachtung mit mehr als einem Zeitverzug noch um den Lag-Index t ─p ergänzt werden zu . Zur Bestimmung der optimalen Lag-Länge p* stehen verschiedene Verfahren zur Verfügung. Das Bestimmtheitsmaß gibt einen ersten Eindruck über den Erklärungsgehalt der Gleichungen mit verschiedenen Lag-Längen. Kritisch ist jedoch, dass der Trade-off zwischen Exaktheit und Überparametrisierung hier nicht berücksichtigt wird. Es ist zu beachten, dass eine zu starke Vereinfachung des Modells den Verlust von Informationen über dynamische Eigenschaften bedeutet, eine Anzahl zu vieler Lags hingegen die vorhandenen Freiheitsgrade einschränkt.
Das hier herangezogene Akaike-Informationskriterium (AIC) berücksichtigt diesen Trade-Off. Neben dem Ziel, die Varianz der Residuen möglichst gering zu halten, wird gleichzeitig ein Strafterm für zusätzlich zu schätzende Parameter integriert.[34] Für jede Aktie wird das VAR-Modell mit Lags geschätzt und die optimale Lag-Länge p* berechnet, welche in Anhang 3 in der Zeile mit dem kleinsten Wert des AIC abzulesen ist. Unter der Prämisse, dass auf dem schnelllebigen Aktienmarkt Informationen kurzfristig in Preisen verarbeitet werden, wurde die maximale Lag-Länge (in Stata maxlag) mit Hinblick auf die vorhandene Beobachtungszahl und die gewünschten Freiheitsgrade nicht zu hoch angesetzt. Für die einzelnen VAR-Modelle ergibt sich folgende optimale Lag-Struktur: Commerzbank: VAR(7), Bayer: VAR(1), Siemens: VAR(1), : VAR(3), : VAR(3).
Da bei der Vektorautoregression kein ökonomisches Modell zugrunde liegt, darf nicht ohne Weiteres von einem statistischen Zusammenhang auf Kausalität geschlossen werden. Um diese zu überprüfen wird der Granger-Kausalitätstest durchgeführt. Die notwendige Bedingung ist zunächst, dass die Ursache der Wirkung zeitlich vorausgeht, die Vergangenheit mithin die Gegenwart erklärt. Unter dieser Prämisse wird überprüft, ob die Erklärungskraft eines VAR-Modells für durch das Ausschließen von Beobachtungen von verbessert wird und umgekehrt. Hierzu wird die Nullhypothese gebildet, dass die geschätzten Koeffizienten (Frankfurt ⇐ Stuttgart) beziehungsweise (Frankfurt ⇒ Stuttgart) den Wert Null annehmen, wenn gleichzeitig respektive im Modell berücksichtigt werden.[35] Die Ergebnisse des in Stata durchgeführten Granger-Kausalitätstests werden in Kapitel 4.1 unter der VAR-Analyse ausgewiesen. In der Spalte Prob > F kann abgelesen werden, mit welcher Wahrscheinlichkeit die Stichprobe das geschätzte Ergebnis aufweist, wenn die Nullhypothese wahr ist. Für das hier tolerierte Signifikanzniveau von 5 % bedeutet dies, dass bei Werten < 0,05 die Nullhypothese verworfen und Granger-Kausalität angenommen werden kann.
Das beschriebene Modell ist grundsätzlich erweiterbar um weitere verzögerte Werte über Wochen oder gar Jahre sowie zusätzliche endogene Variablen. Im multivariaten Fall bietet sich die Matrixdarstellung an.[36] Aus Vereinfachungsgründen wurde hier der bivariate Ansatz gewählt. Die Einfachheit des VAR-Modells geht mit dem Trade-off einher, dass es weniger Informationen liefert als andere Modelle, insbesondere bezüglich langfristiger Beziehungen. Des Weiteren wird die Prämisse post hoc ergo propter hoc [37] kritisiert, weil kein ökonomisches Modell zugrunde liegt. Da lediglich statistische Zusammenhänge gemessen werden und nahezu keine ökonomischen Annahmen einfließen, gibt es durchaus Modelle, die zur Prognose von Aktienkursen besser geeignet sind. Für die Intention dieser Untersuchung hingegen bietet sich das VAR-Modell gerade wegen seiner Einfachheit durch die Beschränkung auf den dynamischen Zusammenhang zwischen zwei endogenen Preisen an. Die Variablen werden nur aus ihrem eigenen zeitlichen Verlauf sowie der Dynamik der anderen endogenen Variablen erklärt. Dies hat den Vorteil, dass zuvor keine Unterscheidung zwischen endogenen und exogenen Variablen vorzunehmen ist. Die komplexe Darstellung einer abgesicherten ökonomischen Theorie im Gleichungssystem entfällt ebenfalls. Die geschätzten Koeffizienten (Coef.) der VAR-Auswertung, das Bestimmtheitsmaß (R-sq) sowie die Werte des klassischen t-Test und F-Test lassen erste Rückschlüsse über die dynamischen Zusammenhänge der parallelen Preisverläufe an den Aktienmärkten zu. Um die Ergebnisse hinsichtlich der Forschungsfrage besser interpretieren zu können, wird in Kapitel 4.2 der Ansatz der Impuls-Antwort-Folgen (IAF) verwendet.
[...]
[1] Wenn im Folgenden von Preisen die Rede ist, sind darunter parallel verlaufende Preise identischer Wertpapiere an unterschiedlichen Märkten zu verstehen.
[2] Vgl. Hasbrouck (1995), S. 1182.
[3] Vgl. Ebenda, S. 1177.
[4] Vgl. Garbade/Silber (1979).
[5] Vgl. Hasbrouck (1995), S. 1184.
[6] Vgl. Ebenda, S. 1187.
[7] Früher TSE.
[8] Vgl. Eun/Sabherwal (2003), S. 573.
[9] A-Aktie: In Renminbi gehandelte Aktie eines chinesischen Unternehmens; H-Aktie: Aktie eines auf dem chinesischen Festland ansässigen Unternehmens.
[10] Vgl. Börse Stuttgart, URL: https://www.boerse-stuttgart.de/.
[11] Vgl. Börse Frankfurt, Handelsqualitäten, URL: http://www.boerse-frankfurt.de/de/handels-qualitaeten, aufgerufen am 20.08.2012.
[12] Vgl. Ebenda, http://www.boerse-frankfurt.de/de/statistiken/kassamarkt/detail?ansicht_id=4-0.
[13] Vgl. Börse Stuttgart, Börse Stuttgart im Profil, URL: https://www.boerse-stuttgart.de/de/boersen platzstuttgart/boersestuttgartimprofil/boersestuttgartimprofil.html aufgerufen am 23.08.2012.
[14] Siemens-AG-Inlandsaktie, ISIN DE0007236101.
[15] Bayer-AG-Namensaktie, ISIN DE000BAY0017.
[16] Commerzbank-AG-Inlandsaktie, ISIN DE0008032004.
[17] Porsche-Automobil-Holding-SE-Inlandsaktie, ISIN DE000PAH0038.
[18] Vgl. Übersicht 2.
[19] Quelle: http://img3.motor-klassik.de/Porsche-Logo-19-fotoshowImageNew-6026c9de-192211.jpg, aufgerufen am 24.08.2012.
[20] Vgl. Taylor (2007), S. 2008.
[21] Vgl. Schröder (2012), S. 4 f.
[22] Vgl. Winkler (2007), S. 264.
[23] Vgl. Schindler/Winkler (2012), S. 229; Granger/Newbold (1974).
[24] Integriert der Ordnung Eins.
[25] Vgl. Schröder (2012), S. 18; Hasbrouck (1995), S. 1181.
[26] Vgl. Schröder (2012), S. 3.
[27] Dabei stimmt dieser teilweise mit dem vorherigen Preis überein.
[28] Die vollständigen Daten sind der Excel-Tabelle auf der beigefügten CD-ROM zu entnehmen.
[29] Vgl. Hasbrouck (1995), S. 1187.
[30] Vgl. Buscher (2012), S. 104.
[31] Im Folgenden mit bezeichnet.
[32] Im Folgenden mit bezeichnet.
[33] Die methodischen Ausführungen in diesem Kapitel sind angelehnt an Winkler (2012).
[34] Des Weiteren wird häufig das Schwarz Informationskriterium (SIC) angewendet, welches das AIC durch die Gewichtung des Strafterms modifiziert.
[35] Für den Fall eines VAR(p)-Modells mit p > 1 gilt die Nullhypothese entsprechend für alle verzögerten Koeffizienten.
[36] Vgl. Winkler (2012), S. 186.
[37] Danach – also deshalb.
Details
- Seiten
- Erscheinungsform
- Erstausgabe
- Erscheinungsjahr
- 2012
- ISBN (PDF)
- 9783955496074
- ISBN (Paperback)
- 9783955491079
- Dateigröße
- 25.6 MB
- Sprache
- Deutsch
- Institution / Hochschule
- Universität Siegen
- Erscheinungsdatum
- 2015 (Februar)
- Note
- 1,3
- Schlagworte
- Finanzmarktökonometrie Vektorautoregression VAR Preisbildung Aktienmarkt Finanzmarkt Zeitreihen