Erträge aus dem Kauf von Gewinnern und dem Verkauf von Verlierern: Am deutschen Aktienmarkt zwischen 1880 und 1913
Zusammenfassung
Leseprobe
Inhaltsverzeichnis
Inhaltsverzeichnis
Abbildungsverzeichnis
Tabellenverzeichnis
Abkürzungsverzeichnis
Symbolverzeichnis
1 Einleitung
2 Einführung in die Kapitalmarkttheorie
2.1 Markteffizienzhypothese (EMH)
2.1.1 Arten der Markteffizienz
2.1.1.1 Schwache Markteffizienz
2.1.1.2 Mittelstarke Markteffizienz
2.1.1.3 Strenge Markteffizienz
2.2 Hypothese rationaler Erwartungen
2.2.1 Homo Oeconomicus
2.3 Moderne Kapitalmarkttheorie
2.3.1 Portfoliotheorie
2.3.2 Capital Asset Pricing Model (CAPM)
2.3.3 Arbitrage Pricing Theory (APT)
2.4 Kapitalmarktanomalien
2.4.1 Definition und empirische Beobachtungen
2.4.2 Über- und Unterreaktion von Börsenkursen
2.4.3 Erklärungsansätze
3 Handelsstrategien
3.1 Momentum-Strategie
3.2 Momentum-Oszillator
3.3 Relative Stärke
3.3.1 Relative Stärke nach Levy
3.3.2 Relative-Stärke-Index nach Wilder
3.4 Contrarian-Strategie
4 Empirische Untersuchung
4.1 Vorstellung des Datensatzes
4.1.1 Anpassungen
4.2 Grundsätzliche Vorgehensweise der Auswertung
5 Präsentation der empirischen Ergebnisse
5.1 Allgemeine Untersuchung der gemessenen Renditen
5.2 Betrachtung der einzelnen Dekaden
5.3 Argumentation anhand der historischen Entwicklung
5.4 Signifikanztest
5.5 Beobachtete Saisonalitäten
6 Abschlussbetrachtung / Fazit
Literaturverzeichnis
Anhang
Abbildungsverzeichnis
Abbildung 1: Struktur der Markteffizienzen (Quelle: Wilhelm 1996, S. 40)
Abbildung 2: Effizienzkurve des Anlegers (Quelle: Schmidt und Terberger 1996, S. 328)
Abbildung 3: Ableitung des Tangentialportfolios (Quelle: Bodie, Kane und Marcus 2008, S. 296)
Abbildung 4: Über- und Unterreaktion von Börsenkursen (Quelle: Jaunich und von Nitzsch 2009, S. 3)
Abbildung 5: Daimler AG Tageschart (Quelle: www.Tradesignalonline.com)
Abbildung 6: Renditeentwicklung von 1880-1912 (Quelle: Eigene Darstellung)
Tabellenverzeichnis
Tabelle 1: Renditeentwicklung von 1880-1912 (Quelle: Eigene Darstellung)
Tabelle 2: Statistische Kennzahlen über den gesamten Zeitraum (Quelle: Eigene Darstellung)
Tabelle 3: Renditeentwicklung der jeweiligen Dekaden (Quelle: Eigene Darstellung)
Tabelle 4: Statistische Kennzahlen der jeweiligen Dekaden (Quelle: Eigene Darstellung)
Tabelle 5: Ergebnisse des T-Tests über alle Anlageperioden (Quelle: Eigene Darstellung)
Tabelle 6: T-Test des Januar-Effektes (Quelle: Eigene Darstellung)
Abkürzungsverzeichnis
Abbildung in dieser Leseprobe nicht enthalten
Symbolverzeichnis
Abbildung in dieser Leseprobe nicht enthalten
1 Einleitung
Durch Backtesting der Momentum-Handelsstrategie auf einen historischen Datensatz soll in der vorliegenden Arbeit untersucht werden, ob sich hieraus in der Vergangenheit Überrenditen hätten erzielen lassen können. Die Auswertung erstreckt sich hierbei über den Zeitraum von 1880 bis 1913, wobei aus dem Jahr 1913 nur die Folgerenditen für die Vervollständigung der Datenbasis des Jahres 1912 herangezogen wurden. Mithilfe der erzielten Ergebnisse der Studie soll kritisch hinterfragt werden, ob die Markteffizienztheorie weiterhin Bestand hat oder ob diese falsifiziert werden kann. Thematisch verwandte Studien zeigten, dass durch den Kauf bzw. Verkauf vergangener Gewinner bzw. Verlierer zukünftige Überrenditen erzielbar gewesen sind. Da sich diese Untersuchungen auf einen jüngeren Datensatz mit internationalen Wertpapieren bezogen haben (Jegadeesh und Titman von 1965 bis 1989), wird für diese Studie bewusst eine ältere Zeitreihe nur mit deutschen Aktien gewählt, um festzustellen, ob die Bedeutsamkeit auch in einer länger zurückliegenden Ära auf nationaler Ebene bestand hat. Desweiteren wird in dieser Ausarbeitung ein risikoloser Ansatz über eine Long-Short-Positionierung verfolgt, wobei immer ein gleich bleibender Betrag in die bis zu 12 Monaten parallel laufenden und sich überschneidenden Portfolios investiert wird und diese eine identische Laufzeit vorweisen. Somit soll gewährleistet werden, dass durch diese Herangehensweise kein Kapitaleinsatz benötigt wird, da sich die Investitionen und Erträge aus dem Long- und dem Short-Portfolio gegenseitig egalisieren. Im Rahmen der Studie wird auf die Berücksichtigung der Transaktionskosten und die Angleichung des Risikos verzichtet, da zum Einen keine verslässlichen Daten aus dieser Zeit vorliegen und nicht in dem Datensatz enthalten sind oder daraus hervorgehen und zum anderen aufgrund der zeitlichen Einschränkung zur Fertigstellung der Bachelorarbeit.
Zunächst wird in Kapitel zwei vorab eine Einführung in die Kapitalmarkttheorie angeführt, da diese ein Grundbaustein für die darauf folgenden Ansätze darstellt. Daraus hervorgehend wird in diesem Abschnitt auch besonderer Wert auf die Markteffizienztheorie und die sich hieraus ergebenden Folgerungen gelegt, sowie Begründungen erörtert, warum diese das Ergebnis rational handelnder Marktteilnehmer sein sollte. Für ein besseres Verständnis wird im zweiten Kapitel ebenso beschrieben, durch welche Eigenschaften und Handlungen ein Mensch als rational zu bezeichnen ist. Die von Harry M. Markowitz entwickelte Portfoliotheorie wird anschließend in ihren Grundzügen erklärt und auf die darauf aufbauenden Fortführungen wie etwa das Capital Asset Pricing Model und auf die Arbitrage Pricing Theorie eingegangen, da beide Ansätze zur Verinnerlichung der Thematik entscheidend beitragen und für eine ernsthafte Abhandlung in diesem Zusammenhang unumgänglich sind. In Verbindung mit diesem Sachbezug ist eine Erörterung von historisch nachgewiesenen Kapitalmarktanomalien und die damit einhergehenden möglichen Erklärungsansätze, sowie einige Beispiele zur besseren Veranschaulichung essentiell und rundet damit dieses Kapitel ab.
Im dritten Kapitel werden die Methodik des Momentum-Ansatzes und die diametrale Handlungsweise der Contrarian-Strategie dem Leser näher gebracht, um ein fundiertes Verständnis für die daraus abzuleitenden Handelsstrategien zu schaffen. Weitere Thematisierungen finden die Darstellung des Momentums mittels eines Oszillators sowie ein kurzer Anriss der Relativen Stärke und deren Verknüpfung in den Momentum-Kontext.
Bevor die empirischen Ergebnisse im fünften Kapitel präsentiert werden, erfolgt vorweg eine umfassende Vorstellung der Details und der Charakteristika des historischen Datensatzes. Ein Fokus wird an dieser Stelle auch auf die Schilderung der durchgeführten Anpassungen gelegt, welche für eine effiziente Auswertung als unerlässlich erachtet werden. Nachdem diese Grundlage der Untersuchung näher erläutert wurde, erfolgt eine allumfassende Analyse der erlangten Resultate. In die Gesamtbetrachtung fließen jedoch nicht nur die statistisch ermittelten Kennzahlen ein, vielmehr wird auch die damalige politische Situation mit in Betracht gezogen, um eine möglichst vielschichtige Argumentation für die Beobachtungen anzubieten.
2 Einführung in die Kapitalmarkttheorie
2.1 Markteffizienzhypothese (EMH)
In den frühen 60er Jahren des letzten Jahrhunderts wollten Roberts, Jensen, Muth und Fama beweisen, dass die Märkte eine gewisse Effizienz vorweisen und sich nicht nur zufällig bewegen. Das Verhalten der Anleger ist ihrer Ansicht nach der Grund, warum die Märkte sogenannte „faire Preise“ bilden. 1970 veröffentlichte Eugene Fama die von ihm entwickelte „Efficient Market Hypothesis“(EMH). Die Grundaussage der Hypothese lautet, dass zum aktuellen Zeitpunkt alle am Markt verfügbaren Informationen bereits in den Börsenkursen eingepreist sind (vgl. Fama 1970 S. 383). Eine Erklärung dafür ist, dass die besser informierten Marktteilnehmer in der Regel institutionelle Investoren sind, die mit großem Kapitaleinsatz diese Diskrepanzen, gemeint sind hierbei die kurzfristigen Abweichungen von dem gerechtfertigten Preis einer Aktie, unmittelbar ausnutzen und sich der Kurs dadurch in kürzester Zeit auf einem gerechtfertigten Niveau einpendelt (vgl. Spremann 2006, S. 154-155). Die Anleger agieren in diesem Bild entsprechend schnell und rational (vgl. Muth 1961, S. 315-317). Folglich kann daraus abgeleitet werden dass alle Unternehmen, welche am Kapitalmarkt gehandelt werden, dort zu einem Preis notieren, der sich aus der Diskontierung der zukünftigen Erträge des Unternehmens errechnen lässt.
Abbildung in dieser Leseprobe nicht enthalten
(Trautmann 2007, S. 17)
Informationen, welche die künftige Ertragssituation beeinflussen könnten, sind deshalb für die aktuelle Preisfindung und die weitere Prognose ein entscheidender Faktor. Sollte es zu einer asymmetrischen Informationsverteilung kommen, bestünde keine faire Preisbildung mehr, wie sie von der Effizienzmarkthypothese postuliert wird. Auf die Markteffizienztheorie stützte sich bereits schon Markovitz in der von ihm aufgestellten Portfoliotheorie, wobei hierauf im Kapitel 2.3.1 präziser eingegangen wird. Auch Modigliani und Miller greifen diese Theorie im Hinblick auf die von ihnen dargestellte Irrelevanz der Unternehmensführung auf und ähnlich bedient sich Ross bei dieser Hypothese bei der von ihm aufgestellten Arbitrage Pricing Theory (APT). Es zeigt sich folglich, dass als theoretische Annahme und Grundlage die EMH für die genannten Thesen unabdingbar ist. Ende der 70er Jahre untermauerte Michael C. Jensen die Tragweite und Bedeutung der vorangeführten Arbeit von Eugene Fama nochmals mit folgendem Zitat:
“That hypothesis has been tested and, with very few exceptions, found consistent with the data in a wide variety of markets: the New York and American Stock Exchanges, the Australian, English, and German stock markets, various commodity futures markets, the Over-the-Counter markets, the corporate and government bond markets, the option market, and the market for seats on the New York Stock Exchange.”
(Jensen 1978, S. 1)
Die Voraussetzung für die Richtigkeit dieser These ist allerdings, dass die Daten, ohne das Verursachen von Kosten, von jedem Bürger zeitgleich einsehbar sind und dass aus diesen Daten exakte Preise fixiert werden können (vgl. Burda und Wyplosz 1994, S. 590). Der Investor braucht sich zudem nicht zu bemühen die Bekanntgaben zu erlangen, sondern der Markt verarbeitet und veröffentlicht die Daten in Form des angebotenen Preises. Demzufolge bildet sich durch den Marktmechanismus das Marktgleichgewicht von Angebot und Nachfrage (vgl. Pindyck und Rubinfeld 2003, S. 52-53).
Zweifel an der Effizienz sollten nicht mit jeder festgestellten Anomalie angestellt werden. Es kann durchaus vorkommen, dass die Renditen eine Abnormität vorweisen können. Skepsis ist jedoch angebracht, wenn Beweise vorliegen, dass diese regelmäßig und vorhersehbar auftreten und dadurch ein dauerhaftes Abschöpfen einer risikoadjustierten Überrendite möglich ist. Sollte es einem Investor tatsächlich gelingen über einen längeren Zeitraum eine Outperformance gegenüber dem Gesamtmarkt zu erzielen, ist eine berechtigte Besorgnis an der Korrektheit der Theorie angebracht und es bedarf einer genaueren Inspektion der beweisführenden Fakten. Zur kurzen Erläuterung; als eine Überrendite wird in den Wirtschaftswissenschaften jener Ertrag bezeichnet, der nach Anpassung des Risikos und unter Berücksichtigung von Transaktionskosten eine bessere Performance als der durchschnittliche Markt erwirtschaftet. Sie wird gemeinhin auch als „ökonomische Rendite“ bezeichnet.
Durch das Technologiezeitalter und die damit einhergehende Verbreitung des Internets wurde die Effizienz der Märkte, im Vergleich zum Beginn des letzten Jahrhunderts, entscheidend verbessert. Dem Ideal des vollkommenen Marktes, welcher die Grundlage für die Markteffizienz bildet, konnte sich dadurch weiter angenähert werden. Sämtliche relevanten Daten werden in Millisekunden über den gesamten Globus verbreitet und erschweren dadurch das Ausnutzen von temporären Informationsasymmetrien. Dennoch hat sich in diversen statistischen Ausarbeitungen ergeben, dass die dem Markt zur Verfügung stehenden Informationen nicht immer exakt taxiert werden. In vergangenen Erhebungen wurde eine signifikante Anomalie festgestellt und vielfach diskutiert, welche als Beweis dienen könnte, weshalb die Märkte nicht immer 100% effizient funktionieren.
2.1.1 Arten der Markteffizienz
2.1.1.1 Schwache Markteffizienz
Nach Eugene Fama fand eine Kategorisierung der Markteffizienzen in drei Rubriken statt, wobei die Unterscheidung abhängig von den für Investoren verfügbaren Informationen durchgeführt wurde. Die „schwache Effizienz“ besagt, dass die aktuellen Preise alle vergangenen Informationen beinhalten und die zurückliegende Kursperformance nicht auf die Zukunft fortgeschrieben werden kann. Dadurch ist es nicht möglich verlässliche Prognosen anzustellen (vgl. Weber 2007, S. 33). Daraus ergebend, besteht kein systematischer Zusammenhang zwischen vergangenen und zukünftigen Renditen. An dieser Stelle setzt auch das Random-Walk-Modell (vgl. Malkiel 1999) an, welches aussagt, dass alle Aktienkurse wahllos und ohne erkennbare Systematik schwanken und eine kurzzeitig Outperformance gegenüber dem Markt nur zufällig bestehen kann. Weiterhin können auch technische Indikatoren, wie sie oft von Analysten eingesetzt werden, keine vorausschauende Prognose erstellen, da die Aktienkurse nur auf Basis fundamentaler Gesichtspunkte gebildet werden.
2.1.1.2 Mittelstarke Markteffizienz
Die „mittelstarke Effizienz“, hat alle öffentlich bereitgestellten Daten, wie zum Beispiel Unternehmenszahlen, Konjunkturdaten oder Ankündigungen von Unternehmen, in die Preisbildung eingeschlossen. Demzufolge reagieren Preise sofort auf die bereitgestellten Informationen und verarbeiten diese auf entsprechende Weise. Es ist allerdings auch möglich, dass die Kurse in der kurzen Frist um den gleichgewichtigen Preis schwanken, welcher sich nach der neuen Informationslage einstellen würde. Solange dies jedoch nicht regelmäßig und in einem vorhersehbaren Rahmen geschieht und dadurch die Möglichkeit zur Erzielung von Überrenditen eröffnet wird, besteht kein Grund die Informationseffizienz des Marktes anzuzweifeln. Obwohl dies ein realistischerer Ansatz als die der „schwachen Effizienz“ ist, würde dies die Anstrengungen der fundamentalen Analyse egalisieren, da hierdurch auch die Erwartungen aller Marktteilnehmer in die zukünftige Entwicklung eines Unternehmens identisch wären.
2.1.1.3 Strenge Markteffizienz
Als dritte und abstrakteste Variante ist noch die „strenge Effizienz“ zu nennen. Diese beinhaltet zusätzlich zu allen öffentlich zugänglichen Daten auch noch alle privaten Informationen (vgl. Fama 1970, S. 383). In diesem Falle wäre auch die Möglichkeit des Insiderhandels unterbunden. Die Existenz verschiedener nationaler Behörden zur Überwachung des Insiderhandels, lassen aber den Schluss zu, dass Insiderinformationen noch nicht vollständig in den gehandelten Kursen reflektiert werden. In der nachfolgenden Abbildung wird die Struktur der aufeinander aufbauenden Effizienzarten illustriert:
Abbildung in dieser Leseprobe nicht enthalten
2.2 Hypothese rationaler Erwartungen
2.2.1 Homo Oeconomicus
Wie in der erwähnten Arbeit von John F. Muth unterstellt die Kapitalmarkttheorie, dass alle Marktteilnehmer auf einem gegebenen vollkommenen Markt rational agieren. In den Wirtschaftswissenschaften bezeichnet man die Idealisierung eines solchen fiktiven Akteurs als Homo Oeconomicus. Diesem Begriff liegt ein bereits zu Beginn des vergangenen Jahrhunderts entwickeltes theoretisches Modell zugrunde (vgl. Franz 2004, S. 2), wonach jeder Mensch als ökonomisch rational handelnder Nutzenmaximierer im Bezug auf seine eigene Zielfunktion auftritt. Als rational bezeichnet man einen Menschen dann, wenn dieser nach dem ökonomischen Prinzip handelt, das heißt er versucht mit gegebenen Mitteln das Maximum bzw. ein gegebenes Ziel mit möglichst geringen Mitteln zu erreichen. Rationales Handeln entsteht infolgedessen aus der Knappheit der verfügbaren Güter (vgl. Franz 2004, S. 4 – 7).
Solch ein Mensch wird in der Realität allerdings nicht anzutreffen sein, da es sich wie erwähnt um eine fiktive Person handelt. Er dient lediglich als theoretische Annahme zur Analyse individuellen Verhaltens. Die verhaltenswissenschaftliche Kapitalmarktforschung hat sich wegen der sehr abstrakten und realitätsfremden Charaktereigenschaften eines solchen Individuums deshalb mittlerweile von dieser Rationalitätsprämisse distanziert. Kritikpunkte sind, dass beschränkt kognitive Fähigkeiten und psychischer Stress zu Fehlentscheidungen führen können. Der Mensch strebt somit nicht die optimale Lösung an, sondern lediglich eine, die seinen Mindestanforderungen entspricht (vgl. Pelzmann 2000, S. 12). Verena von Nell und Klaus Kufeld führten dies Diskussion fort und schrieben, dass das in der Realität beobachtete Verhalten von Menschen kaum oder nur in seltenen Fällen mit den Prämissen und Implikationen dieses „amoralische Monsters“ vereinbaren lässt und sich oftmals sogar widerspricht (vgl. von Nell und Kufeld 2006, S. 107). So betrachten viele Anleger die Börse gar als ein Spiel, in welchem sie nur zu oft von ihren Gefühlen und ihrer Stimmung gelenkt werden (vgl. von Nell und Kufeld 2006, S. 108).
2.3 Moderne Kapitalmarkttheorie
2.3.1 Portfoliotheorie
Wie bereits in der Einleitung der Markteffizienztheorie kurz angeschnitten, basiert die Portfoliotheorie von Harry M. Markowitz auch auf der Annahme der effizienten Märkte. Seine Motivation war dabei, festzustellen, mit welchen Anlagemöglichkeiten ein Investor eine Depotoptimierung vornehmen kann. Markowitz stellte ebenfalls den Zusammenhang zwischen Rendite und Risiko dar, da auch die Verlustrisiken mit in das Optimierungskalkül einbezogen werden sollten. Das bedeutet, dass für die Erzielung einer höheren Rendite auch ein entsprechend gesteigertes Risiko eingegangen werden muss. Die zukünftigen Erträge einer Aktie sah Markowitz als eine Zufallsgröße in einem bestimmten Schwankungsbereich der potentiellen Entwicklungen an, die mit hinreichender Wahrscheinlichkeit eintreten wird. Zur Vereinfachung zog er jedoch die Annahme der Normalverteilung von zukünftigen Erträgen heran, da diese mit der mathematischen Erwartung übereinstimmt. Das Risiko einer Aktie wurde demzufolge darüber ermittelt, wie stark die möglichen Erträge sich streuen bzw. über die Varianz (vgl. Hielscher 1996, S. 54-57). Darüber hinaus hat Markowitz die Investitionsentscheidungen bzw. Investitionsprojekte nicht einzeln, sondern als Ganzes in einem Portfolio betrachtet und führte an, dass durch eine entsprechende Diversifikation das Portfoliorisiko gesenkt werden kann. Bei einer möglichst geringen Korrelation zwischen den Anlageobjekten kann durch die Diversifikation das unsystematische Unternehmensrisiko soweit gesenkt werden, dass sich im Depot letztendlich nur noch das nicht zu beseitigende systematische Marktrisiko befindet (vgl. Bodie, Kane und Marcus 2008, S. 206). Das systematische Risiko lässt sich nur durch eine geographische Streuung oder eine Verteilung über verschiedene Assetklassen, wie zum Beispiel Renten, Rohstoffe oder Immobilien nennenswert reduzieren (vgl. Hielscher 1996, S. 58).
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 1: Effizienzkurve des Anlegers (Quelle: Schmidt und Terberger 1996, S. 328)
Jeder Anleger wählt somit ein auf dem „effizienten Rand“ befindliches Portfolio, welches seiner persönlichen Risiko- und Ertragserwartung entspricht (vgl. Schmidt und Terberger 1996, S. 340). Ein Portfolio, das unter dem Rand liegt ist theoretisch wählbar, wäre aber keine effiziente Lösung und würde somit auch von einem rationalen Anleger nicht gehalten werden. Eine Positionierung über der effizienten Grenze hingegen ist nicht möglich.
2.3.2 Capital Asset Pricing Model (CAPM)
Das CAPM ist eine Fortführung der von Markowitz aufgestellten Portfoliotheorie und wurde ca. 12 Jahre nach dessen Veröffentlichung im Jahre 1964 von William Sharpe, John Lintner und Jan Mossin publiziert. Es ist zwar durch seine intuitive Logik das in der Praxis am meisten genutzte Modell, jedoch ist es auch wegen der sehr restriktiven Annahmen nicht unumstritten. So wird zum Beispiel vorausgesetzt, dass alle Investoren rational und risikoavers agieren und sie ihren erwarteten Nutzen auf Basis des Erwartungswertes und der Standardabweichung maximieren möchten. Ebenso erstreckt sich der Anlagehorizont für alle Anleger nur über eine einzige Periode, wobei weder Steuern noch Transaktionskosten anfallen. Über diesen einperiodigen Investitionshorizont haben alle Anleger homogene Erwartungen bezüglich der zukünftigen Renditen und sie können durch eine kapitalintensive Transaktion den Marktpreis eines Wertpapiers nicht beeinflussen. Der Investor hat darüber hinaus die Möglichkeit seine Anlage über einen Kredit zu finanzieren, indem ihm unbegrenzte Mittel zum risikofreien Zins durch die Banken zur Verfügung gestellt werden. Zusätzlich existiert noch eine weitere Annahme gegenüber dem Markt, welche unterstellt, dass alle Wertpapiere an der Börse frei gehandelt werden und beliebig teilbar sind (vgl. Bodie, Kane und Marcus 2008, S. 294).
Der vorstehende Katalog der Annahmen hat zur Folge, dass jeder Anleger eine Kombination aus dem Marktportfolio, falls dieser einen Teil seines Budgets in Aktien investieren möchte, und einer Geldanlage zu einem risikofreien Zins hält und somit ein persönliches Mischportfolio bildet. Das Marktportfolio besteht aus allen handelbaren Aktien und kommt einer Investition in den gesamten Aktienmarkt gleich. Insofern wäre das unsystematische Risiko vollständig eliminiert und bestünde nur noch aus dem nichtdiversifizierbaren Marktrisiko. Das Marktportfolio befindet sich genau im Schnittpunkt des „effizienten Randes“ und der Kapitalmarktlinie (CML) und wird deshalb auch Tangentialportfolio genannt. Ergänzend kann gesagt werden, dass per Definition kein anderes Portfolio existieren kann, welches bei gleichem Risiko einen höheren Ertrag erwirtschaftet. Es stellt sich nun die Frage, mit welcher Rendite der Anleger aus der Kombination von risikoreichem und risikolosem Investment rechnen kann. Im Gleichgewicht erzielt der Anleger hierdurch die erwartete Rendite des Tangentialportfolios, welche sich aus dem Zinsertrag der risikolosen Geldanlage, die der Verzinsung einer Staatsanleihe mit höchster Bonität entspricht, und dem Risikozuschlag für die Investition in das Marktportfolio zusammensetzt (vgl. Wilhelm 1996, S. 23-24). Dieser Risikozuschlag ergibt sich wiederum aus der Risikoprämie für das generelle Aktieninvestment und dem individuellen aktienspezifischen Risiko. Dadurch werden die Anleger für das eingegangene systematische Risiko entlohnt. In der nachstehenden Formel wird gezeigt, wie durch das Zusammenwirken dieser drei Teile die risikoadjustierte CAPM-Rendite errechnet werden kann:
wobei:
Abbildung in dieser Leseprobe nicht enthalten
(Shanken 1985, S. 327-328)
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 2: Ableitung des Tangentialportfolios (Quelle: Bodie, Kane und Marcus 2008, S. 296)
Als größten Nachteil dieses Models ergeben sich ironischerweise die Vorteile, die es in der Praxis so beliebt gemacht haben. In der Realität ist das Marktportfolio nicht so einfach bestimmbar und die Depots der Anleger würden auch nicht ausschließlich aus diesem, sondern wahrscheinlich nur aus einem marginalen Teil dessen bestehen. Darüber hinaus widerspricht die Möglichkeit des Leerverkaufs der Annahme homogener Erwartungen, da sonst niemand die Gegenposition zu einer solchen eingehen würde.
2.3.3 Arbitrage Pricing Theory (APT)
Die APT wurde von Steven Ross 1976 vorgestellt. Dieses Modell kann als eine Abwandlung des CAPM bezeichnet werden. Aufgrund seiner strengen restriktiven Annahmen und daraus resultierende Probleme in der praktischen Umsetzung eignet sich das CAPM demzufolge nur bedingt für den praktischen Einsatz. Der prägnanteste Unterschied zwischen den beiden Modellen liegt in der Arbitragebegründung, welches als wesentliches Argument zu der Weiterentwicklung führte. Diese fordert, dass es auf einem effizienten Kapitalmarkt kein Portfolio geben kann, welches einen risikofreien Ertrag erzielt, wie es das CAPM angibt. Ein weiterer Unterschied ist, dass die zukünftigen Renditen mittels mehrerer Marktfaktoren erklärt werden und nicht wie zuvor nur anhand eines Faktors, dem β. Als Beispiel für einen solchen Faktor wäre eine Änderung der Inflationsrate oder des Realzinses.
Abbildung in dieser Leseprobe nicht enthalten
(Albrecht und Maurer 2005, S. 318-320)
Zudem wurden beim APT nur drei weniger restriktive Annahmen getroffen. Identische zum CAPM-Modell ist die Unterstellung, dass alle Investoren rational agieren und immer größeren gegenüber geringeren Reichtum bevorzugen. Hinzu kommt die Kompetitivität der Kapitalmärkte und zudem kann der stochastische Prozess, der die Wertpapierrenditen erzeugt, als lineare Funktion von K Risikofaktoren bzw. Indizes aufgefasst werden (vgl. Wahrenburg 2007, Folie 17).
Der in der APT enthaltene Multifaktoransatz optimiert infolgedessen die Erklärung von Wertpapierrenditen, da in diese die Risikoprämien mehrerer Quellen systematischen Risikos einfließen. Andererseits birgt dies aber auch eine gewisse Problematik durch die Identifikation der relevanten Risikofaktoren, da nicht immer eindeutig ersichtlich ist, welche Umstände eine Aktie beeinflussen und wie stark diese gewichtet werden sollen (vgl. Elbert 2005, S. 140-143). Die Gemeinsamkeit der beiden Modelle besteht darin, dass sich aus beiden Ansätzen die gleiche Risiko-Rendite-Beziehung herleiten lässt.
2.4 Kapitalmarktanomalien
2.4.1 Definition und empirische Beobachtungen
Der Begriff „Anomalie“ stammt aus dem Griechischen und bedeutet Unregelmäßigkeit. Bei Kapitalmarktanomalien handelt es sich dabei um empirisch festgestellte Beobachtungen auf den Finanzmärkten, welche gegen die Markteffizienzannahme und damit einhergehend gegen die Bildung eines gleichgewichtigen Marktes argumentieren. Einige Wissenschaftler konnten dagegen in der Vergangenheit schon eine ganze Reihe solcher Abnormitäten nachweisen und belegen. Nach der Aussage der zuvor diskutierten Bewertungsmodelle wie dem CAPM und dem APT müssten allerdings alle Aktien auf der Wertpapierlinie liegen, sprich der erwartete Ertrag im Verhältnis zu dem eingegangenen Risiko stehen.
Ein erstes Beispiel für eine in der Praxis auftretende Anomalie wäre der Wochenend-Effekt. Empirisch wurde bestätigt, dass Montage eine signifikant niedrigere Tagesrendite erzielen als Freitage (vgl. French 1980, S. 57-60). Eine Erklärung für dieses Phänomen ist, dass negative Meldungen seitens der Unternehmen vermehrt an Freitagen nach Börsenschluss und am Wochenende veröffentlicht werden, damit die Aktionäre oder potentielle Käufer der Aktie etwas mehr Zeit haben die Nachrichten zu verarbeiten und somit die Kursbewegung etwas verhaltener ausfällt. An dem nun darauffolgenden Montag reagieren die Börsenkurse dennoch meist negativ auf diese Meldungen, wenn auch nicht so extrem, wie wenn ein sofortiger Verkauf nach Bekanntgabe möglich gewesen wäre (vgl. Patell und Wolfson 1982, S. 509-517).
Ebenso konnte auch eine bedeutsame Outperformance des Januar-Effektes oder auch Turn-of-the-Year-Effect beobachtet werden. In einem Zeitraum von 1904 bis 1974 konnte nachgewiesen werden, dass im ersten Monat des Jahres meist eine höhere Rendite erzielt wurde als in den übrigen Monaten (vgl. Thaler 1987, S. 198-201). Zusätzlich konstatierte Jegadeesh über den Zeitabschnitt von 1934 bis 1987, dass im Januar überproportional zahlreiche kurzfristige Trendwechsel auftraten. Als eine mögliche Erklärung hierfür gibt er die Realisierung von Verlusten an, damit diese steuerlich, in der Verrechnung gegen die letztjährigen Gewinne, geltend gemacht werden können (vgl. Jegadeesh 1990, S. 891-893).
Der Size-Effekt wiederum zeigt auf, dass kleine Unternehmen eine höhere Rendite erwirtschaften als große Konzerne. Eine Ausarbeitung von Fama und French behandelt dieses Phänomen genauer und kommt zu der Feststellung, dass selbst durch eine Anpassung des Risikos, kleinere Unternehmen in der Vergangenheit ein bessere Performance ausgewiesen haben (vgl. Blume und Stambaugh 1983, S. 391). Als „kleine“ Unternehmen wurden dabei jene selektiert, die sich in einer Sortierung nach Marktkapitalisierung im kleinsten Dezil befinden. Zurückzuführen ist dies möglicherweise einerseits auf die Vernachlässigung seitens der Analysten (vgl. Arbel, Carvell und Strebel 1983, S. 59-60) oder aber auf die höheren Transaktionskosten resultierend aus einem größeren Spread aufgrund der Illiquidität von Small-Stocks (vgl. Stoll und Whaley 1983, S. 68-71). Allerdings ist hierbei zu beachten, dass Unternehmen, die im Rahmen der Auswertung vom Markt verschwunden sind, nicht berücksichtigt werden, um einen „Survivorship-Bias“ zu vermeiden. Eine Nichtbeachtung hätte verzerrende Auswirkungen auf die Untersuchung.
Fortführend hat der Kurs/Gewinn-Verhältnis- (KGV) oder Price/Earnings-Effekt bewiesen, dass Firmen mit einem verhältnismäßig geringem KGV eine höhere zukünftige Rendite erzielen als Unternehmen mit einem entsprechend höheren KGV (vgl. Basu 1977, S. 666-669). Es wird vermutet, dass die hohen Wachstumserwartungen, welche sich in dem hohen KGV wiederspiegeln zukünftig nicht aufrechtgehalten werden können. Dieser Hergang hat bereits in der Vergangenheit zu starken Kurseinbrüchen geführt (vgl. Sattler 1999, S. 158).
Alleine die kurze Vorstellung dieser Kapitalmarktanomalien sollten Anlass genug geben, die Markteffizienztheorie nochmals genauer zu überprüfen. In dem nachfolgenden Kapitel soll jedoch noch eine Abnormität detailierter untersucht werden, da diese ein essentieller Erklärungsansatz der Momentum-Strategie darstellt. Hierbei handelt es sich um das Schwanken einer Aktie um ihren fairen Wert.
2.4.2 Über- und Unterreaktion von Börsenkursen
Durch die Veröffentlichung von Nachrichten und konjunkturellen oder branchenbezogenen Meldungen, können Börsenkurse in der kurzen bis mittleren Frist Extremnotierungen annehmen. Über einen längeren Zeithorizont neigen Aktien aber dazu, sich wieder an ihren fairen Wert anzugleichen. Diese Tendenz wird in der Wissenschaft als „Mean Reversion“ beschrieben (vgl. Albrecht und Kantar 2003, S.1). Im Falle einer Änderung der Informationslage eines Unternehmens kann es vorkommen, dass die Taxierung an den Börsen den eigentlich gerechtfertigten Kurs überschießt. Wie in der unteren Abbildung 4 illustriert, kann es zu zwei verschiedenen Reaktionsmustern kommen, wobei es von einigen psychologischen Faktoren abhängt, welche Situation eintritt. In der ersten Variante handeln die Anleger zu euphorisch und der Kurs schnellt plötzlich und unkontrolliert über seinen tatsächlichen fairen Wert. Dies geschieht häufiger bei exogenen und sehr überraschenden Bekanntmachungen. Die zweite Möglichkeit wäre eine langsamere und kontinuierlichere Anpassung an den intrinsischen Wert des Wertpapiers, wie es nach nicht sehr außergewöhnlichen Gewinnbekanntgaben zu beobachten ist (vgl. Jaunich und von Nitzsch 2009, S. 2-4). Analog können diese Konstellationen natürlich auch auf eine negative Nachrichtenlage angewendet werden. In Verbindung mit der vormals ausgeführten schwachen Form der Markteffizienz sind diese Vorkommnisse dagegen nicht vereinbar, da diese verlangt, dass aus den vergangenen Kursverläufen keine Prognose über die zukünftige Renditeentwicklung angestellt werden kann.
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 3: Über- und Unterreaktion von Börsenkursen (Quelle: Jaunich und von Nitzsch 2009, S. 3)
Wie in Abbildung 4 gut zu sehen ist, können die Aberrationen vom inneren Wert eines Wertpapiers zur Erzielung von Überrenditen auf zwei Arten interpretiert und mittels verschiedener Handelsstrategien genutzt werden. Die Handelsansätze und die damit einhergehenden Bemühungen aus diesen Anomalien Profit zu schlagen, werden in den nachfolgenden Kapiteln explizit beschrieben. Dazu werden zunächst die potenziellen Verläufe nach den Kundmachungen offengelegt und mittels grafischer Unterstützung verdeutlicht. So ist es in der Praxis oft zu beobachten, dass nach einem sehr starken Anstieg des Kurses auf eine positive Meldung in der Regel eine schärfere Gegenbewegung folgt, dem sogenannten „Short-Term-Reversal“ (STRV). Sollte die Nachrichten jedoch nicht so euphorisch von den Anlegern aufgenommen werden, sei es durch negative Hinweise oder aber durch die Nichterfüllung von Analystenschätzungen, so resultiert daraus kein steiler Anstieg des Kurses, sondern eine kontinuierlichere Angleichung an den fairen Wert. Die Anleger halten zu dem Zeitpunkt noch an ihrer vergangenen Erwartungshaltung fest. Diese Phase nennt sich „Earnings-Surprise“ (ESRP). Infolge dieser verzögerten Variante entsteht vielfach ein mittelfristig andauernder positiver Trend, der auch wieder über den fundamental gerechtfertigten Preis hinaus verlaufen kann. Man spricht hierbei von der Entstehung eines positiven Momentums (MOM) einer Aktie. Für langfristig ausgelegte Investitionen spielen solche Bewegungen nur eine untergeordnete Rolle, denn auf dieser zeitlichen Ebene streben die Unternehmensanteile üblicherweise immer in einem gewissen Rahmen zu ihrem realistischen inneren Wert. In Abbildung 4 wird diese langatmige Schwankungsbreite als „Long-Term-Reversal“ (LTRV) bezeichnet. Daraus folgernd kommt es in regelmäßig revolvierenden Abständen zu Unter- und Überbewertungen von Wertpapieren. Es ist allerdings nicht immer einfach zu erkennen in welchem Stadium dieses Verlaufes sich eine Aktie gerade befindet und ob sich ein Trend seinem Ende zu bewegt und eine Trendumkehr bevorsteht oder ob es sich lediglich um eine temporäre Korrektur bzw. Konsolidierung handelt.
2.4.3 Erklärungsansätze
Ein Erklärungsansatz dafür, dass nicht alle Marktteilnehmer rational handeln und dadurch Überreaktionen entstehen können wurde von De Bondt und Thaler entwickelt (vgl. De Bondt und Thaler 1985, S. 793-795). Der Ansatz besagt, dass ein Marktteilnehmer nur dann als rational handelnder Akteur bezeichnet werden kann, wenn er aus sämtlichen zu Verfügung stehenden Informationen versucht den „wahren“ Wert einer Aktie zu erkennen (vgl. Meyer 1994, S. 33).
Über einen längeren Zeitraum hält allerdings eine solche Phase der Überreaktion für gewöhnlich nicht an, da der Kaufdruck auf unterbewertete Aktien und der Verkaufsdruck auf überbewertete Aktien diese Extreme wieder ausgleichen. Allerdings kann diese Argumentation nur auf die kurzfristigen Schwankungen herangezogen werden. Langfristig bietet diese Analyse keine zufriedenstellende Begründung dafür, warum die falschen Erwartungen nichtrationaler Marktteilnehmer nicht ausgeglichen werden.
De Bondt und Thaler verweisen hier auf die Psychologie des menschlichen Verhaltens und vergleichen dies mit dem Bayes Theorem, welches eine formale Regel bieten soll, wie sich Erwartungen durch den Einfluss neuer Informationen verändern sollten (vgl. Meyer 1994, S. 34). Schlussfolgerungen können somit in gewissem Sinn umgekehrt werden und sind auch unter dem Begriff der Rückwärtsinduktion bekannt (vgl. www.plato.stanford.edu, Abruf am 25.11.2009).
Dieses irrationale Anlegerverhalten ist ein möglicher Grund dafür, dass es infolge erstaunlich positiver Unternehmensmeldungen eine Überbewertung und analog dazu bei schlechten Nachrichten eine Unterbewertung geben kann, was schließlich zu einem Überschießen des fairen Wertes einer Aktie führt (vgl. Meyer 1994, S. 34). Weiterhin gibt es keine Erklärung, warum die Abnormität den Arbitrageprozess der rationalen Marktteilnehmer überlebt. Es existieren zwei Beweisansätze für diese Darlegung. Entweder können die Marktteilnehmer die Fehlbewertungen nicht aufdecken (vgl. Summer 1986, S. 598) oder es gibt generell keine rationalen Investoren, die diese aufspüren können. John Maynard Keynes fasste die Rationalität der Anleger in einer Metapher wie folgt zusammen,
„[…] nach der der Markt ein Schönheitswettbewerb ist, bei dem Investoren nicht das Mädchen wählen, das sie selbst am schönsten finden, sondern das Mädchen wählen, das die anderen Investoren vermutlich am schönsten finden.“
(Meyer 1994, S. 35)
3 Handelsstrategien
3.1 Momentum-Strategie
Der Grundgedanke der Momentum-Strategie liegt kurz gefasst darin, dass sich in der Vergangenheit bereits etablierte Trends an den Börsen auch in der Zukunft fortsetzen. Es wird somit auf die Stabilität und die Fortsetzung eines Trends gesetzt und wird mit der bekannten Börsenfaustregel „The Trend is your Friend“ sehr treffend untermauert. Einen fundierten Nachweis für dieses Phänomen bietet die Verhaltenspsychologie. So ist belegt worden, dass die Markteilnehmer einem gewissen Herdendruck unterliegen und durch diesen Konformitätszwang bestehende Markttendenzen noch verstärken. Dem massenpsychologischen Aspekt kann man entnehmen, dass die Investoren zeitweise die fundamentalen Gesichtspunkte vernachlässigen und lediglich die Meinung und die Markterwartung anderer Aktionäre übernehmen. Menschen fühlen sich wohler, wenn deren Meinung im Einklang mit der Mehrheit steht. Somit kann das Unsicherheitsgefühl unterdrückt werden und ein beruhigendes Gefühl stellt sich ein, da man nicht alleine auf weiter Flur steht (vgl. Zhu 2008, S. 9-16).
In der obigen Abbildung 4 ist ersichtlich, dass sich das Momentum im mittleren zeitlichen Verlauf des wiederholenden Zyklus aufbaut und bei einer Top-Bildung des Aktienkurses langsam wieder abflacht. Zum Zeitpunkt eines einsetzenden Seitwärtstrends kommt es bei den Marktteilnehmern zu Verlustängsten und veranlasst sie häufig ihre Gewinne zu sichern. Schließlich erfolgt aus der genannten Systematik eine Verkaufspanik, die das Momentum einbrechen lässt. Einerseits gibt das Momentum somit Auskunft über die Intensität einer Schwingung, andererseits aber auch über das aktuelle Stadium eines vorherrschenden Trends und ermöglicht auf diese Art eine Gewinnerzielung. In aufwärts tendierenden Märkten könnte die Bewegung durch das Eingehen einer Kaufposition und in abwärts tendierenden Märkten durch den Leerverkauf von Aktien zur Gewinnerzielung eingesetzt werden.
3.2 Momentum-Oszillator
Illustrieren lässt sich das Momentum am besten in Form eines Oszillators. Es handelt sich hierbei um einen Indikator, wie sie auch in der technischen Finanzmarktanalyse verwendet werden, der zwischen einer oberen und einer unteren Begrenzung schwankt. In einem Kurschart lässt sich dieser sehr gut abbilden und man kann anhand der Extremphasen Übertreibungen am Aktienmarkt diagnostizieren. So bildet sich eine wellenartig verlaufende Linie, in welche die errechneten Momentum-Kennzahlen einfließen. Bei fortlaufender Berechnung resultiert daraus eine Momentum-Datenreihe mit welcher der Oszillator konstruiert werden kann.
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 4: Daimler AG Tageschart (Quelle: www.Tradesignalonline.com)
Abbildung in dieser Leseprobe nicht enthalten
(www.charttec.de , Abruf am 27.12.2009)
Da die aktuellen Kurse zu den vergangenen in Relation gesetzt werden, lässt dies folgende Interpretationen des Oszillators zu: Steigende Kurse und ein über der Null-Linie befindliches Momentum deuten eine Beschleunigung des Aufwärtstrends der Aktie an. Wenn die Momentum-Kurve abflacht ist die Trendbeschleunigung beendet, da die aktuellen Kursgewinne den ins Verhältnis gesetzten Gewinnen entsprechen. Dies bedeutet jedoch nur, dass die Beschleunigung beendet ist und nicht der allgemeine Kursanstieg. Beginnt nun die Momentum-Kurve zu fallen, verlangsamt sich der Trend und bei einem durchkreuzen der Null-Linie liegt der aktuelle Kurs unter der ins Verhältnis gesetzten Notierung und per Definition ist nun ein Abwärtstrend eingeleitet. Professionelle Händler sehen das Durchkreuzen der Null-Linie als Handelssignal in die dementsprechende Richtung. Unterhalb der Null-Linie ergibt sich eine symmetrische Interpretation zu der obigen. Durch diese Konstruktionsweise liegt der Vorteil des Momentum-Oszillators darin, dass er der Kursbewegung einen Schritt voraus läuft, weil er bereits abflacht oder dreht, wenn sich die bestehende Kursentwicklung verlangsamt (vgl. Murphy 2004, S. 229-233).
3.3 Relative Stärke
3.3.1 Relative Stärke nach Levy
Dr. Robert Levy entwickelte diesen Indikator bereits im Jahre 1967, welcher ebenfalls auf der Theorie der Trendkontinuität basiert und demzufolge einen weiteren Beitrag zum allgemeinen Verständnis der Momentum-Strategie hinzufügt. In einer Auswertung mit 200 Aktien an der New York Stock Exchange (NYSE) über einen Zeitraum von 1960 bis 1965 fiel Dr. Levy auf, dass es Aktien gab, welche sich über einen längeren Zeitraum besser entwickelten als andere. Sein Interesse galt nun der Bestimmung einer Maßzahl, um diese Trendstärke der jeweiligen Wertpapiere zu errechnen und mit Hilfe dieser Kennziffer eine Aussage über die Attraktivität einzelner Aktien treffen zu können (vgl. Levy 1967, S. 600-602). Die sogenannte Relative-Stärke-Kennziffer eines Wertpapiers errechnete Dr. Levy wie folgt:
Abbildung in dieser Leseprobe nicht enthalten
(Goerke 2006, S. 8)
Wenn man nun diese Relative-Stärke-Kennziffern ins Verhältnis zueinander setzte, konnte dadurch bestimmt werden, welche Aktien die höchste Trendstärke vorweisen. Aus diesen Daten konnte er dann ein Ranking ermitteln, wobei die Aktien mit den höchsten Kennziffern den stärksten Trend aufwiesen und konstruierte aus den 5-7% stärksten Aktien ein gleichgewichtetes Portfolio (vgl. www.momentumstrategie.de, Abruf am 12.12.2009).
3.3.2 Relative-Stärke-Index nach Wilder
1978 entwickelte Welles Wilder den Relative-Stärke-Index in seinem Buch „The New Concepts in Technical Trading Systems“ (1978). Dieser Ansatz zur Ermittlung der Relativen Stärke kommt in der Praxis, aufgrund der höheren Praktikabilität, vermehrt zum Einsatz. Der Name Relative-Stärke-Index ist an dieser Stelle jedoch etwas irreführend, da er nicht das Verhältnis zu einer Aktie oder einem Index angibt, sondern die innere Stärke einer Kursbewegung darstellt. Durch Wilders Abwandlung ergibt sich ein Oszillator, welcher die Anforderung an eine konstante obere und untere Begrenzung erfüllt. Diese Charakteristik führt dazu, dass sich die Kennzahlen in einem Wertebereich zwischen 0 und 100 bewegen. Eine Notierung des RSI über 70 stellt per Definition eine überkaufte Marktsituation und unter 30 eine überverkaufte Marktsituation dar (vgl. Murphy 2004, S, 239-245). Allerdings muss man hier auch noch erwähnen, dass eine Bewegung in der Skala auf über 70 kein Signal für eine Short-Positionierung sein soll. Starke Trends können sich für einen längeren Zeitraum in einem überkauften Stadium aufhalten bevor diese drehen. Welles Wilder betrachtet deshalb nicht die Position der Bewegung in dem Oszillator als aussagekräftigste Komponente, sondern er weist auf die Divergenzen zwischen dem Oszillator und der Kurskurve hin, welche sich in den Extrembereichen ausbilden und deutet diese als signifikanteste Handelssignale. Die Beschreibung ist auch in umgekehrter Sichtweise auf eine überverkaufte Kursbewegung unter 30 anzuwenden.
Abbildung in dieser Leseprobe nicht enthalten
(Murphy 2004, S. 241)
Der Unterschied zu Levys Berechnungen der relativen Stärke liegt mitunter darin, dass man nicht für jede Aktie eine Kennziffer erhält, die wiederum in ein Verhältnis zu den Kennziffern anderer Aktien gesetzt werden muss, sondern die Trendstärke eines Wertpapiers direkt aus dem Oszillator ablesen kann.
3.4 Contrarian-Strategie
Wie der Name schon andeutet verfolgt die Contrarian-Strategie Handelssignale entgegen der momentanen Markttendenz und spekuliert dadurch auf Korrekturbewegungen bestehender Trends. Für das konkrete Vorgehen bedeutet dies, dass Aktien, die in den letzten Perioden eine unterdurchschnittliche Performance erzielt haben gekauft werden und Wertpapiere, welche eine überdurchschnittliche Rendite erwirtschaftet haben verkauft werden. Der Grundgedanke dieses Vorgehens ist der, dass die Contrarians nur von einer kurzfristigen Überreaktionen ausgehen und somit auf eine baldig eintretende Korrektur des aktuellen Börsenkurses hin zum fairen Wert setzen (STRV). Langfristige Korrekturen sind ebenfalls mit der Contrarian-Strategie vereinbar und können gleichwohl durch opportunistische Anlageentscheidungen ausgenutzt werden (LTRV), wie in Abbildung 4 zu sehen ist. De Bondt und Thaler bestätigten die Existenz einer Outperformance der Contrarian-Strategie im Jahre 1985. Sie gliederten Wertpapiere über eine Zeitspanne von 1933 bis 1977 nach deren vergangener 36-Monatsentwicklung. Nachfolgend erhielten Sie durch diese Methode ein Ranking und verkauften aus dieser Aufstellung die 35 renditestärksten Aktien und kauften die 35 renditeschwächsten Aktien jeweils zu gleichen Gewichten (vgl. De Bondt und Thaler 1985, S. 797). Das Gewinner- und Verliererportfolio hielten Sie anschließend über einen Zeitraum von drei Jahren und erzielten daraus auf Monatsbasis eine risikoadjustierte Überrendite von 0,61%. Fama und French bestätigten dieses Ergebnis in einer Ausarbeitung, wobei Sie die Auswahl und Zusammenstellung mittels eines vereinfachten Algorithmus auf Monatsbasis trafen und die Portfolios auch nur über eine einmonatige Periode gehalten wurden. Die monatliche Überrendite lag hier zwischen 0,42% und 1,16% (vgl. Fama und French 1996, S. 66). Zusammenfassend kann man sagen, dass sowohl die Momentum- als auch die Contrarian-Strategie sich in der praktischen Durchführung bewährt haben, da sie nachweislich, wenn auch in divergierenden Halteperioden, signifikante Überrenditen generierten. Aus der psychologischen Betrachtungsweise werden der opportunistischen Strategie dauerhaft jedoch keine großen Erfolgschancen eingeräumt, da es der einzelne Anleger schwer haben wird, permanent gegen den Strom zu schwimmen und seine konträre Marktmeinung aufrecht zu erhalten.
4 Empirische Untersuchung
4.1 Vorstellung des Datensatzes
In diesem Kapitel wird die Struktur und der Umfang des Datensatzes beschrieben und anknüpfend daran das Vorgehen der empirischen Untersuchung ausgearbeitet. Der Datensatz „Die historische Geld- und Kapitalmarktdatenbank“ aus dem Jahr 2007 wurde vom „Center of Financial Studies“ bereitgestellt und kann auf der Homepage unter www.ifk-cfs.de eingesehen und heruntergeladen werden. Der komplette Datensatz erstreckt sich über den Zeitabschnitt von 1971 bis 1914 und beinhaltet die Monatsschlusskurse aller deutschen Aktien, aufgeteilt nach den damalig relevantesten Wertpapierbörsen in Deutschland. Diese waren in Hamburg, München, Berlin, Köln, Leipzig und Frankfurt ansässig. Für jede Börse wurde eine Excel-Tabelle zur Verfügung gestellt, welche in sich noch nach den Branchen Banken, Versicherung, Transport, Elektro, Maschine, Metall, Bergbau, Bau, Chemie, Papier, Textil, Brau und Sonstige untergliedert ist. Darüber hinaus sind zum Abschluss jedes Jahres die Marktkapitalisierung in tausend Deutsche Mark, die Dividendenrendite in Prozent, sowie in einem zusätzlichen Feld weitere Anmerkungen angegeben, welche aber in die weitere empirischen Analyse nicht mit einfließen und deshalb unberücksichtigt bleiben. Die Börse Berlin offerierte die vollständigsten und umfangreichsten Daten und wurde deshalb für die Verifizierung der Momentum-Strategie herangezogen.
4.1.1 Anpassungen
Um mit den erhaltenen Rohdaten effizient weiterarbeiten zu können, mussten diese überarbeitet und angepasst werden. Eine gewissenhafte und korrekte Aufarbeitung hatte höchste Priorität, da sich an dieser Stelle eingeschlichene Fehler auf die Aussagekraft und Verlässlichkeit der ganzen Studie hätten auswirken können. Der erste Schritt der Bearbeitung bestand in der Konsolidierung der gesamten Sektoren der Berliner Börse in einer Excel-Tabelle, damit anschließend eine vereinfachte branchenübergreifende Auswertung auf Basis aller Kurse angestellt werden konnte. Zu einer bildhaften Veranschaulichung sind die Unternehmen in der Tabelle nach rechts nebeneinander aufgereiht und mit einer vertikalen Anordnung des zeitlichen Verlaufs aufgelistet. Trotz der höheren Vollständigkeit an der Berliner Börse gibt es in den Datenreihen sehr viele kleinere und größere Lücken, die auf eine mangelhafte Pflege der Kurse aber auch auf eine lückenhafte Kursstellung der damaligen Zeit zurückzuführen ist. Kleinere Kurslücken bis zu vier Monatskursen wurden durch Interpolation gefüllt. Größere Versorgunglücken mit mehr als vier Monatskursen, wurden aufgrund der dadurch entstehenden Ungenauigkeit nicht interpoliert und in dem Originalzustand belassen. In der abschließenden Auswertung werden die Unternehmen, welche über den vollen abgefragten Zeitraum keine lückenlosen 12 Folgerenditen vorweisen nicht berücksichtigt, um einen „Selection Bias“ zu vermeiden. Zudem weisen sehr viele Unternehmen in den anfänglichen Jahren der Kursbereitstellung, von 1872 bis 1880, noch keine oder sehr mangelhafte Daten auf, da viele erst im Laufe der Industrialisierung nach 1880 an der Börse gelistet wurden. Deshalb wurde die Zeitspanne, auf welche sich die Auswertung schlussendlich beziehen soll, zu Gunsten einer effizienteren Bearbeitung auf die Jahre 1880 bis 1912 begrenzt. Ebenfalls wurden für eine erleichterte und verlässlichere Vorgehensweise 12 Hilfspalten, für die jeweiligen Renditeberechnungen mit einem maximalen Zeithorizont von dementsprechend 12 Monaten, pro Unternehmen eingefügt. Die Programmierung in dem entwickelten Kalkulations-Tabellenblatt bezieht sich auf die errechneten Werte in den genannten Hilfsspalten. Auf deren Basis wurde anschließend eine Hierarchie der vergangenen Outperformer und Underperformer erstellt.
4.2 Grundsätzliche Vorgehensweise der Auswertung
Es soll nun erklärt werden, wie die zuvor angepassten Daten in die Auswertung einfließen und in welchen Schritten dies geschieht. Wie bereits zuvor erwähnt, wurde ein Kalkulations-Tabellenblatt erstellt, in welchem die vergangenen Gewinner- und Verliererportfolios generiert werden. Aufgrund der Einschränkung des zeitlichen Rahmens der Bachelor-Thesis konnte die Auswertung nur auf Grundlage eines Betrachtungszeitraumes gewählt werden und nicht wie in vergangenen wissenschaftlichen Studien über eine 3-, 6-, 9- und 12-monatige Formationsperiode. Die Wahl fiel hierbei auf die Beobachtung der zurückliegenden 12 Monate, da über diesen Intervall auch in der Auswertung von Jegadeesh und Titman (vgl. Jegadeesh und Titman 1993, S. 70) die größte Signifikanz einer Überrendite nachgewiesen werden konnte und damit auch der Einfluss der Saisonalitäten innerhalb des Formationszeitraumes vernachlässigt werden kann. Die Portfoliobildung anhand der vergangenen neun Monate hat zwar eine fast ebenso hohe und eigentlich genauso bedeutsame Rendite erwirtschaftet, allerdings wurde der höchste gemessene Ertrag über die 12 Monatsperiode mit einmonatiger Haltedauer erzielt, was letzten Endes ausschlaggebend war, den einjährigen Zeitraum zu wählen. Eine einmonatige Haltedauer schien zudem etwas zu kurzblickend im Vergleich zur einjährigen Bildungsperiode zu sein und deshalb wird nachfolgend ein 3-, 6-, 9- und 12-monatiger Anlagehorizont betrachtet, da die Vermutung nahe liegt, dass über die divergierenden Testperioden unterschiedliche Ergebnisse zu Tage treten werden. Nachdem dieser entscheidende Teil festgelegt wurde, gilt es auf dieser Basis der vergangenen Monatskurse ein monatlich neu zusammengestelltes Gewinner- und Verliererportfolio anzufertigen. Dazu dient das entwickelte Kalkulations-Tabellenblatt, welches durch die Hinterlegung diverser Makro- und Visual Basic Applications (VBA) -Programmierungen, entscheidend erleichtert und durch das Umgehen der manuellen Erstellung, Eingabefehler erheblich reduziert. Über die Eingabe des gewünschten Jahres und des Monates in den entsprechenden Feldern in der Kopfleiste, wie in der Auswertungstabelle im Anhang ersichtlich, kann durch das Starten des VBA-Codes der komplette Datenpool nach den besten bzw. schlechtesten Aktien gefiltert und selektiert werden. In das Depot werden nun die Top 20% der gewünschten Aktien übernommen, wobei letztlich nur 10% derer tatsächlich in dem Depot verbleiben. Auf eine Festlegung einer bestimmten Anzahl von Unternehmen wurde bewusst verzichtet, da sich die Anzahl der in Betracht gezogenen Wertpapiere in dem Datenpool, durch hinzutretende und verschwindende Unternehmen, monatlich permanent variiert. Ferner werden neben dem Unternehmensnamen und der Rendite über die letzten 12 Monate, auch die zuvor eingefügten Hilfsspalten mit den Erträgen der einzelnen 12 Folgemonate in das Kalkulations-Tabellenblatt kopiert. Die weitere Halbierung erfolgt durch manuelle Selektion, da wie schon zu einem früheren Zeitpunkt beschrieben, hier auch noch Wertpapiere mit einer lückenhaften Kursversorgung und den dadurch entstehenden fehlerhaften Folgerenditen enthalten sind. Eine mangelnde Darstellung von Folgerenditen durch das Fehlen von Notierungen wird in dem Depot mit der Anzeige 0,000% angezeigt. Tatsächlich kann diese Anzeige unter Umständen auch korrekt sein, falls sich die Notierung eines Wertpapieres sich nicht verändert haben sollte. Deshalb wird an dieser Stelle nochmals manuell geprüft, ob es sich wirklich um eine Kurslücke handelt. Wenn das der Fall sein sollte, wird die Aktie aus dem Portfolio entfernt. Nachdem das Portfolio um diese Papiere bereinigt wurde, wird die Unternehmensliste noch um den Anteil gekürzt, bis schließlich nur noch die Hälfte des zuvor ausgewählten Bereichs und dementsprechend die favorisierten 10% der Titel enthalten sind.
Analog wird auch die Auswahl für die 10% der besten Aktien durchgeführt. In der Folge werden über die Spalten mit den beinhalteten Folgerenditen r1 bis r12 über alle Aktien der Mittelwert gebildet. Demgemäß ergeben sich für die beiden Portfolios jeweils 12 Renditemittelwerte für jeden einzelnen Monat, welche dann gegeneinander aufgerechnet werden, um dadurch ein risikoneutrales Investment zu implizieren. Mit den vorliegenden 12 Monatsrenditen werden anschließend sich überlappende Portfolios gebildet. Jene Überlappung findet deshalb statt, da jeden Monat eine neue Titelauswahl stattfindet, diese aber über die 12 darauffolgenden Perioden gehalten werden und somit eine Überschneidung von 12 Portfolios erfolgt. Äquivalent wird das Prozedere auch auf die 3-, 6- und 9-monatige Haltedauer angewendet, jedoch unter Berücksichtigung des verkürzten Anlagehorizonts.
5 Präsentation der empirischen Ergebnisse
5.1 Allgemeine Untersuchung der gemessenen Renditen
Voranführend wird in diesem Abschnitt zunächst ein Überblick über alle vier Portfolios und deren Entwicklung über den gesamten Anlagezeitraum von 1880 bis 1912 gewährt. Anknüpfend daran werden gezielt einzelne Zeitabschnitte sowie auftretende Anomalien mit Hilfe der Wertentwicklung im Chart und anhand der ermittelten statistischen Kennzahlen aufgezeigt. Nachfolgend können durch die Prüfung des Datenmaterials erste Erklärungsansätze für diese Abnormitäten geliefert werden.
In der beigeordneten Abbildung 6 ist deutlich zu sehen, dass die Portfolios mit einer kürzeren Haltedauer über den vollständigen Anlagehorizont eine weitaus höhere Rendite erzielten als die vergleichbaren langen Halteperioden. So hat das 3-Monats-Portfolio in den ersten Jahren eine beachtliche Wertentwicklung vollzogen und erreichte bereits im März 1886 eine kumulierte Rendite von 98,339% gemessen ab dem Jahre 1880. Das 6- und das 9-Monats-Portfolio erzielten in der gleichen Phase nur eine Performance von 58,447% bzw. 20,964%. Das Schlusslicht über diesen Zeitabschnitt bildete das 12-Monats-Portfolio und erwirtschaftete dabei lediglich eine Wertsteigerung von 6,961%. Auf diesen Anstieg in den ersten Jahren folgte dann eine Korrektur bzw. eine Stagnation, die bis zum Jahr 1889 anhielt. Erst danach konnte der zuvor geschaffene Trend wieder an Fahrt aufnehmen und seinen Anstieg bis in das Jahr 1912, mit Ausnahme auf ein paar kleinerer Rückschläge, kontinuierlich fortsetzen. Bis zum Ende des kompletten Betrachtungszeitraums konnten aber alle Portfolios eine beachtliche Wertentwicklung vorweisen.
[...]
Details
- Seiten
- Erscheinungsform
- Erstausgabe
- Erscheinungsjahr
- 2010
- ISBN (PDF)
- 9783863415259
- ISBN (Paperback)
- 9783863410254
- Dateigröße
- 1.4 MB
- Sprache
- Deutsch
- Institution / Hochschule
- Johann Wolfgang Goethe-Universität Frankfurt am Main
- Erscheinungsdatum
- 2011 (Juli)
- Note
- 1,7
- Schlagworte
- Momentum-Trading Markteffizienz Kapitalmarkt Kapitalmarktanomalien Efficient Market Hypothesis Erträge Börse