Bei der eigenen Rentenplanung wird meist ein gewisser Zielwert anvisiert, von dem man dann ab Alter X die Rente zusätzlich aufstocken möchte, um weiterhin seinen Lebensstandard zu halten. Die große Frage, die sich dabei stellt, ist natürlich stets: „Wie viel brauche ich, um mir selbst x € pro Monat bis zum Ende meines Lebens auszahlen zu können?“

In diesem Artikel werde ich einige Annahmen treffen und mittels mehrerer Simulationen verschiedenste Szenarien erzeugen, um zu überprüfen, ob eine halbe Million an Kapital einen guten Zielwert für die Vorsorge darstellt.

Das Vorgehen

Oftmals wird lediglich eine lineare Annahme getroffen wie das eigene Kapital pro Jahr verzinst wird und wie viel man sich selbst auszahlen lässt. Dieses Vorgehen ist jedoch meiner Meinung nach nicht wirklich korrekt, da stets eine gewisse Varianz mit einbezogen werden sollte. So ist die Annahme, dass das Kapital weiterhin mit x% verzinst wird nur zu 50% korrekt, da selbst die Zinsen einer gewissen Schwankung unterliegen. Selbst wenn man das Geld abhebt und unter dem Kopfkissen lagert, sollte eine gewissen Varianz bezüglich der Inflation mitberücksichtigt werden. Deshalb werde ich im folgende einige Annahmen bezüglich der Standardabweichung der berechneten Simulationen treffen.

Annahmen der Simulationen

  • Startkapital: 500 000€
  • Durchschnittliche jährliche Rendite: 3 Prozent
  • Standardabweichung der Rendite: 3 Prozent
  • Jährliche Inflation: 2 Prozent
  • Standardabweichung der Inflation: 1 Prozent
  • Länge der Simulation in Jahren: 20
  • Monatliche Kapitalentnahme: 1 500€
  • Berechnete Simulationen: 10 000

Vorgehen

Die Berechnungen der Simulationen erfolgen mit Hilfe einer sogenannten Monte-Carlo Simulationen. Dies kann man sich folgendermaßen vorstellen:

Für das erste Jahr ziehen wir zufällig eine bestimmte Rendite und Inflation. Dabei wird die Standardabweichung selbstverständlich berücksichtigt. Es kann also sein, dass die Rendite 3,3 Prozent oder 1,5 Prozent beträgt. Dies erfolgt zufällig. Dieses jährliche Ziehen erfolgt für die 20 Jahre, so dass am Ende ein zufälliges Szenario entstanden ist. Dieses wird gespeichert und anschließend wieder in Jahr 1 gestartet. Es werden folglich insgesamt 10 000 Szenarien berechnet, um sicherzustellen, dass man sehr schlechte Szenarien, welche durchaus vorkommen, abgedeckt hat.

Anschließend kann dann berechnet werden, in wie vielen Fällen das Startkapital über die 20 Jahre und die monatlichen Auszahlungen in Höhe von 1 500€ gereicht hat. Optimalerweise sollte dies natürlich in 100 Prozent der Fälle sein.

Das Ergebnis

Um einen Eindruck über die 10 000 berechneten Szenarien zu bekommen, habe ich an dieser Stelle das Ergebnis aller einmal in einer Grafik abgetragen:

Wichtiger jedoch ist, ob alle Szenarien realisierbar sind, was in folgender Grafik ersichtlich ist:

Auf der vertikalen Achse ist der prozentuale Anteil der realisierbaren Szenarien abgetragen. Die horizontale Achse ist eine Zeitachse und zeigt an, ab welchem Monat das Geld aufgebraucht ist, sollte ein Szenario nicht realisierbar sein. Glücklicherweise sind in diesem Fall alle 10 000 berechneten Szenarien realisierbar!

Die finale Verteilung des Kapitals nach 20 Jahren sieht wie folgt aus:

Hier sieht man sozusagen die Streuungsbreite des Endkapitals. Da sich der Großteil der Fläche der Glockenkurve hauptsächlich zwischen 3 und 5 bewegt, ist die Wahrscheinlichkeit sehr hoch, dass das Endkapital innerhalb dieses Bereiches fällt.

Fazit

Die von mir getroffenen Annahmen treffen natürlich nicht auf jeden zu, wahrscheinlich sogar nur auf sehr wenige. Deshalb ist es wichtig, dass sich jeder selbst über das eigene Ziel bewusstwird und anschließend einmal selbst den Simulator anwirft.

Ich befinde mich aktuell noch in der Finalisierung eines Rentensimulators, welcher die oben aufgeführten Berechnungen durchführt. Diesen werde ich kostenfrei auf meiner Seite integrieren, so dass verschiedenste Annahmen getroffen und simuliert werden können. Solltest Du Fragen oder Anregungen für das von mir programmierte Tool haben, dann gib mir doch bitte über die Kommentare Bescheid!

Mit freundlichen Grüßen und weiterhin ein schwankungsfreies Portfolio,

Dein Felix von Portfolio-Architekt

Viele Finanzwirtschaftler argumentieren, dass der Aktienmarkt zufällig sei, daer von zufälligen Ereignissen regiert wird, was wiederum in der Effizienzmarkthypothese und der Random-Walk-Theorie verankert ist. Aber ist es wirklich so?

Wissenschaftler haben dies auf die Probe gestellt und versucht den Aktienmarkt mittels sozialen Medien und speziell Twitter vorherzusagen und zu zeigen, dass es tatsächlich möglich ist, ein Gefühl dafür zu entwickeln, wohin sich der Markt bewegen wird. Eines der wegweisenden Forschungspapiere zu diesem Thema stammt von Bollen et. al.,[1] In diesem Beitrag werde ich versuchen, in einfachen Worten zu erklären, wie in dieser und weiteren Analysen vorgegangen wurde und ob es nun wirklich möglich ist, mit Hilfe von Machine Learning und Twitter den Aktienmarkt vorherzusagen.

Bollen benutzte Twitter bzw. Tweets („auf Twitter versendeten Nachrichten“) und bewies, dass es eine Korrelation zwischen den Stimmungen der Öffentlichkeit, die auf Twitter ausgedrückt werden und dem Aktienmarkt gibt. Weitere Forschungspapiere wie etwa die von Chen und Lauer [2], Xiao und Chen [3] oder Nisar und Yeaung [4] gingen noch weiter und haben auf Basis der durch die Tweets ausgedrückten Stimmungen teilweise sogar Handelssysteme entworfen und getestet, wie diese im Vergleich zu einer Benchmark performen.

Twitter-Stimmungsanalyse

Können Maschinen Emotionen verstehen und interpretieren? Nein, können sie nicht. Zumindest nicht bis heute. Mit Nein meine ich allerdings kein „perfektes Nein“ (sondern ein eher sehr unvollkommenes), denn Maschinen können mittlerweile eine große Bandbreite an Emotionen verstehen (wenn auch nicht perfekt und zuverlässig). Mittels Machine Learning ist es möglich, eine Stimmung zu messen, welche in einem bestimmten Text ausgedrückt wird.

Um das Thema Text Mining möglichst greifbar zu machen, werde ich es mit Hilfe eines einfachen Beispiels erläutern. Dazu habe ich mir Tweets von Donald Trump heruntergeladen und möchte Schritt für Schritt zeigen, wie genau man diese Tweets aufbereiten kann, um sie dann gewissen Emotionen zuzuordnen. Den dazugehörigen Code habe ich jeweils in die Abschnitte eingefügt, so dass jeder der will, diesen ganz einfach replizieren kann.

  • Einlesen der Daten

Mittels der API von Twitter, kann sich jeder Nutzer Tweets zu einem gewissen Themenbereich herunterladen. Da aber sicherlich nicht jeder einen Account besitzt, kann man einfach auf bereits heruntergeladene Datensätze, welche im Internet frei zur Verfügung stehen, zurückgreifen. Den von mir bearbeiteten Datensatz gibt es frei auf Kaggle und besteht aus über 7000 Tweets.

library(tidytext)
library(dplyr)
library(wordcloud)
library(tidyr)
library(ggplot2)
library(readr)
#Tweets einlesen
df = readr::read_csv('Donald-Tweets.csv')
  • Auftrennen der Tweets in einzelne Wörter

Als wirklich ersten Schritt werden die Tweets, welche logischerweise immer aus einem Satz bestehen, in einzelne Wörter aufgetrennt, um zu sehen, welche Wörter Mr. Trump am meisten verwendet. Mit Hilfe von R und dem Package tidytext lässt sich dies in nur ein paar Zeilen Code bewältigen:

#Tweets auftrennen
df_tidy = df %>%
  tidytext::unnest_tokens(word, Tweet_Text)
#Erstellen einer Wordcloud
df_tidy %>%
  count(word) %>%
  with(wordcloud(word, n, max.words = 100,
                 colors = RColorBrewer::brewer.pal(8,"Dark2")))

Um das Ergebnis letztendlich zu visualisieren, bietet sich eine Wordcloud an. Hier werden öfter verwendete Wörter ganz einfach größer dargestellt als Wörter, die sehr selten verwendet wurden.

Nachteil daran ist jedoch, dass man nicht sieht wie oft die Wörter in Summe nun wirklich verwendet wurden. Hier bietet sich ein einfaches und zugleich übersichtliches Balkendiagramm an.

#Zählen und Darstellen der meistgenannten Wörter
df_tidy %>%
  count(word, sort = T) %>%
  filter(n > 500) %>%
  mutate(word = reorder(word,n)) %>%
  ggplot(aes(word,n)) +
  geom_col() +
  xlab(NULL) +
  coord_flip()

Eines sollte direkt auffallen, und zwar, dass viele Wörter, die sehr oft verwendet wurden, in der Kategorie der Stopwords fallen. Beispielsweise ist das meistverwendete Word „the“, allerdings wird dieses Wort so gut wie keine Bedeutung in der späteren Analyse haben, da es keinerlei Emotionen ausdrückt. Es werden also Wörter gesucht, die einerseits oft verwendet werden, da sie so eine gewisse Signifikanz haben und andererseits auch wirklich eine große Bedeutung.

  • „Reinigen“ des Datensatzes

In einem nächsten Schritt wird der Datensatz also „gereinigt“ bzw. alle Wörter ohne Bedeutung wie bspw. the, of, to usw. entfernt. Dazu gibt es bereits Wörterbücher, die solche Wörter enthalten, was das Ganze natürlich um einiges leichter macht.

#Remove all the stop words
data("stop_words")
df_tidy <- df_tidy %>%
  anti_join(stop_words, by = "word")
#Zählen der meistgenannten Wörter
df_tidy %>%
  count(word, sort = T) %>%
  filter(n > 500) %>%
  mutate(word = reorder(word,n)) %>%
  ggplot(aes(word,n)) +
  geom_col() +
  xlab(NULL) +
  coord_flip()

Wunderbar.

Jedoch sollten einzelne Wörter wie etwa https zusätzlich noch entfernt werden, da diese wahrscheinlich durch gepostete Links zustandekommen. Es ist also sehr wichtig, den Datensatz genaustens zu untersuchen, um eine möglichst hochwertige Datenbasis für die folgende Analyse zu haben.

  •  Emotionen zuordnen

In den oben angesprochenen Forschungspapieren wurde mit Emotionen gearbeitet. Sollte also bspw. eine hohe Anzahl an Angst durch Tweets empfangen werden, dann könnte man theoretisch annehmen, dass die Kurse sinken. Bei euphorischer Stimmung mag wahrscheinlich genau das Gegenteil der Fall sein.

Für diesen Schritt gibt es ebenfalls vorgefertigte Lexika, welche den einzelnen Wörtern verschiedene Emotionen wie Angst oder Freude zuordnen. Natürlich ist es möglich auch ein individuelles Lexikon an Emotionen zu erstellen, jedoch wollen wir uns an dieser Stelle das Leben einfach machen.

#Emotionen definieren
nrc_emotions = get_sentiments("nrc") %>%
  filter(sentiment != "negative" & sentiment != "positive")
#Emotionen den einzelnen Wörtern zuordnen und darstellen
df_tidy %>%
  inner_join(nrc_emotions, by = "word") %>%
  group_by(sentiment) %>%
  summarize(count = n()) %>%
  ggplot(aes(x = reorder(sentiment, count), y = count)) +
  geom_col() +
  coord_flip() +
  labs(x = "Emotionen", y = "Anzahl Wörter") +
  theme_minimal(base_size = 18) + 
  ggtitle("Übersicht über enthaltenen Emotionen")

Wir sehen also, dass Trump generell sehr viel über Emotionen wie Vertrauen (Trust), Erwartung (Anticipation) oder Überraschung (Surprise) twittert. Auf Basis eines solchen Datensatzes könnten wir nun ein Modell erstellen, welches eine Verbindung zischen den Emotionen und dem Aktienmarkt herstellt. Die genauen Ergebnisse der Forschungspapiere werden wir natürlich nicht replizieren, diese werde ich im folgenden Abschnitt lediglich diskutieren.

Kann man den Markt mit Twitter outperformen?

Wie wir soeben selbst gesehen haben, ist es mittels Algorithmen möglich, die Stimmung, die in einem bestimmten Text ausgedrückt wird, zu messen. Aber das große Problem dabei ist, dass die Genauigkeit viel zu wünschen übriglässt. Nichtdestotrotz ist es mit einigen Abschlägen möglich, das Sentiment hinter den Tweets zu messen und auf die gewünschte Weise zu interpretieren. Dies ist die Idee hinter den Werkzeugen, die Bollen und die anderen Autoren verwendet haben, um die Stimmung aus Tweets zu erhalten. Ein Teilergebnis einer dieser Analysen ist wie folgt:

Quelle: Bollen et al. (2011)

Es existieren zwei wichtige Ereignisse auf der Grafik: Das eine ist die Präsidentschaftswahl 2008 und das andere ist Thanksgiving. Bollen scheint diesen Zeitraum aus diesem ganz besonderen Grund gewählt zu haben, weil die Stimmung der Menschen zu diesen Zeitpunkten interpretierbar ist, so dass dies genutzt werden kann um zu zeigen, dass das Modell tatsächlich in der Lage ist die Stimmung der Leute zu messen.

Somit haben wir hier eine Möglichkeit kennengelernt, ein Modell für die Vorhersage zu trainieren. Selbstverständlich sind hier noch einige andere Schritte nötig, jedoch ist das grundlegende Verständnis des Vorgehens hoffentlich etwas klarer geworden.

Generell kann die zu Beginn dieses Abschnitts gestellte Frage meiner Meinung nach mit einem Jein beantwortet werden. Es gibt eine riesige Menge an Research in diesem Gebiet und viele Ergebnisse sind sehr vielversprechend bzw. haben mittels verschiedener Machine Learning Methoden die jeweilige Benchmark outperformt, jedoch kann abschließend kein klares Ja gefällt werden.

Sollte jemand eine äußerst profitable Strategie besitzen, die sich an Twitter oder sonstigen sozialen Medien bedient und damit gewisse Prognosen abgibt, die dazu noch profitabel genug sind um Geld damit zu verdienen, dann werden wir den verwendeten Algorithmus wohl niemals zu Gesicht bekommen. Die Forschung hat hier dennoch einiges geleistet und aufgezeigt, dass Machine Lerning definitiv dazu genutzt werden kann, die sozialen Medien für Finanzanalysen auszuwerten.

Mit freundlichen Grüßen und weiterhin ein schwankungsfreies Portfolio,

Dein Felix von Portfolio-Architekt

Quellen:

[1] Bollen et al. : Twitter mood predicts the stock market

[2] Chen und Lauer: Sentiment Analysis of Twitter Feeds for the
Prediction of Stock Market Movement

[3] Xiao und Chen: Trading the Twitter Sentiment with Reinforcement Learning

[4] Nisar und Yeaung: Twitter as a tool for forecasting stock market movements: A short-window event study

Blackrock, der weltweit größte Asset Manager, hat auf seiner Homepage eine Studie veröffentlicht, in der 5 Megatrends vorgestellt werden. Darin werden erläutert welche Auswirkungen diese haben werden und wohl am wichtigsten für einen Privatanleger, wie man selbst an diesen Megatrends partizipieren kann.

Laut Blackrock werden folgende 5 Megatrends unsere Zukunft signifikant prägen:

Das Veränderungspotential zu erkennen ist ein wichtiger Faktor für Anlageentscheidungen. Die meisten dieser Veränderungen sind zyklisch und treten kurz- bis mittelfristig auf. Gelegentlich kommt es jedoch zu strukturellen Veränderungen, die längerfristiger Natur sind und unumkehrbare Auswirkungen auf die Welt um uns herum haben. Diese werden als Megatrends bezeichnet.

Definition von Megatrends laut Blackrock

Zu jedem aufgeführten Megatrend gibt Blackrock noch eine etwas detaillierte Ausführung welche Auswirkung der jeweilige Megatrend mit sich bringt und welche potenziellen Folgen für die Zukunft resultieren könnten. Für das Thema Demografie und sozialer Wandel wären das bspw. folgenden Auswirkungen:

  • Es wird mehr Menschen auf der Welt geben
  • Alternde Bevölkerung
  • Globale Lücke in der Altersvorsorge
  • Weniger Kinder

Die eigentlich entscheidende Frage für einen Privatanleger jedoch ist, wie er mithilfe von Blackrock an diesen Trends teilhaben kann. Wer sich mit dem Unternehmen bereits ein wenig auseinandergesetzt hat, wird die Antwort vermutlich bereits kennen: thematische Fonds!

Für jeden genannten Megatrend gibt es sozusagen einzelne Subkategorien welche Blackrock durch thematische Fonds bedient.

Um an das vorhergehende Beispiel des demografischen Wandels anzuknüpfen, habe ich hier einmal einen Screenshot des thematischen Fonds zum Thema „Alternde Bevölkerung“ eingefügt.

Generell bietet die Seite zu den 5 Megatrends von Blackrock einiges an Input und ist für Interessierte Anleger definitiv einen Blick wert. Welcher der Megatrends letztendlich am besten performen wird und das beste Anlagevehikel darstellt, wird nur die Zukunft zeigen.

Mit freundlichen Grüßen und weiterhin ein schwankungsfreies Portfolio,

Dein Felix von Portfolio-Architekt

In diesem Artikel werde ich das Portfolio von David Swensen einem Backtest unterziehen, um zu sehen wie das sogenannte „Endowment-Modell“ performt. Dabei möchte ich erwähnen, dass ich das Portfolio u.a. in meinem Buch getestet habe und dieser Artikel sozusagen einen kleinen Auszug meines Buches darstellt, da mich einige Fragen erreicht haben welchen Ansatz ich darin verfolgt habe. Nachträglich von mir eingefügte Kommentare zwischen den Grafiken werde ich in kursiv darstellen, da zur vollen Verständlichkeit des Backtests ein paar zusätzliche Erklärungen notwendig sind.

David F. Swensen ist ein amerikanischer Investor, Fondsmanager und Philanthrop. Seit 1985 ist er Chief Investment Officer der Yale University. Swensen ist verantwortlich für die Verwaltung und Anlage des Stiftungsvermögens und der Investmentfonds von Yale, die sich im September 2016 auf insgesamt 25,4 Mrd. USD beliefen. Zusammen mit Dean Takahashi kreierte er das Yale-Modell, eine Anwendung der modernen Portfolio-Theorie, die in der Investmentwelt als „Endowment-Modell“ bekannt ist. Seine Anlagephilosophie wurde als „Swensen Approach“ bezeichnet und ist insofern einzigartig, weil sie die Kapitalallokation in Treasury Inflation Protection Securities, Staatsanleihen, Immobilienfonds, Aktien aus Schwellenmärkten, inländischen Aktien und internationalen Aktien aus Schwellenländern hervorhebt.
Sein Anlageerfolg beim Yale Endowment hat die Aufmerksamkeit von Wall Street-Portfoliomanagern und anderen Universitäten auf sich gezogen. Andere Investoren von Universitäten wie Harvard, MIT, Princeton, Wesleyan und der University of Pennsylvania haben seine Allokationsstrategien implementiert. Unter Swensens Führung erzielte die Yale-Stiftung von 1999 bis 2009 eine durchschnittliche jährliche Rendite von 11,8 Prozent.
Swensen wurde 2012 auf dem dritten Platz der aiCIO gelistet, einer Liste der 100 einflussreichsten institutionellen Investoren weltweit. Im Jahr 2008 wurde er in die Hall of Fame des Hedge Fund Managers von Alpha für institutionelle Anleger aufgenommen.

Asset Allokation David Swensen
Performance Swensen Portfolio

Zur besseren Vergleichbarkeit der Performance wurden zwei Benchmark-Portfolios erstellt. Das „normale“ 60/40 Portfolio investiert 60 Prozent in den S&P500 und 40 Prozent in kurzlaufende Staatsanleihen der USA. Da jedoch viele Anleger wahrscheinlich ein globaleres Portfolio bevorzugen, wurde von mir ein selbst entworfenes globales 60/40 Portfolio erstellt, welches 30 Prozent weiterhin in den S&P500, 20 Prozent in den MSCI EAFE, 10 Prozent in die Schwellenländer, 20 Prozent in amerikanische Staatsanleihen und 20 Prozent in globale 10-jahres Staatsanleihen investiert.

Drawdown Swensen Portfolio
Jährliche Renditeverteilung Swensen Portfolio
Rollierende Renditen Swensen Portfolios

Rollierende Renditen bieten einen guten Überblick über die Performance eines bestimmten Anlagezeitraums. Die Grafik lässt sich folgendermaßen interpretieren:

Angenommen wir befinden uns im Jahr 1975 und wollen mittels der hier vorgestellten Asset Allokation unser Portfolio erstellen und wählen einen Anlagezeitraum von 10 Jahren. In der Grafik lässt sich das Ergebnis nun an der 10-jahres rollierenden Rendite ablesen, und zwar im Jahr 1985. In dem gewählten Zeitraum hätte man mit diesem Portfolio eine Gesamtrendite in Höhe von knapp 150% erzielt! Da die 10-jahres rollierenden Renditen dieses Portfolios niemals negativ sind, hätte ein Anleger bei einem Mindestanlagehorizont von 10 Jahren im gewählten Testzeitraum IMMER Geld verdient. Bei der hier berechneten Rendite wie auch bei allen Renditen in meinem Buch handelt es sich stets um reale Renditen.

Rendite und Risiko des Swensen Portfolios
Rendite des Swensen Portfolios in einzelnen Jahrzehnten

Fazit:

Das von Swensen entworfene „Endowment-Modell“ überzeugt auf voller Linie, da es nicht nur beide Benchmarks outperformt, sondern gleichzeitig ein nur marginal höheres Risiko in Form von höherer Volatilität aufzeigt. Dies spiegelt sich selbstverständlich auch in der höhreren Sharpe-Ratio wider.

Sollte dir dieser Backtest gefallen haben und würdest du gerne mehrere Backtests verschiedener Portfoliomanager vergleichen, dann ist mein Buch der richtige Ort. Zusätzlich erstelle ich für jeden Kunden einen individuellen Backtest seines eigenen Portfolios, sofern ich die richtigen historischen Daten zur Verfügung habe.

Mit freundlichen Grüßen und weiterhin ein schwankungsfreies Portfolio

Dein Felix von Portfolio-Architekt

Ich habe mein eigenes Ebook veröffentlicht und zwar habe ich in meinem Buch mehrere verschiedene Portfolios getestet und mit einer geeigneten Benchmark verglichen. Wer wissen möchte, welche Portfolios in welchen Zeiten gut und welche schlecht performen, für den wird das Ebook wohl einige Erkenntnisse liefern können!

Wie sollte ein Privatanleger sein eigenes Portfolio strukturieren? Sein gesamtes Vermögen in Aktien? Ein Teil in Anleihen? Oder doch ein Multi-Asset-Portfolio? Im Buch wird zu Beginn die historische Performance von Aktien, Anleihen und Bargeld betrachtet, um im Anschluss zu untersuchen, wie sich die Inflation auf die einzelnen Vermögenswerte auswirkt. Im nächsten Schritt wird eine eigene Benchmark erstellt, um dann im weiteren Verlauf des Buches mit Hilfe von Diversifikation durch 13 verschiedene Vermögenswerte Portfolios zu testen. Die Zeitreihe beginnt im Jahr 1975 um einen möglichst langfristigen Blick auf die jeweilige Vermögensentwicklung zu erhalten. Insgesamt werden knapp 30 Portfolios untersucht, die allesamt von berühmten Portfoliomanagern erstellt wurden.

Die getesteten Portfolios im Buch

Sollte Dich mein Buch interessieren oder solltest Du es sogar gekauft haben, dann möchte ich mich erstmal bei Dir für das Vertrauen bedanken. Falls Du Fragen hast oder gar eigene Ideen bzw. Wünsche für ein eigenes Portfolio, dann schreibe mir eine E-Mail und sollte ich die Daten zur Verfügung haben, werde ich Dir einen individuellen Backtest zuschicken!

Mit freundlichen Grüßen und weiterhin ein schwankungsfreies Portfolio,

Dein Felix von Portfolio-Architekt

In nahezu jedem Bereich der Industrie wird über Machine Learning diskutiert und wie sie die bestehenden Strukturen aufbrechen und somit effizienter gestalten kann. In der Finanzwirtschaft ist Machine Learning bereits in vielen Sektoren ein elementarer Bestandteil der täglichen Arbeit. Vor allem im Feld des Asset Managements wurde in den letzten Jahren nicht nur eine Vielzahl von wissenschaftlichen Studien zu diesem Thema veröffentlicht, sondern die praktische Implementierung von Machine Learning ist hier bereits in vollem Gange. Durch den Einsatz dieser Methode ist es Portfoliomanagern möglich, eine nahezu unendliche Menge an Daten zu verarbeiten und damit die zukünftigen Kursverläufe zu prognostizieren. So wurde bspw. bereits im Jahr 1982 der Hedgefonds Renaissance Technologies gegründet, welcher sich auf quantitative Methoden spezialisiert hat, um zukünftige Kursverläufe möglichst genau prognostizieren zu können. Der Fonds weist über die letzten Jahrzehnte eine unglaubliche Performance auf und somit stellt sich die Frage, wie gut quantitative Methoden wie etwa das Machine Learning in Wirklichkeit performen?

Im September diesen Jahres wurde eine sehr gute Studie über das Thema Machine Learning veröffentlicht. Die Autoren Bryan Kelly (Yale University), Shihao Gu (University of Chicago) und Dachen Xu (University of Chicago) haben dabei verschiedenste Methoden, die dem Feld des Machine Learning zuzuordnen sind, auf ein riesiges Datenset angewandt um zu überprüfen, ob Machine Learning einen echten Mehrwert bietet. Um einen kleinen Vorgeschmack auf die folgende Zusammenfassung bzw. Analyse zu geben, sei folgendes Ergebnis vorweggenommen:

„Eine Strategie, die den S&P500 mittels eines neuronalen Netzes vorhersagt, verfügt über eine jährliche Sharpe-Ratio von 0.77, wohingegen ein reines Buy-and-Hold Portfolio eine Sharpe Ratio von 0.51 ausweist. Eine Long-Short Strategie, die Positionen basierend auf Prognosen eines neuronalen Netzes einnimmt, erzielt eine jährliche Sharpe-Ratio von 1.35!“

Gu, Shihao / Kelly, Bryan / Xiu, Dachen (2019): Empirical Asset Pricing via Machine Learning, Seite 2

Welche Daten wurden ausgewertet?

Die Autoren verfügen über ein riesiges Datenset, welches alle Aktien die an der NYSE, der AMEX und der NASDAQ gelistet sind, beinhaltet. Insgesamt sind dies fast 30.000 Aktien über den gesamten Betrachtungszeitraum. Darüber hinaus startet die Untersuchung im Jahr 1957 und reicht bis ins Jahr 2016. Um eine Prognose über die Kursverläufe treffen zu können, werteten die Autoren insgesamt 94 Charakteristika pro Aktie, 74 Industrie- und 8 Makrovariablen aus.

Zusammenfassend lässt sich festhalten, dass das Datenset sehr umfangreich ist und die Ergebnisse somit auch wirklich repräsentativ die Performance der einzelnen Machine Learning Methoden darstellt.

Welche Methoden des Machine Learnings wurden untersucht?

Für diesen Artikel sind definitiv keine Kenntnisse über die untersuchten Methoden notwendig, da lediglich die Ergebnisse dargestellt werden sollen. Die Nennung dient an dieser Stelle also lediglich der Vollständigkeit.

Insgesamt wurden folgende Methoden untersucht:

  • Lineare Regression
  • Generalized linear models
  • Principal component regression (PCR)
  • Partial Least Squares (PLS)
  • Regression Trees
  • Neuronale Netze

Wie war das Vorgehen?

Der Datensatz wurde in drei Teile aufgeteilt, einen Trainings-, einen Validierungs- und einen Testteil.

Der Trainingsdatensatz dient dazu, das Model zu schätzen. Im zweiten Teil, dem Validierungsteil, werden dann die Parameter des Modells verbessert bzw. „getuned“. Diese beiden Teile werden also dazu benötigt, um überhaupt erstmal ein Modell zu erstellen, welches dann im dritten Teil angewendet wird. Es lässt sich somit sagen, dass der dritte Teil die wirkliche Performance der einzelnen Methode darstellt, da das zuvor erstellte Modell hier auf Daten angewandt wird, welche das Modell „noch nie gesehen hat“.

Folgendes Bild gibt einen groben Überblick über das Vorgehen:

Vorgehen im Machine Learning

Die Autoren untersuchen mittels der erklärten Methodik, wie gut Vorhersagen ganzer Portfolios performen. Darüber hinaus wird untersucht, wie gut die Sharpe-Ratio von Portfolios ausfällt, wenn man die beste Vorhersage long und die schlechteste Vorhersage short geht. Grundsätzlich ist es das folgende Schema:

  1. Vorhersage der Rendite des nächsten Monats
  2. Sortieren der verschiedenen Vorhersagen von der besten bis zur schlechtesten Vorhersage
  3. Einteilung der Reihenfolge in insgesamt 10 Dezile. Dabei steht das erste Dezil für die besten 10 Prozent, das zweite für die nächstbesten 10 Prozent usw.
  4. Gehe das beste Dezil long und das schlechteste short.
  5. Wiederhole Schritte 1 – 4 für jeden neuen Monat.

Und die Ergebnisse?

Die Ergebnisse dieser Untersuchung, sind in folgender Grafik dargestellt.

Rendite eines Machine Learning Portfolios

Die Durchschnittsrendite pro Monat wurde im roten Kasten markiert, wobei auch der maximale Drawdown (Max DD) weiter oben in der Tabelle abgetragen ist.

In der folgenden Grafik ist die kumulierte Performance der verschiedenen Methoden bzw. Portfolios abgetragen. Zudem wurde die Performance mit dem S&P500 verglichen.

Performance von Machine Learning Portfolios

Der S&P500 ist die dunkelblaue Linie, welche zudem durch einen Pfeil gekennzeichnet wurde. Die anderen Farben stehen für die einzelnen Methoden des Machine Learning bzw. die daraus resultierenden Portfolios. Es ist deutlich zu erkennen, dass die Methoden ein deutliches Alpha generieren, also eine Outperformance gegenüber dem Markt.

Fazit

Das Machine Learning birgt riesiges Potenzial, wie die dargestellte Studie gezeigt hat. Sowohl komplexe als auch einfachere Methoden des Machine Learning zeigen deutlich, dass durch die Anwendung eine signifikante Outperformance erzielt werden kann. Durch die weiter starke Forschung in diesem Themengebiet, sowie die immer besser werdende Hardware, wird eine immer größer werdende Outperformance wahrscheinlich.

Ich hoffe dieser kurze Ausblick in die Welt des Machine Learnings hat Dir gefallen und eventuell auch ein Interesse an der Thematik geweckt. Falls ja, dann kann ich Dir gerne einige Quellen über die Grundlagen dieses Themas zukommen lassen.

Mit freundlichen Grüßen und weiterhin ein schwankungsfreies Portfolio,

Dein Felix von Portfolio-Architekt