Sampling Methoden: Sequentielles Sampling oder Monte-Carlo?

“Prognosen sind schwierig, insbesondere wenn sie die Zukunft betreffen”. Kein Zitat beschreibt die grunds√§tzliche Herausforderung des FI-Simulators besser als Dieses. Mangels Glaskugel basiert dieser Simulator daher auf der mehr oder weniger intelligenten Generierung von m√∂glichen Kursentwicklungen in der Zukunft und der Analyse der Verteilung einer gr√∂√üeren Menge solcher generierter Kursentwicklungen. Dieser Artikel beschreibt die Details der Generierung und vergleicht die Vor- und Nachteile der unterschiedlichen Methoden.

1. Sequentielles Sampling

Sequentielles Sampling (auch wenn es bislang nicht explizit so bezeichnet war) war bis zur Version 0.7 das einzige Sampling-Verfahren, das im Simulator verf√ľgbar war. Wie bereits im Grundlagenartikel beschrieben, entspricht dann jeder Startmonat unserer historischen Kursdaten einer m√∂glichen zuk√ľnftigen Entwicklung unseres Portfolios, einfach indem wir die komplette, auf diesen Startmonat folgende, historische Kursentwicklung aller Assets noch einmal auf das heutige Portfolio anwenden. Nutzt man die am weitestesten zur√ľck reichenden Datenreihen, z.B. die Shiller Daten des US Aktienmarkts (ab Anfang 1871) oder die Gielen Daten des deutschen Aktienmarkts (ab Ende 1869) erh√§lt man daraus ca. 154 Jahre oder 1844 unterschiedliche Startmonate, die ein gewisses Spektrum m√∂glicher zuk√ľnftiger Kursentwicklungen aufspannen.

Vorteil dieser Methode ist, neben der einfachen Umsetzung, auch die bestm√∂gliche Bewahrung zeitlicher Korrelationen. D.h. falls M√§rkte nach irrationalen √úbertreibungen nach oben oder unten wieder zur√ľck zu ihrem langj√§hrigen Mittelwert streben w√ľrde dies automatisch eben auch in unseren zuk√ľnftigen Kursentwicklungen ber√ľcksichtigt.

Nachteile dieses Verfahrens sind neben der grunds√§tzlichen statistischen Begrenzung auf die verf√ľgbaren Startmonate aber auch eine hohe Korrelation der damit erzeugten Varianten. Eine Kurshistorie die im Sept. 1929 startet unterscheidet sich nat√ľrlich nur marginal von derjenigen, die im Okt. 1929 startet. Beide haben die komplette Weltwirtschaftskrise noch vor sich und die damit erzielbaren Entnahmeraten sind sehr √§hnlich. Dies sieht man auch sehr sch√∂n, wenn man sich die Entnahmeraten in Abh√§ngigkeit vom Startmonat anschaut. Die Entwicklung der Entnahmeraten je Startmonat folgt einer stetigen Kurve:

Dies erleichtert zwar die inhaltliche Analyse des Rendite-Reihenfolge-Risikos zeigt aber ganz deutlich, wie √§hnlich die Datenpunkte eigentlich einander sind. Statistisch haben wir hier sicherlich keine 1800 unabh√§ngigen Messpunkte vorliegen. Dar√ľberhinaus ist die Historie, die unsere Kursdaten abdeckt naturgem√§√ü begrenzt. Ja, Daten ab 1871 beinhalten sicherlich zwei Weltkriege, verschiedene Wirtschaftskrisen und mehrere Zinszyklen und unsere Grundannahme, dass die zuk√ľnftige Kursentwicklung vermutlich zwischen den damit aufgespannten Extremen liegt, ist sicher auch nicht v√∂llig abwegig (Nicht umsonst ist dieses Verfahren eines der Quasi-Standards). Dennoch bleibt hier aufgrund der geringen Statistik immer ein ungutes Bauchgef√ľhl zur√ľck. Wie heisst es so sch√∂n: Woran erkennt man, dass Wirtschaftswissenschaftler Humor haben? Sie verwenden Dezimalpunkte. Ein Blick auf meine Tabelle zur exakten Berechnung von Entnahmeraten mit Dezimalpunkt und sogar zwei Dezimalstellen zeigt schon, dass ich mindestens genau so viel Humor habe.

Ab der Version 0.7 gibt es daher alternative Möglichkeiten im Simulator, solche Historien zu generieren. Diese beruhen auf Monte-Carlo Simulationen und adressieren einige dieser berechtigten Kritikpunkte.

Problem: Korrelationen zwischen unterschiedlichen Assets

Die einfachste M√∂glichkeit neue Kursreihen zu erzeugen, w√§re monatliche Renditen mit einem simplen Zufallszahlengenerator zu ermitteln und aneinander zu reihen. Typischerweise w√ľrde man Renditen erzeugen, die um den historisch bekannten Mittelwert schwanken und die Schwankungsbreite ebenfalls den historischen Schwankungen anpassen (Eine v√∂llig willk√ľrliche Festlegung von Mittelwert und Schwankungsbreite w√ľrde den daraus entstehenden Entnahmeraten jegliche Vorhersagekraft rauben). Dieser Ansatz hat in einer Multi-Asset Simulation wie unserer aber trotzdem einen gravierenden Nachteil: Auch wenn wir fein s√§uberlich die historischen mittleren Renditen und Varianzen f√ľr jedes bekannte Asset ermitteln und in die Simulation einsetzen, w√ľrden wir damit ein fundamental wichtiges Ph√§nomen komplett ignorieren: Die Renditen unterschiedlicher Assets waren historisch immer miteinander korreliert! Z.B. haben in Krisen oft Staatsanleihen an Wert gewonnenen, w√§hrend Aktienkurse auf Tauchfahrt gegangen sind. Dies ist ja letztlich der Hauptgrund warum Berater eine Beimischung von Anleihen empfehlen und warum wir uns √ľberhaupt so viele Gedanken √ľber unsere eigene Asset-Allokation machen. Einfache Monte-Carlo Simulationen w√ľrden solche Korrelationen zwischen unterschiedlichen Assets aber komplett ignorieren und w√§ren daher f√ľr solche Untersuchungen schlicht unbrauchbar.

Eine m√∂gliche Gegenma√ünahme w√§re, die historischen Korrelationen ebenfalls zu ermitteln und den Zufallszahlengenerator entsprechend zu instruieren, nur noch solche passend korrelierten Zufallsrenditen auszuspucken. Dieser Ansatz wird letztlich dadurch begrenzt, dass solche Korrelationen historisch leider auch nie konstant waren. Versucht man aber auch die zeitliche Entwicklung dieser Korrelationen zu ber√ľcksichtigen leidet die Genauigkeit der Berechnungen an der begrenzten historischen Datenmenge. D.h. man f√ľttert letztlich zunehmend immer unsicher berechnete Parameter in eine zunehmend komplexere Simulation ein. Es gibt aber zum Gl√ľck etwas abgewandelte Monte-Carlo Ans√§tze, die einfach genug sind und diesem Problem Rechnung tragen.

2. Monte Carlo mit IID Renditen

Ein einfacher Ausweg aus dem oben beschriebenen Dilemma, die wichtigen Korrelationen zwischen Assets in einer Monte Carlo Simulation zu bewahren l√§uft unter der Abk√ľrzung IID und steht f√ľr “Independent and identically distributed Returns”. In diesem Verfahren werden keine neuen Renditen zuf√§llig generiert sondern es werden historische Renditen zuf√§llig ausgew√§hlt und zwar zeitlich unabh√§ngig voneinander und gleichverteilt. D.h. angenommen wir ben√∂tigen zuf√§llige Kursentwicklungen f√ľr 30 Jahre, also 360 Monate, dann w√ľrden wir f√ľr eine neue, zuf√§llige Zeitreihe aus den existierenden gut 1800 historischen Renditen, 360 Zuf√§llige ausw√§hlen und aneinander reihen. Und ganz wichtig: Um die Korrelationen zwischen unterschiedlichen Assets zu erhalten w√ľrde hier jedes Asset die passende Rendite aus dem gleichen Ursprungsmonat erhalten.

Eine solche Simulation ist einfach zu implementieren und seit der Version 0.7 im FI Simulator ausw√§hlbar. Dazu √∂ffnet man den Reiter “Einstellungen Asset Allokation, Kurs- und Inflationsdaten” und w√§hlt im neuen Feld “Sampling Verfahren” einfach “IID” aus:

Schaut man sich dann die berechneten Entnahmeraten an, sieht man ein deutlich anderes Bild als oben:

In unserem Simulator erzeugen wir bei den Monte-Carlo Verfahren jeweils 5000 zuf√§llige Kursentwicklungen, die jeweils einem Punkt entsprechen. Diese Punkte sind jetzt nur der √úbersichtlichkeit halber auf der horizontalen Achse verteilt und entsprechen nicht mehr wie oben einem historischen Startmonat. Schaut man sich die vertikale Achse an, f√§llt zun√§chst auf, dass die Bandbreite der m√∂glichen Entnahmeraten gestiegen ist. Offenbar enth√§lt eine zuf√§llig mit IID-Renditen gef√ľllte Auswahl von Zeitreihen noch deutlich extremere F√§lle als unsere einfache sequentielle Simulation, die sich nur im Startmonat unterscheidet. Die “sichere” Entnahmerate im hier dargestellten einfachen Trinity-Fall mit 480.000 Euro Startportfolio und 30 Jahren Entnahme betr√§gt jetzt nur noch k√ľmmerliche 737 EUR statt der “gewohnten” 1200 EUR mit sequentiellem Sampling. Auf der anderen Seite k√∂nnten wir bei optimaler Kursentwicklung jetzt aber √ľber 9500 EUR pro Monat entnehmen gegen√ľber “nur” 6000 EUR mit sequentiellem Sampling.

Diese Extremwerte sind dar√ľberhinaus jetzt auch nicht mehr exakt reproduzierbar. Ein Refresh des Browser-Fensters f√ľhrt dazu, dass wieder 5000 neue zuf√§llige Kursreihen gebildet werden und diese werden abweichende Minimal- und Maximalwerte zeigen. Teilweise k√∂nnen diese Abweichungen sogar extrem gro√ü sein und es ist ganz hilfreich, sich dieses Verhalten einfach einmal durch mehrmaliges Refreshen anzusehen. Alle, die bislang im Simulator mit “sicheren” Entnahmeraten gerechnet haben, also genau den minimalen Werten mit angeblicher “0% Pleite-Gefahr”, d√ľrften von diesem Verhalten nicht begeistert sein. Ich habe aber ganz bewusst, den sogenannten “Seed” des Zufallszahlengenerators hier nicht gespeichert. Damit k√∂nnte ich erreichen, dass bei jedem Aufruf immer dieselbe Zufallssequenz erzeugt wird und die Daten somit reproduzierbar w√§ren. Dies w√ľrde aber genau dieses Ph√§nomen unterdr√ľcken und es ist aus meiner Sicht fundamental wichtig sich diese Zuf√§lligkeit der Verteilung einmal bewusst zu machen. Die zuk√ľnftige Kursentwicklung ist schlie√ülich ebenfalls nicht vorhersehbar und die bisherige exakte Reproduzierbarkeit der Ergebnisse schlicht eine Illusion, bzw. ein Artefakt des sequentiellen Samplings.

Aber es gibt trotzdem Hoffnung: Schauen wir uns dazu nicht die Extreme sondern den Median der Verteilung an, dieser liegt bei ca. 2960 EUR und schwankt auch nach Refresh des Browsers nur wenig. Dies liegt nat√ľrlich daran, dass Minimum und Maximum durch einzelne zuf√§llig schlechte bzw. zuf√§llig gute Kursentwicklungen definiert werden, w√§hrend der Median eher die Gesamtheit der Kursentwicklungen wiederspiegelt. Der Median entspricht zwar der wahrscheinlichsten Entnahmerate, die aus unserem Portfolio realisiert werden kann, aber nat√ľrlich interessieren uns eher die schlechten Kursentwicklungen, da wir ja die damit verbundenden Risiken verstehen und deren Auswirkungen m√∂glichst minimieren m√∂chten. Wie k√∂nnen wir dies mit den neuen Monte-Carlo Verfahren jetzt tun?

Perzentile einschränken

Zu diesem Zweck existiert seit Version 0.7 jetzt im gleichen Reiter das ebenfalls neue Feld “Boxplot Perzentile”, das standardm√§√üig auf 0%-100% eingestellt ist. Dieses Feld erm√∂glicht es jetzt, die extremsten zuf√§lligen Kursentwicklungen wieder auszublenden. Dazu setzen wir die Boxplot Perzentile einmal auf den Wert “1%-99%”, d.h. wir blenden damit die schlechtesten 1% und besten 1% aller zuf√§lligen Kursentwicklungen aus. Die Untergrenze des Boxplots rechts verschiebt sich damit auf ca. 1190 EUR nach oben und bleibt nach Refresh auch wieder relativ konstant. Alleine durch Ausblenden von 2 mal 1% der extremsten Kursentwicklungen scheinen wir somit den Zufall wieder geb√§ndigt zu haben.

Aber welchen Perzentilen sollte man bei den Monte-Carlo Simulationen nun also vertrauen? Diese Frage ist sehr grunds√§tzlicher Natur, nicht wirklich einfach zu beantworten und ich werde mich daher vor einer expliziten Antwort auch schlicht dr√ľcken. Ich w√ľrde aber die folgenden beiden Aspekte in den Raum werfen: F√ľr eine relativ niedrige Schwelle spricht, dass extreme Kursentwicklungen schlichtweg zuk√ľnftig passieren k√∂nnen und eine konservative Risikoabsch√§tzung sollte dem Rechnung tragen. F√ľr eine eher hohe Schwelle spricht eine √úberlegung, die ich bei William Bernstein einmal gelesen habe: Ein Blick zur√ľck in die Geschichte w√ľrde die Wahrscheinlichkeit, in unserer Lebenszeit pers√∂nlich von einem Krieg betroffen zu sein, vermutlich in der Gr√∂√üenordnung von um die 10% ansiedeln. Macht es dann tats√§chlich Sinn, schlechte Kursentwicklungen, die mit einer deutlich geringeren Wahrscheinlichkeit eintreten, in einer finanziellen Simulation zu ber√ľcksichtigen, wenn ein solcher Krieg noch ganz andere pers√∂nliche Risiken mit sich bringen w√ľrde?

3. Monte Carlo mit dem Stationary Block Bootstrap (SBB) Verfahren

Wir haben gesehen, dass Monte-Carlo Simulationen mit IID-Renditen gegen√ľber simplen Monte-Carlo Verfahren den Vorteil haben, Korrelationen zwischen unterschiedlichen Assets zu bewahren. Zeitliche Korrelationen innerhalb eines Assets gehen allerdings durch die Bedingung “Independent and identically distributed” komplett verloren. Um auch solche zeitlichen Korrelationen bei der zuf√§lligen Generierung von Kursentwicklungen zu ber√ľcksichtigen m√ľssen wir unser Verfahren noch etwas aufbohren. Der daf√ľr notwendige Algorithmus wird als “Block Bootstrap Verfahren” bezeichnet und wurde 1994 von Dimitris Politis und Joseph Romano vorgestellt. Etwas vereinfacht wird in diesem Verfahren eine zuf√§llige Kursentwicklung wie folgt aus der historischen Zeitreihe generiert:

Zunächst wird eine mittlere Blocklänge festgelegt, mit der alle Kursenwicklungen generiert werden sollen. Am Start wird ein zufälliger Startmonat aus der Historie ausgewählt und allen Assets die damaligen Renditen zugewiesen. Mit einer Wahrscheinlichkeit von (1-1/Blocklänge) wird dann am nächsten Monat auch genau der folgende Monat der Historie ausgewählt. An einem gewissen Punkt der Zeitreihe startet (mit Wahrscheinlichkeit 1/Blocklänge) aber wieder ein neuer Block, der dann auch wieder an einem zufälligen Startmonat der Historie beginnt. Im Endergebnis ist die zufällige, neue Kurshistorie dann aus einer Vielzahl von historischen Kursblöcken unterschiedlicher Länge zusammengesetzt, deren mittlere Länge aber genau der oben festgelegten Blocklänge entspricht. D.h. zeitliche Korrelationen bis etwa zu dieser Blocklänge bleiben in den neu generierten Kursreihen erhalten.

Dieses Verfahren ist jetzt ebenfalls im Feld “Sampling Verfahren” als “Block Bootstrap (SBB)” ausw√§hlbar. In diesem Fall erscheint dann auch ein zus√§tzliches Eingabefeld daneben, in dem die Blockl√§nge eingestellt werden kann:

Im Standard ist diese Blocklänge auf 120 Monate, also 10 Jahre eingestellt, d.h. die zufälligen Kursentwicklungen werden dann aus historischen Blöcken zusammengesetzt, die im Mittel 10 Jahre lang sind.

Schaut man sich die berechneten Entnahmeraten f√ľr das Standard Trinity-Beispiel an, erkennt man auf den ersten Blick wenig Unterschiede zur IID-Simulation (Die Perzentile wurden hier bei 1%-99% belassen, d.h. die Balken der Boxplots decken auch nur diesen Bereich der Punkte ab):

4. Vergleich der unterschiedlichen Sampling-Verfahren

Auch wenn die Ergebnisse des Block-Bootstrap Verfahrens auf den ersten Blick kaum von den Ergebnissen des Monte-Carlo mit IID Renditen unterscheidbar sind, lohnt sich ein genauerer Vergleich der Verfahren. Dazu betrachten wir zunächst die beiden möglichen Grenzfälle des Block-Bootstrap Verfahrens:

Gemäß der obigen Definition entspricht ein Block-Bootstrap mit Blocklänge 1 exakt der Monte-Carlo Simulation mit IID Renditen, d.h. IID ist der Grenzfall von Block-Bootstrap wenn die zeitlichen Korrelationen aufgrund der Blocklänge von 1 komplett verworfen werden.

Umgekehrt entspricht ein Block-Bootstrap mit unendlicher Blocklänge genau unserer bisherigen sequentiellen Simulation. D.h. wir sollten eigentlich feststellen, dass mit steigender Blocklänge die Unterschiede der Ergebnisse entsprechend kleiner werden.

Ab Version 0.7 ist ein solcher Vergleich der Sampling Verfahren als Unterreiter “Vergleich Sampling Verfahren” unterhalb des Reiters “Exakt berechnete Entnahmeraten” direkt auf Knopdruck verf√ľgbar. Wichtig: Dieser Vergleich ignoriert dann nat√ľrlich das voreingestellte Sampling Verfahren und die Blockl√§nge, da er alle verf√ľgbaren Verfahren und eine Auswahl von Blockl√§ngen nebeneinander darstellt:

Nach der obigen Betrachtung d√ľrfte es auch nicht verwundern, dass ganz links IID neben SBB mit Blockl√§nge L=1 dargestellt ist. Beide Verfahren sollten (im Rahmen der Statistik) identische Ergebnisse produzieren. Im Weiteren Verlauf wird dann die Blockl√§nge schrittweise vergr√∂√üert und man erkennt, dass die Bandbreite der Ergebnisse bis zu einer Blockl√§nge von ca. 20-30 erst ansteigt und danach wieder absinkt. Bei gr√∂√üeren Blockl√§ngen n√§hert sich die Bandbreite der Ergebnisse wie erwartet dem bisherigen sequentiellen Sampling wieder an, welches ganz rechts zu finden ist.

Inhaltlich k√∂nnte es zun√§chst √ľberraschen, dass offenbar ein Block-Bootstrap mit Blockl√§nge um die 25 noch “extremere Extreme” generiert als das IID Verfahren. Wenn man sich aber vor Augen f√ľhrt, dass die echte Kursentwicklung der B√∂rse eben keine reine Zufallsentwicklung ist, sondern immer auch von der Marktstimmung beeinflusst ist macht dieses Verhalten Sinn: Es gibt eben Marktphasen in denen aufgrund grenzenloser Euphorie eine Rekordrendite die n√§chste jagd und genau so gibt es Phasen, in denen die Frustration zu immer heftigeren Kurseinbr√ľchen f√ľhrt. Solche emotionalen √úbertreibungen beh√§lt der Block-Bootstrap dann bei und wenn dieses Verfahren, dann viele solcher extremen Euphorie- und Frustphasen zuf√§llig aneinander reiht, dann sollte klar sein, dass die resultierenden Kursentwicklungen deutlich “extremere Extreme” enthalten sollten, als eine rein zuf√§llig gem√§√ü IID gew√ľrfelte Verteilung.

Last but not least erkennt man, dass der Median der Verteilungen aber nahezu völlig unbeinflusst von der Wahl des Sampling Verfahrens bleibt.

5. Fazit

Die Hereinnahme von Monte Carlo Simulationen in den FI Simulator k√∂nnte einige Fragen aufwerfen, nicht zuletzt weil die neuen Verfahren die vielleicht liebgewonnene Pr√§zision bei der Berechnung von Entnahmeraten vermissen lassen. Stabile Ergebnisse erfordern damit eine willk√ľrliche Festlegung, welche Percentile in der Verteilung noch akzeptabel sind und welche lieber verworfen werden sollen. Ich kann mir vorstellen, dass einige damit ungl√ľcklich sind, allerdings empfinde ich diese Vorgehensweise als ehrlicher, weil sie letztlich transparent macht a) wie hoch die Unsicherheit in unseren Ergebnissen tats√§chlich noch ist und b) wie subjektiv wir zwangsl√§ufig auch bei der Interpretation von Ergebnissen sein m√ľssen. In diesem Sinne hat die bisherige sequentielle Fortschreibung von historischen Daten, die sich nur im Startmonat unterscheiden aus meiner Sicht lediglich eine Scheinpr√§zision suggeriert, die in Wahrheit so nicht existiert. Monte-Carlo Verfahren mit ihrer inh√§renten Zufallskomponte machen die Grenzen unserer Vorhersagekraft daher viel deutlicher und eignen sich somit f√ľr eine realistische Risikoanalyse vermutlich sogar besser.