Abstract (deu)
Ziel dieser Arbeit ist es, einen Überblick über die verschiedenen Techniken zur Datenanreicherung und Optimierung im Falle eines Fund of Hedge Funds Portfolios darzustellen, zu diskutieren und anhand von Experimenten zu illustrieren. Besonderes Augenmerk liegt dabei auch auf der Bewertung des Zusammenspiels der verschiedenen Datenanreicherungs- und Optimierungs-techniken. Erste Bausteine für ein integriertes computergestütztes Anwendungstool werden bereitgestellt und dokumentiert. Zudem werden Ideen für weitere Entwicklungen und Forschung vorgestellt. Zwei wesentliche Punkte unterscheiden diese Arbeit von ähnlichen, nämlich dass sie hauptsächlich auf Fund Level arbeitet und dass sie den gesamten Prozess, beginnend mit der Datenaufbereitung, über die Optimierung bis zur sachgerechten Evaluierung der Ergebnisse behandelt.
Im ersten Teil wird das Thema im Kontext der Finanzwirtschaft verortet, der Begriff Hedge Fund definiert und die Relevanz der Aufgabenstellung erörtert. Neben dem schnellen Wachstum der Hedge Fund Industrie ist besonders das zunehmende Interesse von institutionellen Investoren ein wichtiger Grund quantitative, auf wissenschaftlichen Erkenntnissen aufbauende Methoden zur Unterstützung der Entscheidungsfindung bei der Auswahl von Hedge Funds bereitzustellen.
Der zweite Teil beschäftigt sich mit der Frage der Datenaufbereitung. Generell gilt, dass der Output eines Optimierungs Algorithmus nur so gut sein kann, wie die Qualität der Input Daten mit denen er gefüttert wird. Dies trifft insbesondere auch auf den Fall von Hedge Funds zu, da die Datenlage hier als eher schwierig zu bezeichnen ist: Es werden nur monatliche Renditezahlen zur Verfügung gestellt und Informationen über Risiko Exposures sind nur schwer zu erhalten.
Nachdem ein kurzer Literaturüberblick über die Hedge Fund spezifischen Datenprobleme und Verzerrungen gegeben wird werden die verwendeten Datenbanken anhand von einigen deskriptiven Merkmalen beschrieben. Besonderes Augenmerkt wird bei der Datenaufbereitung der hohen Autokorrelation in den Hedge Fund Renditen und dem Auffüllen kurzer Performance Zeitreihen gewidmet. Ersteres weil eine hohe Autokorrelation fundamentalen Prinzipien der modernen Finanzwirtschaft widerspricht, zweiteres weil es zu einer besseren Einschätzung des Risikoprofils der betrachteten Hedge Funds führt.
Zum Zwecke der Datenauffüllung werden im Einzelnen Ansätze über Faktormodelle und Clusteranalyse besprochen. Nach einer Übersicht über die in der Literatur vorgeschlagenen Risikofaktoren wird ein zentraler Gesichtspunkt, nämlich ist die Modellierung von nichtlinearen Zusammenhängen z.B. über Optionsstrukturen, genauer beleuchtet. Wichtige eigene Beiträge in diesem Kapitel sind die ökonomische Interpretation und Motivation des favorisierten Optionsstrukturmodells sowie Vorschläge und erste Experimente zur automatischen Modellselektion und zur Einbindung qualitativer Daten via Clusteranalyse.
Der dritte Teil ist der Optimierung gewidmet. Die Hauptherausforderung ergibt sich aus der Tatsache, dass die Renditen von Hedge Fund Investments meist nicht normalverteilt sind. Da die traditionellen Konzepte der Finanzwirtschaft aber genau auf der Annahme von normalverteilten Renditen aufbauen, müssen alternative Konzepte angewandt werden.
Nach einem kurzen Überblick über die klassische Mean-Variance Optimierung und Möglichkeiten robustere Ergebnisse zu bekommen, werden im Wesentlichen zwei Arten vorgestellt wie mit nicht normalverteilten Renditen umgegangen werden kann: parametrische Ansätze, die die höheren Momente (Schiefe und Kurtosis) der Verteilung berücksichtigen und nichtparametrische Ansätze, die mit historischen oder simulierten Szenarien und den sich daraus ergebenden diskreten Verteilungen arbeiten. Die Präferenzen des Investors können dabei über ein Dispersions- oder ein Quantilsmaß oder einer Kombination aus beidem erfasst werden.
Danach werden Überlegungen angestellt wie einfache lineare und komplexere logische Nebenbedingungen eingesetzt und wie die vorgestellten Konzepte integriert werden können, speziell welche Datenaufbereitungstechniken mit welchen Optimierungsverfahren zusammenpassen. Im letzten Kapitel von Teil drei werden aufwendige Optimierungsexperimente durchgeführt und die neu gewonnen Erkenntnisse interpretiert. Die zentralen Erkenntnisse sind, dass die Wahl des Risikomaßes kaum Einfluss auf das letztinstanzliches Bewertungskriterium, die risikoadjustierte Out-Of-Sample Performance, hat und dass das Auffüllen von kurzen Performance Zeitreihen das Risiko Out-Of-Sample signifikant verbessert.
Abschließend werden die Ergebnisse zusammengefasst und ein Ausblick auf zukünftige Forschungsarbeit gegeben.