AXA IM: Mit der richtigen Faktor-Investing-Strategie zur Rendite

Foto: picture alliance
Aktienfonds

Die Faktoren "Bewertung", "Qualität", "Volatilität" und "Marktstimmung" bilden die Grundlage des Factor Investing. Sie enthalten Informationen über den zukünftigen Erfolg eines Unternehmens, so Gideon Smith, Europa-CIO von AXA IM Rosenberg Equities.

30.08.2018 | 10:24 Uhr

Bewertung, Qualität, niedrige Volatilität und Marktstimmung – das sind vier Faktoren, die jedem Investor bekannt vorkommen sollten. Sie bilden die Grundlage des sogenannten Factor Investing, also eines Anlagegrundsatzes, der auf Basis bestimmter Faktoren in Aktien investiert. Nach Ansicht von Gideon Smith, Europa-CIO von AXA IM Rosenberg Equities, enthalten Faktoren Informationen über den zukünftigen Erfolg eines Unternehmens. „Bewertung und Qualität helfen uns, stabile, unterbewertete Unternehmen zu finden. Und Faktoren wie Marktstimmung können dazu beitragen, Unternehmen zu identifizieren, die hohes Wachstum und Erfolge erwarten lassen“, so Smith. Die Kunst beim Factor Investing sei es, eben diese Informationen deuten zu können. Dabei verlassen die Rosenberg-Experten sich nicht allein auf Fundamentaldaten, sondern greifen auf unterschiedliche Modelle künstlicher Intelligenz zurück. 

Researchals Basis

„Die erste Voraussetzung für erfolgreiches Factor Investing ist, dass es aktiv und researchorientiert ist, da es Erträge über die Rendite einer – meist effizienten – Marktbenchmark erwirtschaften muss“, erläutert Smith. Jeder Faktorstrategie gehe ein Versprechen voraus, etwa eine Wertentwicklung über der Benchmark, höhere Dividenden oder weniger Konjunktursensitivität. Ein Beispiel für ein Faktorportfolio sei die beliebte Low-Volatility-Strategie. Es verspricht unterdurchschnittliche Kursvolatilität – durch die Auswahl von Aktien, die im Schnitt weniger schwanken. „Um solche Grundlagen in Faktoren zu überführen und dann diversifizierte Portfolios zusammenzustellen, sind Investmentkompetenz, fundierte Analysen und korrekte Daten unumgänglich“, so der Experte.

Fundamentaldaten und Statistik

Um beispielsweise die zukünftige Aktienkursvolatilität zu prognostizieren, müsse mitunter vorausgesehen werden, wie erfolgreich oder erfolglos ein Unternehmen sein wird. Dies geschieht Smith zufolge mithilfe von Fundamentaldaten. „Doch zweifellos ist auch eine gewisse Modellierungskompetenz nötig. Wie schwer zukünftige Unternehmenserfolge zu prognostizieren sind, sieht man am Beispiel von Next, einem britischen Einzelhandelsunternehmen, dessen Kursvolatilität 2016 und 2017 deutlich gestiegen ist. Next litt unter der höheren Inflation aufgrund der Pfundschwäche nach dem Brexit-Referendum. Hinzu kamen Sektorverschiebungen; es wurde weniger Bekleidung gekauft“, erläutert Smith.

Volatilitätssprünge sind dem Experten zufolge nur schwer zu antizipieren und alles andere als linear. Empirische Modelle, die auch mit ungewöhnlichen nichtlinearen Ergebnissen fertig werden, können hier Abhilfe schaffen. Rosenberg nutzt dazu zwei unterschiedliche Algorithmen: künstliche neuronale Netze und das Random-Forest-Modell. Während erstere mithilfe von plausiblen Inputvariablen eine bestimmte Entwicklung vorhersagen, erweist sich zweiteres als sehr effizient, wenn es darum geht, in großen Datenmengen wichtige Zusammenhänge herauszufiltern. „Mit dieser Form des maschinellen Lernens können wir Aktien finden, bei denen Volatilitätssprünge zu erwarten sind. Darauf schließen wir sie aus den niedrigvolatilen Portfolios aus, um beste Ergebnisse zu erzielen.“

Maschinelles Lernen als Ergänzung

Die Analyse auf Basis dieser Techniken habe bereits zu einer deutlichen Verbesserung gegenüber einem einfacheren linearen Modell geführt. „In Backtests erwies sich das naive Modell bei der Prognose extremer Erträge in 73 Prozent aller Fälle als richtig. Mit den Techniken des maschinellen Lernens ließ sich die Quote auf 86 Prozent steigern, also um 13 Prozentpunkte“, berichtet Smith.

Modernere Techniken der Dateninterpretation können dem Experten zufolge also einen traditionelleren, eher fundamentalen quantitativen Modellansatz verbessern. „Wir meinen, dass die Anwendung solcher Techniken zu neuen Erkenntnissen führen kann, wenn es keinen etablierten ökonomischen Rahmen für statistische Zusammenhänge gibt. Allerdings muss der Analyst akzeptieren, dass die Daten den statistischen Modellzusammenhang festlegen“, so Smith.

Wichtig sei daher Transparenz bei der Nutzung und die Pflege dieser Techniken. „Die genannten Modelle sind durch öffentliche Code-Bibliotheken leicht zugänglich, aber ihre Interpretation und ihr Nutzen für Vermögensmanagement- und Altersvorsorgesysteme müssen klar sein. Erst dann ist eine praktische Anwendung möglich“, schließt der Experte.


Diesen Beitrag teilen: