Robeco: „Moore’s Law sorgt für Disruption im Bereich Quant Investing“

Robeco: „Moore’s Law sorgt für Disruption im Bereich Quant Investing“
Interview

Die steigende Rechenleistung verändert das Anlageumfeld. Die Entwicklungen in den Bereichen Big Data und Machine Learning sind für die Zukunft des Quant Investing von zentraler Bedeutung. Wir sprachen über dieses Thema mit Weili Zhou, Head of Quant Equity Research, und Pim van Vliet, Co-Head of Quant Equities.

16.08.2021 | 08:37 Uhr

In aller Kürze

  • Die zunehmende Rechenleistung ermöglicht neue Techniken der Modellierung
  • Big Data und Machine Learning könnten unkorrelierte Alpha-Quellen erschließen
  • Die Anpassungsfähigkeit von Quant Investing ermöglicht die Einbeziehung neuer Erkenntnisse

Was verheißen Big Data und Machine Learning den Anlegern?

Pim van Vliet: „Im Jahr 1965 prognostizierte der US-Ingenieur Gordon Moore, dass die Zahl der Transistoren auf einem Computerchip sich alle zwei Jahre verdoppeln wird. Die Realisierung seiner präzisen Vorhersage – bekannt als Moore’s Law – hat zu einem Anstieg der Rechenleistung von Computern geführt. Dies hat in der Vergangenheit das Aufkommen von Quant Investing begünstigt, jetzt ermöglicht es neue Modellierungstechniken.“

„Zum einen können systematische und wiederholbare Muster, die von einfachen linearen Modellen nicht erfasst werden, mittlerweile getestet werden. Beispielsweise funktionieren einige Variablen eventuell nur, wenn sie einen bestimmten Schwellenwert überschreiten, insbesondere in Kombination mit anderen Variablen.“

„Die meisten quantitativen Modelle basieren auf traditionellen Daten mit einer linearen Faktorstruktur. Auch wenn dieser Ansatz wirkungsvoll ist, berücksichtigt er keine nicht-linearen Muster. Das bedeutet, dass möglicherweise ein Residual-Alpha unerschlossen bleibt. Wir glauben, dass die Nutzung alternativer Datenquellen und neuer Modellierungstechniken zusätzliche Chancen eröffnen und zu besseren Modellprognosen führen kann. Auf diese Weise sorgt Moore’s Law für Disruption im Bereich Quant Investing.“

Worin liegt der größte Unterschied zwischen traditionellem und auf Machine Learning basierendem quantitativen Research?

Weili Zhou: „Die Rolle des Researchers verändert sich vom Lehrer zum Dirigenten. Im traditionellen Ansatz bringt der Researcher dem Computer bei, spezielle Regeln auf Inputdaten anzuwenden, um herauszufinden, ob diese zur Prognose des Outputs beitragen können. Bei Nutzung von Machine Learning gibt der Researcher sowohl Input als auch Output in den Computer ein, um zu ermitteln, welche Regel die beste ist. Dieser Rollenwechsel ermöglicht es Researchern, mit größerer Komplexität umzugehen. Allerdings muss man vorsichtig sein und auf den Erklärungsgrad des Modells und Überanpassung an einen gegebenen Datensatz achtgeben.“

„Dieses sogenannte Overfitting war schon immer eine latente Gefahr beim Quant Investing. Es gibt viele unterschiedliche Begriffe dafür, darunter „ Data Mining“, „P-Hacking“ und „Factor Fishing“. Das Problem ist dabei, dass manche Muster als statistisch signifikant ausgegeben werden, obwohl es in Wirklichkeit kein entsprechendes Phänomen gibt. Überanpassung ist insofern problematisch, als das Modell dabei die Vergangenheit zutreffend erklären kann, aber beim Einsatz unter realen Bedingungen scheitert.“

Was können Sie dagegen tun?

P.v.V.: „Wir haben festgestellt, dass der Schritt der Kreuzvalidierung im Researchprozess das Risiko der Überanpassung deutlich verringern kann. Im Rahmen von Machine Learning wird dasjenige Modell ausgewählt, welches die größte Prognosefähigkeit aufweist, wenn während der Trainingsphase „unbekannte“ Daten verwendet werden. Dieser Schritt kann laufend wiederholt werden, um das Modell neu zu kalibrieren und zu trainieren, sodass es sich im Zeitverlauf auf datengetriebene Weise anpassen kann.“

„Intensive Sampling- und Resampling-Methoden wie zum Beispiel neuronale Netze oder Random Forest-Modelle können daher stabile Prognosen abgeben, die auch bei „Out-of-sample“-Daten funktionieren. Zusätzlich zu robustem Sampling trägt unsere bewährte Anlagephilosophie, die auf einer ökonomischen Grundlage und einem umsichtigen Ansatz beruht, zur Bewältigung dieses Problems bei.”

Was ist mit den Implikationen von Big Data?

W.Z.: „Auch wenn es zu schwer zu messen ist, verdoppelt sich die Datenmenge ebenfalls etwa alle zwei Jahre. Angesichts dieser Datenflut haben sich bedeutende Entwicklungen ergeben. So sind die Kosten für die cloud-basierte Datenspeicherung stark gefallen. Hochdynamische Investmentansätze wie beispielsweise Intraday-Momentumstrategien sind inzwischen dokumentiert und werden von einigen Hochfrequenzhändlern genutzt. Wie in dem Buch Flash Boys von Michael Lewis beschrieben wird, nutzen einige Händler einen Informationsvorsprung von vier Millisekunden aus, um die Marktorders zu schlagen.”

„Weitere nützliche Datensätze kommen hinzu, beispielsweise solche, die neuartige ökonomische Daten über Verbraucher und Produzenten enthalten. Auch innovative Techniken können neue Daten schaffen. Zum Beispiel kann Natural Language Processing (NLP) dazu verwendet werden, um Unternehmensberichte, Stellungnahmen von Notenbanken oder Transkripte von Telefonkonferenzen zur Gewinnentwicklung zu analysieren und die Anlegestimmung zu ermitteln.”

“Des Weiteren lassen sich makroökonomische Daten, die mit einigen Wochen Versatz bekanntgegeben werden, in Echtzeit vorhersagen, in dem täglich erhobene Daten wie etwa Mobilitätsindikatoren herangezogen werden. Solche Entwicklungen erweitern die verfügbaren Daten und schaffen damit potentiell Alpha-Chancen.“

Was zeichnet Quant Investing der nächsten Generation aus?

P.v.V.: „Die Quant-Modelle der nächsten Generation könnten bessere Prognosen in Bezug auf Renditen, Nachhaltigkeit und Risiken ermöglichen. Was die Risiken angeht, gelten diese häufig als etwas leichter zu prognostizieren als Renditen. Und ja, das Risiko ist häufig nicht-linearer Natur. Beispielsweise kann Leverage bis zu einem bestimmten Schwellenwert nützlich sein, doch jenseits davon könnte das damit verbundene Risiko überproportional steigen. Dank Modellen der nächsten Generation sehen wir vielversprechende Ergebnisse in diesem Bereich, die uns helfen, Kurseinbrüche an den Börsen besser vorherzusagen als nur mit den bisherigen Risikomaßen.“

„Neben Prognosen zum absoluten Risiko können auch solche zum relativen Risiko verbessert werden. Eine gängige Methode zur Klassifizierung von Aktien ist die Branchenzuordnung. Modelle der nächsten Generation vermögen jedoch ähnliche Wertpapiere unabhängig von der Branchenzugehörigkeit besser in Gruppen zusammenzufassen. Das sollte eine bessere Kontrolle des relativen Risikos ermöglichen.“

W.Z.: „Was Nachhaltigkeit angeht, können Ziele im Hinblick auf Klima, ESG oder die SDGs in einem quantitativen Portfolio effizient umgesetzt werden. Darüber hinaus stehen immer mehr Nachhaltigkeitsdaten und in besserer Qualität zur Verfügung. Auch wenn diese Daten häufig vergangenheitsbezogen sind, können Sie nützlich bei einer aktuellen Prognose von Nachhaltigkeitstrends sein.“

„Beispielsweise können sie dazu genutzt werden vorherzusagen, welche Firmen bei der Dekarbonisierung ihrer Geschäftstätigkeit am effektivsten sind. Mittels neuer Techniken können außerdem neue Nachhaltigkeitsdaten gewonnen werden. Erreicht werden kann dies durch Aufschlüsselung der Investitionen sowie der Aufwendungen für Forschung und Entwicklung der Unternehmen oder durch Zuordnung der Firmen zu den 17 SDGs auf Basis der Unternehmensprofile mittels NLP.“

P.v.V.: „Im Hinblick auf die Rendite ist die Erzielung von Alpha das anspruchsvollste Ziel. Im Unterschied zu Risiken und Nachhaltigkeit sind die Renditen sehr instabil. Allerdings nimmt die Breite und Tiefe der verfügbaren Renditedaten zu. Die Datensätze reichen weiter zurück in die Vergangenheit und weisen eine höhere Erhebungshäufigkeit auf. Dadurch sollte die Wahrscheinlichkeit steigen, sich wiederholende nicht-lineare Muster zu identifizieren und erfolgreich zu nutzen. Techniken der nächsten Generation bestätigen außerdem die Leistungsfähigkeit traditioneller Anlagestile wie die Interaktion von Momentum mit Low Volatility.“

„Nicht zuletzt können quantitative Strategien der nächsten Generation dazu genutzt werden, Alphaquellen aufzutun, die mit bisherigen Faktoren unkorreliert sind. Beispielsweise sind kurzfristige Signale tendenziell unkorreliert – einfach deshalb, weil sie häufigen Änderungen unterliegen. Solche Alpha-Signale können erfasst und potentiell ausgenutzt werden, auch wenn die Transaktionskosten die mögliche Kapazität begrenzen könnten. Daher wird die Prognose und Verringerung von Transaktionskosten, ein anderes Anwendungsfeld von Modellen der nächsten Generation, ebenfalls wichtiger werden, was die Prognose kurzfristiger Timing-Signale angeht.“

Weshalb ist Quant Investing gut für ein sich wandelndes Anlageumfeld geeignet?

W.Z.: „Quant Investing war noch nie sonderlich dogmatisch oder normativ geprägt und hat sich in den letzten Jahrzehnten erheblich weiterentwickelt. In der Vergangenheit haben viele quantitativ orientierte Investoren auf Grundlage neuer Evidenz ihre Überzeugungen angepasst. Beispielsweise haben sie Low Volatility- und Nachhaltigkeits-Variablen in ihre Strategien integriert. Mit der Verfügbarkeit von mehr Daten und besseren Techniken werden quantitative Investoren unseres Erachtens weiter dazu lernen und sich an ein verändertes Umfeld anpassen.“


Die Informationen auf der nachfolgenden Website der Robeco Deutschland, Zweigniederlassung der Robeco Institutional Asset Management B.V., richten sich ausschließlich an professionelle Kunden im Sinne von § 31a Abs. 2 Wertpapierhandelsgesetz (WpHG) wie beispielsweise Versicherungen, Banken und Sparkassen. Die auf dieser Website dargestellten Informationen sind NICHT für Privatanleger bestimmt und entsprechen nicht den für Privatanleger maßgeblichen gesetzlichen Bestimmungen.

Diesen Beitrag teilen: