Die KI sendet falsche oder keine Signale. Das Fondsmanagement handelt entsprechend. Die Risikomanager wissen von nichts. Wie oft das mittlerweile passiert, ist nicht bekannt. Klar ist aber: Die Grauzone für KI-Fehler im Risikomanagement ist größer als die meisten ahnen.
24.04.2026 | 10:00 Uhr von «Matthias von Arnim»
Künstliche Intelligenz wird im operativen Risikomanagement von Fonds mittlerweile deutlich stärker eingesetzt, als vielen Asset Managern bewusst ist. Die KI scannt Datenströme, schlägt Szenarien vor, priorisiert Auffälligkeiten oder liefert Frühindikatoren für Stresssituationen. Was Fondsmanager sehen, sind die Ergebnismeldungen und manchmal Handlungsempfehlungen. Welche Anteile welches KI-Modell jeweils daran hat, können sie in der Regel nicht erkennen. Das ist mittlerweile ein strukturelles Problem, das unterschätzt wird. Denn je stärker Künstliche Intelligenz in die Prozesse integriert ist, desto deutlicher wird, dass dessen Einsatz transparent gemacht und gut dokumentiert werden muss. Erstens, um Fehler zu vermeiden und zweitens, um rechtliche Sicherheit für Fälle zu schaffen, in denen das Risikomanagement versagt. Wer KI in diesem sensiblen Segment einsetzt, bräuchte eigentlich eine Instanz, die die KI-Modelle überwacht – quasi ein Risikomanagement für das KI-Risikomanagement. Doch daran mangelt es oft. Manchmal aus Unwissenheit über die Problematik, zum Teil auch deshalb, weil sich der Einsatz von KI-Systemen im Risikomanagement in einer regulatorischen und operativen Grauzone bewegt.
Schaut man nur oberflächlich auf die Zahlen der Fondsindustrie, könnte der Eindruck entstehen, dass KI nur spärlich im Portfoliomanagement eingesetzt wird. Die Anzahl von Fonds, die offen angeben, KI als entscheidenden Faktor für die Umsetzung der Anlagestrategie zu nutzen, ist nach wie vor überschaubar. Einer Untersuchung der europäischen Fondsaufsicht ESMA zufolge verwalten solche KI-Fonds gerade einmal rund 13 Milliarden Euro. Das sind nicht einmal 0,1 Prozent des UCITS-Marktes. Doch die Zahl ist trügerisch. Künstliche Intelligenz wird laut ESMA heute bereits auf breiter Basis eingesetzt – vor allem als unterstützendes Element im Prozess, etwa zur Identifikation potenzieller Stressszenarien, zur Analyse von Limit-Verletzungen oder zur Priorisierung von Risikomeldungen. Die Technologie wirkt also weniger sichtbar auf der Produktebene, sondern im Hintergrund in der internen Architektur des Investmentprozesses. Genau dort entsteht oft ein Governance-Problem, das vielen Fondsmanagern nicht bewusst sein dürfte. Denn sobald ein KI-Modell Signale generiert, stellt sich eine grundlegende Frage: Wann wird ein Hinweis zu einer verbindlichen Information im Risikomanagement?
Traditionell war die Rollenverteilung bisher klar. Risikomodelle lieferten Kennzahlen, das Risk-Team überwachte Limits, der Portfoliomanager traf Anlageentscheidungen. Nun verschiebt der Einsatz von Künstlicher Intelligenz diese Struktur. Ein KI-System kann beispielsweise Auffälligkeiten in der Limitüberwachung identifizieren oder eine potenzielle Konzentration im Portfolio markieren. Doch wer bewertet dieses Signal? Der Portfoliomanager? Oder eine unabhängige Risikofunktion? Und wer dokumentiert, dass ein Warnsignal bewusst ignoriert oder als irrelevant eingestuft wurde? Diese Fragen wirken zunächst organisatorisch, haben aber eine regulatorische Tragweite. Denn die europäische Aufsicht hat mehrfach klargestellt, dass bestehende Organisationspflichten auch beim Einsatz von KI unverändert gelten. Die Erwartungen an Governance, Dokumentation und interne Kontrollmechanismen bleiben bestehen – unabhängig davon, ob ein Signal aus einem klassischen Modell oder aus einer KI-Anwendung stammt. Der EU AI Act, der dies regelt, wird ab August 2026 weitgehend umgesetzt werden. Deshalb ist es für Fondsgesellschaften jetzt umso wichtiger, die Grauzonen auszuleuchten, in denen KI in Prozesse integriert werden, ohne dass Zuständigkeiten klar definiert sind.
In vielen Häusern zeigt sich derzeit ein wiederkehrendes Muster. KI-Systeme laufen als zusätzliche Analyseebene – oft als Tool des Portfolio- oder Risk-Teams. Doch die Kontrollkette bleibt unscharf. Wer darf eine KI-Warnung freigeben? Wer entscheidet über Eskalationen? Und wer stellt sicher, dass die Konfiguration des Systems dokumentiert ist? Das Problem verschärft sich, wenn Parameter oder Schwellenwerte verändert werden. Kleine Anpassungen an Eskalationsregeln, Prompts oder Datenfiltern können die Risikowahrnehmung eines Systems erheblich verändern. Ohne klar geregeltes Change-Management entsteht eine Situation, in der niemand mehr exakt rekonstruieren kann, mit welcher Logik ein System zu einem bestimmten Zeitpunkt gearbeitet hat. Aus Sicht von Aufsicht und Prüfung ist das kein technisches Detail, sondern ein Governance-Risiko.
Besonders sensibel wird die Situation dort, wo KI-Modelle indirekt in die Bewertungs- und Reportingkette eingreifen. Und das passiert immer häufiger. Moderne Tools werden zunehmend für Datenanreicherung, Peergroup-Analysen oder Plausibilitätsprüfungen eingesetzt – oft durch externe Dienstleister. Der Effekt: Eine KI kann Einfluss auf Bewertungsprozesse nehmen, die letztlich im Net Asset Value eines Fonds münden. Für Asset Manager bedeutet das eine Erweiterung ihres Governance-Radius.
Aufseher wie die BaFin betonen im Kontext digitaler Resilienz deshalb, dass gerade externe Technologieanbieter in die Risikosteuerung einbezogen werden müssen. Mit der europäischen Regulierung zur operativen Resilienz – der Digital Operational Resilience Act – wird diese Erwartung institutionell verankert. Für Portfoliomanager hat das eine unmittelbare Konsequenz: Die Zahlen, mit denen sie arbeiten, entstehen zunehmend in einer technisch komplexen Umgebung. Verstehen sie diese Architektur nicht, können sie die Herkunft der eigenen Risikokennzahlen gegenüber der Aufsichtsbehörde nur eingeschränkt erklären. Das ist ein sensibler und heikler Punkt. Denn auch wenn ein Tool bei einem Administrator oder Datenanbieter betrieben wird, bleibt die Verantwortung für die Integrität der Bewertung bei den Fondsmanagern.
Eine weitere strukturelle Herausforderung liegt in der zunehmenden Konzentration auf wenige Technologieanbieter. Viele KI-Anwendungen im Finanzsektor basieren auf denselben Plattformen nur weniger Anbieter. Hier wird es für den Finanzmarkt insgesamt kritisch. Denn wenn zahlreiche Marktteilnehmer auf identische Modelle oder Datenschnittstellen zurückgreifen, entsteht eine Art kollektive Risikowahrnehmung. In stabilen Marktphasen fällt das kaum auf. In Stresssituationen könnte diese Homogenität jedoch problematisch werden, weil ähnliche Modelle gleichzeitig zu ähnlichen Schlussfolgerungen gelangen. Die eigentliche Herausforderung des Einsatzes von KI-Risikosystemen liegt daher weniger in den einzelnen Modellen als in der Diversifikation der technischen Infrastruktur. Deshalb wird es für Risikomanager zunehmend wichtig, nicht nur Markt- und Kreditrisiken zu betrachten, sondern auch technologische Abhängigkeiten.
Fazit: Für Portfoliomanager, die KI-Systeme im Risikomanagement einsetzen, steigt der Dokumentationsdruck. Sie müssen schon aus Eigeninteresse, um nicht gegenüber der Finanzaufsicht in Erklärungsnot zu geraten, Transparenz über drei Ebenen schaffen: erstens über die Herkunft von Risikosignalen, zweitens über die Governance der eingesetzten Systeme und drittens über mögliche Eingriffe in Bewertungs- und Reportingprozesse. Der zentrale Punkt lautet: KI kann das Radar des Risikomanagements deutlich verbessern. Sie ersetzt jedoch nicht die Kontrollarchitektur eines Hauses. Wenn diese Architektur unscharf bleibt, entsteht eine Grauzone – und genau dort beginnt das eigentliche Risiko. Für Asset Manager wird die entscheidende Frage der kommenden Jahre daher nicht sein, ob sie KI einsetzen. Sondern ob sie nachvollziehbar erklären können, wie ihre Systeme überwacht, verändert und kontrolliert werden.
Diesen Beitrag teilen: