Fragen & Antworten

Finden Sie die wichtigsten Fragen, die Fonds zu KI, Daten, Souveränität und der Transformation ihrer Abläufe stellen.

4 Ergebnisse · #Verwaltung von Daten

Welche neuen Rollen müssen in einem Fonds mit KI und Data entstehen?

Welche neuen Rollen müssen in einem Fonds mit KI und Data entstehen?
Die Einführung von KI und Data in einem Fonds führt nicht zu einem abrupten Bruch in den Berufen, sondern lässt neue Rollen rund um die Strukturierung der Daten, die Governance und die operative Nutzung entstehen.
Die erste Schlüsselrolle ist die des fachlichen Data Owners. Er trägt die Verantwortung für einen kritischen Datenumfang, z. B. Beteiligungen, Investoren oder die Pipeline. Er definiert die Indikatoren, die Verwaltungsregeln, die erwarteten Formate und die Qualitätsstandards. Ohne diese Rolle bleiben die Daten diffus und schwer verwertbar.
Die zweite Rolle ist die des Data / AI Lead. Er steuert die Data- und AI-Roadmap des Fonds, priorisiert die Anwendungsfälle, entscheidet über die Wahl der Tools und gewährleistet die globale Kohärenz. Er fungiert als Konvergenzpunkt zwischen den Investmentteams, dem Middle Office, der IR und den Unterstützungsfunktionen.
Eine dritte Rolle entsteht rund um den Operational Data Manager. Er befindet sich im Zentrum der Operationen, häufig im Middle Office, und stellt sicher, dass die Datenströme korrekt gesammelt, kontrolliert, konsolidiert und verbreitet werden. Er ist für die operative Qualität und den reibungslosen Ablauf der Datenkette verantwortlich.
Mit der KI entsteht auch eine spezifischere Rolle des KI-Berufschampions. Dieses Profil muss nicht unbedingt technisch sein, aber es beherrscht die Werkzeuge und ihre Nutzung. Es begleitet die Teams bei der Einführung, identifiziert relevante Anwendungsfälle und formalisiert bewährte Verfahren, insbesondere in Bezug auf die Überwachung und die Grenzen von KI-Agenten.
Schließlich wird eine übergreifende Rolle der Daten- und KI-Governance unerlässlich. Sie deckt die Themen Rückverfolgbarkeit, Sicherheit, Einhaltung und Kontrolle ab. In einem LP- und Regulierungskontext wird die Fähigkeit, Daten oder Entscheidungen zu erklären, genauso wichtig wie sie zu produzieren.
Es ist nicht notwendig, sofort ein dediziertes Team zu strukturieren. In den meisten Fonds entstehen diese Rollen allmählich aus den bestehenden Teams. Die Herausforderung besteht darin, die Verantwortlichkeiten zu identifizieren, den Umfang zu klären und einen gezielten Kompetenzaufbau zu strukturieren.
Der Schlüsselpunkt bleibt die fachliche Verankerung. Diese Rollen dürfen nicht in einer rein technischen Logik isoliert werden, sondern müssen in den Kern der Investitions- und Verwaltungsprozesse integriert werden. Es ist diese Nähe, die es ermöglicht, Daten in einen echten Leistungshebel zu verwandeln.

Wie können Halluzinationen eines KI-Agenten bei Finanzdaten verhindert werden?

Wie können Halluzinationen eines KI-Agenten bei Finanzdaten verhindert werden?
Halluzinationen sind das größte Risiko beim Einsatz von KI-Agenten im Finanzkontext. Sie sind nicht auf zufällige Fehler zurückzuführen, sondern auf ein strukturelles Verhalten der Modelle, wenn ihnen keine zuverlässigen oder ausreichend eingeschränkten Informationen zur Verfügung stehen.
Dieses Risiko lässt sich durch drei Kontrollebenen stark reduzieren.
Die erste ist die strikte Verankerung an einer zertifizierten Wahrheitsquelle. Der Agent darf sich nicht auf allgemeines Wissen oder implizite Daten stützen, sondern nur auf ein kontrolliertes internes Referenzsystem. Jede Antwort muss mit einer identifizierbaren, zugänglichen und überprüfbaren Quelle verknüpft sein. Eine nicht quellenbasierte Antwort sollte standardmäßig als ungültig betrachtet werden.
Die zweite Ebene ist die Beschränkung des funktionalen und informationellen Umfangs. Ein Agent muss in einem bestimmten Bereich mit einem begrenzten und kontrollierten Datensatz tätig werden. Je breiter der Umfang, desto größer ist das Risiko einer ungefähren Interpretation. In der Praxis ist ein Agent, der auf eine Untermenge von Finanzdaten spezialisiert ist, z. B. die KPIs einer Beteiligung oder die Middle-Office-Feeds, signifikant zuverlässiger als ein generalistischer Agent.
Die dritte Ebene ist die Einführung systematischer Kontrollen der Outputs. Alle Zahleninformationen, die für den externen Gebrauch bestimmt sind, insbesondere für Investoren, müssen einer menschlichen Validierung unterzogen werden. Diese Validierung muss sich auf eine vollständige Rückverfolgbarkeit stützen: ursprüngliche Anfrage, mobilisierte Quellen, angewandte Transformationen und generierte Antwort.
Über diese Grundsätze hinaus spielt die technische Architektur eine entscheidende Rolle. Ein strukturierter Ansatz besteht darin, die KI-Schicht von den Rohdaten zu isolieren, ein zentrales Repository zu verwenden und den Agenten nur validierte Daten zu präsentieren. So lässt sich genau kontrollieren, was der Agent sehen und verwenden kann.
Schließlich ist es wichtig, Halluzinationen als ein Thema der Governance zu behandeln und nicht nur als ein technisches Problem. Das bedeutet, Nutzungsregeln, Verantwortungsebenen und Aufsichtsmechanismen zu definieren, die den finanziellen Herausforderungen angemessen sind.
Ein zuverlässiger Agent ist nicht derjenige, der "gut antwortet", sondern derjenige, bei dem jede Antwort erklärt, zurückverfolgt und verifiziert werden kann.

Wie strukturiert man eine robuste Datenkette in einer Verwaltungsgesellschaft?

Wie strukturiert man eine robuste Datenkette in einer Verwaltungsgesellschaft?
Die Strukturierung einer robusten Datenkette in einer Verwaltungsgesellschaft besteht darin, den Informationsfluss von der Produktion bis zur Endnutzung explizit, kontrolliert und zuverlässig zu gestalten.
Konkret bedeutet dies, mehrere Schlüsselschritte zu formalisieren: Identifizierung der Datenquellen (E-Mails, Dateien, Portale, APIs), Definition der Speicherorte (interne Datenbanken, Data Warehouse, Business-Tools), Organisation der Transformationen (Bereinigung, Anreicherung, Konsolidierung) und dann Strukturierung der Verteilung an die Endnutzer (Reporting, Komitees, Anlegerkommunikation, regulatorische Verpflichtungen).
Eine robuste Datenkette beruht auf einigen grundlegenden Prinzipien.
Zunächst einmal muss jeder kritische Datensatz klar definiert sein: eine identifizierte Quelle, ein Referenzformat, eine Aktualisierungshäufigkeit und ein Verantwortlicher. Ohne diese Disziplin kommt es schnell zu Diskrepanzen zwischen Teams, Tools und Lieferungen.
Zweitens ist es von entscheidender Bedeutung, Redundanzen zu begrenzen. Die Vervielfachung von Excel-Dateien, lokalen Extraktionen oder parallelen Versionen führt zu Inkonsistenzen und schwächt das Vertrauen in die Zahlen. Ziel ist es, zu einer gemeinsamen, zugänglichen und kontrollierten "Quelle der Wahrheit" zu konvergieren.
Auch die Nachvollziehbarkeit ist zentral. Jede Zahl, die in einer Berichterstattung oder einem Ausschuss verwendet wird, muss mit ihrem Ursprung verbunden werden können, mit einer Historie der Umwandlungen. Dies wird kritisch, sobald die LP- oder regulatorischen Anforderungen steigen.
Schließlich beinhaltet eine robuste Kette auch Kontrollmechanismen: Validierungsregeln, Warnungen bei Anomalien, menschliche Aufsicht an sensiblen Punkten. Dieser Rahmen ermöglicht es, die Qualität zu sichern, ohne die Abläufe zu verlangsamen.
Die Herausforderung geht weit über die Technik hinaus. Eine gut strukturierte Datenkette verbessert die Qualität der Berichte, erleichtert die Zusammenarbeit zwischen den Teams (Investment, IR, Middle Office, Compliance), erhöht die Glaubwürdigkeit gegenüber den Anlegern und beschleunigt die Entscheidungsfindung.
Dies ist auch eine Grundvoraussetzung für den effektiven Einsatz von KI-Tools. Ohne strukturierte, zuverlässige und gesteuerte Daten verstärkt die KI bestehende Mängel, anstatt Werte zu schaffen.

Kann die Berichterstattung über Beteiligungen wirksam automatisiert werden?

Kann die Berichterstattung über Beteiligungen wirksam automatisiert werden?
Ja, die Automatisierung der Berichterstattung über Beteiligungen ist nicht nur möglich, sondern auch einer der unmittelbarsten Hebel für operative Verbesserungen in einem Fonds.
In den meisten Organisationen beruht der Prozess noch auf manuellen Erhebungen, heterogenen Dateien, die von den Beteiligungen übermittelt werden, und Konsolidierungen, die in Excel durchgeführt werden. Dieses Modell weist mehrere Schwachstellen auf: Abhängigkeit von nicht standardisierten Formaten, Fehlerrisiken bei der Anpassung, fehlende Rückverfolgbarkeit und hohe Produktionszeiten.
Eine wirksame Automatisierung hängt von der Strukturierung der Datenkette im Vorfeld ab.
Der erste Schritt ist die Standardisierung der Inputs. Dies bedeutet, dass ein gemeinsames Datenwörterbuch mit den Beteiligungen definiert werden muss, das klar definierte Indikatoren, erwartete Formate, explizite Berechnungsregeln und einen Zeitplan für die Rückführung enthält. Ohne diese Standardisierung bleibt jede Automatisierung unvollständig.
Zweiter Schritt: Organisieren Sie die Sammlung. Dies kann über spezielle Portale, strukturierte Templates oder Konnektoren erfolgen. Ziel ist es, Formatvariationen zu reduzieren und manuelle Eingriffe zu begrenzen.
Dritter Schritt: Die Kontrollen industrialisieren. Automatische Regeln ermöglichen die Erkennung von Inkonsistenzen, Variationsabweichungen, Reihenbrüchen oder Anomalien zwischen verbundenen Indikatoren. Diese Kontrollen müssen systematisch und nachvollziehbar sein.
Vierter Schritt: Zentralisierung in einer einzigen Wahrheitsquelle. Die konsolidierten Daten müssen direkt in die Reporting-, BI- und Investorenkommunikationstools eingespeist werden, um Doppelarbeit oder lokale Nachbearbeitung zu vermeiden.
In diesem Rahmen kann die Automatisierung die Produktion sichern, die Fristen verkürzen und die Zuverlässigkeit der Ergebnisse deutlich erhöhen.
Die Rolle der Teams ändert sich. Sie wechseln von einer Produktionslogik zu einer Kontroll- und Analyselogik. Die Herausforderung besteht nicht mehr darin, Daten zu konsolidieren, sondern sie zu interpretieren, schwache Signale zu erkennen und Entscheidungen vorzubereiten.
Schließlich bleibt der kritische Punkt die Governance. Eine Automatisierung ohne klare Regeln für Datenqualität, Verantwortlichkeiten und Validierungsprozesse kann die Zuverlässigkeit insgesamt verschlechtern. Die Automatisierung muss in einen strengen Rahmen eingebettet sein, der auf Kontrolle, Nachvollziehbarkeit und Konsistenz ausgerichtet ist.