Questions & réponses

Retrouvez les principales questions que se posent les fonds sur l'IA, la Data, la souveraineté et la transformation de leurs opérations.

2 résultats · #Supervision humaine

Qu'est-ce qu'un agent IA dans le contexte d'un fonds, et en quoi est-ce différent d'un outil SaaS classique ?

Qu'est-ce qu'un agent IA dans le contexte d'un fonds, et en quoi est-ce différent d'un outil SaaS classique ?
Un SaaS classique exécute des actions préprogrammées : si X, alors Y. Un agent IA, lui, reçoit un objectif, comprend le contexte, planifie ses étapes et exécute une séquence d'actions en s'adaptant aux données qu'il rencontre. Cette autonomie est son intérêt et son risque.
Dans un fonds, les cas d'usage pertinents pour un agent sont bien cadrés : traitement d'emails fournisseurs, enrichissement d'une fiche deal, préparation automatique d'un pack de comité à partir d'une data room, surveillance de signaux sur des entreprises cibles. Les cas mal cadrés (prise de décision d'investissement, envoi d'une communication à un LP sans relecture) ne sont pas des cas pour agents, ce sont des cas pour humains assistés.
Le bon agent a quatre caractéristiques : un périmètre clair, une supervision humaine à chaque étape sensible, une traçabilité complète, et une réversibilité en cas de comportement inattendu. Bodic développe ses agents selon ces principes dans le cadre de ses développements sur mesure.

Comment éviter les hallucinations d'un agent IA sur des données financières ?

Comment éviter les hallucinations d'un agent IA sur des données financières ?
Les hallucinations constituent le principal risque d’usage des agents IA dans un contexte financier. Elles ne relèvent pas d’erreurs aléatoires, mais d’un comportement structurel des modèles lorsqu’ils ne disposent pas d’une information fiable ou suffisamment contrainte.
Trois niveaux de contrôle permettent de réduire fortement ce risque.
Le premier est l’ancrage strict sur une source de vérité certifiée. L’agent ne doit pas s’appuyer sur des connaissances générales ou des données implicites, mais uniquement sur un référentiel interne maîtrisé. Chaque réponse doit être associée à une source identifiable, accessible et vérifiable. Une réponse non sourcée doit être considérée comme invalide par défaut.
Le deuxième niveau est la restriction du périmètre fonctionnel et informationnel. Un agent doit intervenir sur un domaine précis, avec un jeu de données limité et maîtrisé. Plus le périmètre est large, plus le risque d’interprétation approximative augmente. En pratique, un agent spécialisé sur un sous-ensemble de données financières, par exemple les KPI d’une participation ou les flux Middle Office, est significativement plus fiable qu’un agent généraliste.
Le troisième niveau est la mise en place de contrôles systématiques sur les outputs. Toute information chiffrée destinée à un usage externe, notamment à destination des investisseurs, doit faire l’objet d’une validation humaine. Cette validation doit s’appuyer sur une traçabilité complète : requête initiale, sources mobilisées, transformations appliquées et réponse générée.
Au-delà de ces principes, l’architecture technique joue un rôle déterminant. Une approche structurée consiste à isoler la couche IA des données brutes, à passer par un référentiel centralisé, puis à exposer uniquement des données validées aux agents. Cela permet de contrôler précisément ce que l’agent peut voir et utiliser.
Enfin, il est important de traiter les hallucinations comme un sujet de gouvernance, et non uniquement comme un problème technique. Cela implique de définir des règles d’usage, des niveaux de responsabilité et des mécanismes de supervision adaptés aux enjeux financiers.
Un agent fiable n’est pas celui qui “répond bien”, mais celui dont chaque réponse peut être expliquée, tracée et vérifiée.