Domande & Risposte

Trovate le principali domande che i fondi si pongono su IA, Dati, sovranità e la trasformazione delle loro operazioni.

2 risultati · #Supervisione umana

Che cos'è un agente AI nel contesto di un fondo e in che modo è diverso da uno strumento SaaS tradizionale?

Che cos'è un agente AI nel contesto di un fondo e in che modo è diverso da uno strumento SaaS tradizionale?
Un SaaS tradizionale esegue azioni pre-programmate: se X, allora Y. Un agente AI, invece, riceve un obiettivo, comprende il contesto, pianifica i suoi passi ed esegue una sequenza di azioni adattandosi ai dati che incontra. Questa autonomia è allo stesso tempo un vantaggio e un rischio.
In un fondo, i casi d'uso rilevanti per un agente sono ben definiti: elaborare le e-mail dei fornitori, arricchire un foglio di trattativa, preparare automaticamente un pacchetto di commissioni da una data room, monitorare i segnali sulle aziende target. I casi mal inquadrati (prendere una decisione di investimento, inviare una comunicazione a un LP senza correggere) non sono casi per agenti, ma per esseri umani assistiti.
Un buon agente ha quattro caratteristiche: un perimetro chiaro, la supervisione umana in ogni fase sensibile, la piena tracciabilità e la reversibilità in caso di comportamento imprevisto. Bodic sviluppa i suoi agenti secondo questi principi come parte dei suoi sviluppi su misura.

Come si può impedire a un agente AI di avere allucinazioni sui dati finanziari?

Come si può impedire a un agente AI di avere allucinazioni sui dati finanziari?
Le allucinazioni sono il rischio principale quando si utilizzano agenti di intelligenza artificiale in un contesto finanziario. Non sono dovute a errori casuali, ma al comportamento strutturale dei modelli quando non dispongono di informazioni affidabili o sufficientemente vincolate.
Tre livelli di controllo possono ridurre notevolmente questo rischio.
Il primo è il rigoroso ancoraggio a una fonte di verità certificata. L'agente non deve affidarsi a conoscenze generali o a dati impliciti, ma solo a un archivio interno controllato. Ogni risposta deve essere associata a una fonte identificabile, accessibile e verificabile. Una risposta priva di fonte deve essere considerata non valida per impostazione predefinita.
Il secondo livello è la restrizione del perimetro funzionale e informativo. Un agente deve operare in un'area specifica, con un insieme limitato e controllato di dati. Più ampio è il perimetro, maggiore è il rischio di interpretazioni approssimative. In pratica, un agente specializzato in un sottoinsieme di dati finanziari, ad esempio i KPI di una partecipazione azionaria o i flussi del Middle Office, è significativamente più affidabile di un agente generalista.
Il terzo livello è l'implementazione di controlli sistematici sugli output. Tutte le informazioni numeriche destinate all'esterno, in particolare agli investitori, devono essere convalidate da un essere umano. Questa convalida deve basarsi su una tracciabilità completa: la richiesta iniziale, le fonti utilizzate, le trasformazioni applicate e la risposta generata.
Al di là di questi principi, l'architettura tecnica gioca un ruolo decisivo. Un approccio strutturato consiste nell'isolare il livello di intelligenza artificiale dai dati grezzi, utilizzando un archivio centralizzato ed esponendo agli agenti solo i dati convalidati. Ciò consente un controllo preciso su ciò che l'agente può vedere e utilizzare.
Infine, è importante trattare le allucinazioni come un problema di governance, non solo come un problema tecnico. Ciò significa definire regole di utilizzo, livelli di responsabilità e meccanismi di supervisione adeguati alla posta in gioco.
Un agente affidabile non è un agente che "risponde bene", ma uno di cui ogni risposta può essere spiegata, tracciata e verificata.