Media

L’IA, le fragilità del sistema e la finanza strutturata: governare il cambiamento con misura

Negli ultimi due anni l’intelligenza artificiale è passata da essere una promessa tecnologica a uno strumento operativo nei desk di banche, fondi e società di servizi finanziari. Nella finanza strutturata – per i non addetti ai lavori, mi riferisco al mondo di cartolarizzazioni, CLO, ABS, note strutturate e derivati di copertura – l’impatto è già visibile, ponendo a tutti coloro che operano in questo settore alcune domande: che cosa possiamo attenderci nei prossimi anni? E che cosa dovremmo imparare a fare per non farci trovare impreparati di fronte ai rischi che questa innovazione in fortissima accelerazione potrebbe comportare?

Attualmente l’uso più maturo nella finanza strutturata della Generative AI riguarda la gestione documentale e l’analisi dei molteplici contratti di una cartolarizzazione. Modelli linguistici integrati con sistemi di ricerca interna consentono infatti d’interrogare migliaia di pagine in linguaggio naturale, estrarre clausole chiave e generare sintesi per comitati rischi o investitori. Ma anche attività cruciali come la selezione del portafoglio, il monitoraggio delle operazioni e le benchmark analisys si avvalgono utilmente di questa nuova tecnologia. Nel mercato dei derivati, l’ISDA, per esempio, ha pubblicato analisi su come utilizzare la GenAI nei processi documentali, sottolineandone il potenziale. Al medesimo tempo, però, ha posto in luce la necessità di controlli sui dati e sulla loro accuratezza. Nei prossimi anni – non molti – questa componente diventerà infatti una infrastruttura: non più progetto pilota, ma parte ordinaria del ciclo di vita di un’operazione strutturata, dalla origination al reporting.

Ancora maggiore di quello della Generative AI sarà l’impatto della Agentic AI, ovverosia dei sistemi capaci non soltanto di rispondere a domande in linguaggio naturale, ma in grado di pianificare e innescare in piena autonomia sequenze di vere e proprie azioni lungo tutto il ciclo operativo di un’operazione finanziaria. Combinando Generative AI e Agentic AI, pertanto, ci possiamo attendere tre linee evolutive: la compressione dei tempi di strutturazione; una sorveglianza continua dei portafogli; l’integrazione tra dati, modelli, narrativa.

Un simile contributo in termini di efficienza è certamente benvenuto. Non possiamo tuttavia nasconderci che la sua implementazione potrebbe implicare alcune fragilità di sistema. L’errore automatizzato su larga scala, anzitutto. E il rischio più insidioso: l’errore “plausibile”, ossia un’interpretazione errata, ma verosimile di clausole o trigger contrattuali.

Questa consapevolezza sta portando a crescenti attenzioni regolamentari che, pur tra legittime controversie di merito, non potranno che aumentare man mano che la Generative AI verrà affiancata operativamente dall’Agentic. Il Financial Stability Board, per esempio, tra gli altri, ha evidenziato i rischi di un eccesso di concentrazione tecnologica, la dipendenza da pochi provider e l’esposizione a vulnerabilità sistemiche. In Europa, il quadro regolamentare via via si sta chiarendo: l’European Banking Authority ha ribadito l’approccio prudente previsto dall’AI Act; l’European Central Bank ne tiene monitorato l’uso; mentre l’European Securities and Markets Authority, per parte sua, ha ribadito come la responsabilità finale resti in capo all’intermediario anche qualora, grazie all’AI, il processo fosse automatizzato.

Vi è poi una questione ancora più strutturale che merita la nostra attenzione: potremmo chiamarla “il potere delle piattaforme” dell’AI. L’ecosistema dell’intelligenza artificiale, infatti, si sta concentrando intorno a un numero limitato di attori che controllano l’infrastruttura cloud, la capacità di calcolo e lo sviluppo di modelli proprietari. È un’evoluzione che rischia di generare forme di dipendenza tecnologica e che nasconde un rischio sistemico, soprattutto se molte istituzioni finanziarie adottassero gli stessi strumenti.

La “proprietarizzazione” dei modelli può comportare opacità sui dati di addestramento, sulle logiche d’aggiornamento e sui limiti interni dei sistemi, rendendo più complesso il loro audit e aumentando il rischio di lock‑in tecnologico. Le piattaforme, inoltre, si trovano in una posizione informativa privilegiata: osservano pattern aggregati d’utilizzo, possono sviluppare servizi concorrenti o partnership strategiche, generando conflitti di interesse.

L’adozione dell’AI, insomma, non elimina la responsabilità, dilatandone semmai il perimetro. Le istituzioni devono trattare le piattaforme come fornitori critici, con audit, clausole contrattuali robuste, strategie multi‑provider e piani d’uscita. Mentre la sua governance va integrata nei framework di gestione del rischio operativo e di modello. Nei prossimi anni, quindi, la competenza decisiva non sarà soltanto tecnica, il che è ovvio, bensì organizzativa e culturale. Occorrerà imparare a verificare gli output, separare proposta e decisione, costruire governance robuste, coltivare competenze ibride e ridurre la dipendenza da singoli fornitori. La finanza strutturata è nata per gestire la complessità. L’intelligenza artificiale promette di renderla più efficiente. Ma più il sistema diventa rapido e automatico, più cresce la responsabilità di chi lo governa – e centrale la consapevolezza del potere concentrato nelle piattaforme che lo abilitano.

Per riassumere con un noto racconto Zen, se non vogliamo che il tè tracimi fuori dalla tazza, dobbiamo versarlo con ancor più cura di quella che sinora siamo stati abituati a prestare. Versiamolo, certo, ma senza troppa fretta. Solo così potremo essere saggi. O per chi non intendesse affidarsi alla saggezza antica, può sempre valere la massima di Peter Drucker, tra i padri della scienza del management, che in The Effective Executive, già nel 1967, avvertiva: “Non c’è nulla di più inutile che fare in modo efficiente ciò che non dovrebbe essere fatto.”

* Senior advisor di P&G Sgr

Enrica Landolfi