di Armin M. Warda, Chief Technologist FSI EMEA di Red Hat
AI e ML sono temi particolarmente caldi oggi: sempre più aziende si affidano a queste tecnologie per implementare le proprie operazioni e i processi produttivi, e le istituzioni finanziarie non fanno certo eccezione. In questo contesto, l’affidabilità dell’AI è sempre più cruciale, anche visti i crescenti requisiti normativi. La tracciabilità e la spiegabilità dei modelli di AI/ML sono importanti per creare fiducia e accettazione nella loro adozione e assicurarne il miglioramento continuo. Strategie, tecnologie e soluzioni open source trasparenti avranno quindi un ruolo centrale per la loro implementazione.
Le tecnologie di AI e ML sono già utilizzate con successo in alcuni ambiti del settore finanziario, con scenari applicativi classici che includono la gestione del rischio o il rilevamento di anomalie, soprattutto in relazione alle transazioni per il rilevamento di frodi e il riciclaggio di denaro. L’elaborazione del linguaggio naturale viene utilizzata anche per l’analisi dei documenti o per i chatbot interattivi. Infine, gli istituti finanziari utilizzano AI e ML in aree quali la segmentazione dei clienti, l’iper-personalizzazione e la definizione di strategie di marketing sempre più avanzate
AI e ML sono già utilizzati da molte imprese di quasi tutti i settori, con il successo di ChatGPT che ne ha reso ancor più visibili i benefici e ha contribuito ad accelerarne l’adozione. Di conseguenza, è naturale prevedere un incremento nell’uso di AI e ML anche nel settore finanziario, persino nei sistemi centrali. Le soluzioni che soddisfano il criterio di “AI affidabile” svolgeranno un ruolo importante in questo senso. Dopotutto, gli istituti finanziari sono vincolati da rigidi requisiti normativi.
AI Act: un quadro normativo per definire le direzioni di sviluppo
L’AI Act (Artificial Intelligence Act) dell’UE, una normativa dedicata allo sviluppo e all’utilizzo dell’AI, sarà di grande importanza in futuro. L’AI Act conterrà un quadro normativo che si applicherà anche al settore finanziario. Sebbene la configurazione finale non sia ancora definita, si può presumere che la normativa conterrà requisiti rigorosi per l’uso dei sistemi di AI, che determineranno, ad esempio, se le banche potranno gestire applicazioni per la valutazione del rischio, utilizzando ad esempio i modelli di AI per valutare l’affidabilità creditizia di un cliente.
Attualmente esistono diverse iniziative volte a promuovere l’applicazione dell’AI affidabile nelle aziende, tra cui spicca la più estesa in Europa, appliedAI. Nata nel 2017 da UnternehmerTUM, l’iniziativa mira a rafforzare l’innovazione europea nel campo dell’AI: grazie alla partecipazione di NVIDIA, NetApp, Red Hat e Munich Re, appliedAI ha esaminato l’uso dell’AI affidabile in vari ambiti, tra cui finanza e assicurazioni. Una stretta collaborazione tra diverse aziende è comunque indispensabile per il successo dell’introduzione delle applicazioni di AI. Di norma, nell’implementazione sono sempre coinvolti tre tipologie di partner: un fornitore e gestore di piattaforme, un fornitore di software indipendente con soluzioni di AI e ML e un Global System Integrator.
I principi dell’open source alla base di un’AI affidabile
Ma quali sono i prerequisiti per fornire un’AI affidabile? Qui che entrano in gioco strategie, tecnologie e soluzioni open source, proprio per le loro intrinseche proprietà di trasparenza e collaborazione. La trasparenza, infatti, è sinonimo di dati facilmente accessibili e processi decisionali tracciabili, mentre la collaborazione garantisce uno scambio continuo tra tutte le parti, che porta a risultati migliori, più efficienti e più sostenibili. Questo approccio open source può anche costituire un punto di riferimento per l’AI/ML in termini di affidabilità. L’affidabilità dell’AI riguarda in ultima analisi aspetti quali spiegabilità, equità, trasparenza, tracciabilità, riproducibilità, robustezza e monitorabilità dei modelli.
Le piattaforme ibride favoriscono l’implementazione dell’AI
L’open source è quindi un aspetto cruciale nel percorso verso un’AI affidabile. Allo stesso modo, le piattaforme cloud ibride aperte basate su Kubernetes con controlli di sicurezza, versioning e archiviazione possono costituire la base sia per l’implementazione di AI e ML che per lo sviluppo, l’addestramento e l’incorporazione di nuovi modelli di AI in tutte le applicazioni, anche in ambito bancario.
In genere, per modellare l’AI, i data scientist conducono dei processi di formazione, test e riadattamento al di fuori dell’ambiente IT produttivo degli istituti finanziari. Il passaggio, poi, all’implementazione delle applicazioni di AI in un ambiente produttivo e, nello specifico, la loro integrazione nei sistemi bancari, richiede di rispettare le specifiche best practice e le norme di sicurezza, di conformità e di governance dell’istituto finanziario. È proprio per favorire questi compiti e processi che le piattaforme aperte rappresentano un’ottima base, in quanto consentono di progettare i modelli in modo affidabile e accelerare il cambio di passo tra la fase di sperimentazione l’operatività. I concetti di MLOps (Machine Learning Operations), in particolare, stanno acquisendo crescente importanza. Questi si basano su collaudati principi DevOps e mirano allo sviluppo, alla fornitura, alla gestione e alla manutenzione efficiente dei modelli di apprendimento automatico. I modelli di ML sono quindi confezionati in container e distribuiti in modo sicuro utilizzando le procedure DevOps. Il grande vantaggio dei processi MLOps è che possono supportare sia i data scientist nella fase di sviluppo sia i team operativi nella distribuzione dei modelli di ML in un ambiente di produzione.
Il concetto di piattaforma porta a un’elevata flessibilità e resilienza
Una piattaforma open hybrid cloud può anche offrire alle aziende maggiore flessibilità in termini di infrastruttura utilizzata, consentendo di gestire a piacimento il passaggio da ambienti on-premise a cloud. Tale concetto di piattaforma consente, ad esempio, lo sviluppo e l’addestramento del modello di ML nel cloud utilizzando dati di test sintetici, con il successivo incorporamento del modello nell’applicazione on-premise. Al contrario, è possibile addestrare i modelli con i propri dati altamente sensibili nel proprio data center e poi utilizzarli nel cloud.
Inoltre, una strategia open source e di cloud ibrido è vantaggiosa per garantire la conformità ai nuovi regolamenti DORA (Digital Operational Resilience Act) dell’UE, che obbligano le società finanziarie ad assicurare la resilienza delle tecnologie utilizzate per i processi e le applicazioni business-critical e la stabilità operativa dei sistemi digitali. Basandosi su un’infrastruttura cloud ibrida, le aziende possono eseguire le applicazioni in ambienti diversi, supportando al contempo la portabilità delle applicazioni. Ciò contribuisce in modo significativo a rafforzare la resilienza digitale.
Per fare in modo che l’utilizzo dell’AI sia accettato sia da un punto di vista politico-normativo che sociale, la fiducia è un criterio decisivo. In molti settori che devono soddisfare requisiti normativi elevati, sarà quindi indispensabile creare un’AI affidabile che sia spiegabile e rispetti i principi legali ed etici. Nell’implementazione dei corrispondenti scenari di AI, i principi dell’open source svolgeranno un ruolo cruciale.