A cura di Adi Polak, Director of Advocacy and Developer Experience Engineering, Confluent
L’intelligenza artificiale generativa si trova al massimo della sua popolarità ma si sta già evolvendo in una nuova tecnologia di generazione più avanzata basata sul machine learning: l’intelligenza artificiale agentica.
Con l’intelligenza artificiale agentica un utente non si limita a sollecitare un modello e a ricevere una risposta all’interno di un semplice processo con un’unica fase. L’intelligenza artificiale agentica si interfaccia con processi complessi a più fasi e spesso interagisce con diversi sistemi per ottenere il risultato desiderato. Ad esempio, un’organizzazione potrebbe disporre di un help desk basato sull’intelligenza artificiale con agent che utilizzano l’elaborazione del linguaggio naturale per comprendere e processare i ticket di supporto IT dei dipendenti. Questi agent potrebbero reimpostare autonomamente le password, installare aggiornamenti software e segnalare i ticket al personale umano, se necessario.
Gli agent rappresentano una delle innovazioni più significative nel settore dell’intelligenza artificiale, forse più delle future generazioni di modelli base. Entro il 2028, Gartner prevede che l’intelligenza artificiale agentica prenderà almeno il 15% delle decisioni quotidiane sul posto di lavoro, rispetto allo 0% nel 2024.
Tuttavia, nonostante gli agent AI siano in grado di migliorare l’efficienza, permettere un risparmio sui costi e consentire al personale IT di potersi concentrare su progetti più strategici che richiedono il ragionamento umano, non sono esenti da sfide. Prima di implementare un’infrastruttura di intelligenza artificiale, le imprese dovrebbero essere preparate a risolvere alcune criticità che, altrimenti, potrebbero avere un impatto sull’affidabilità e sulla sicurezza dei sistemi e dei risultati.
Logica dei modelli e pensiero critico
Nell’intelligenza artificiale agentica, un agent funge da “pianificatore” e orchestra le azioni di più agent. Il modello include una funzione di “pensatore critico” che offre feedback sull’output del pianificatore e sui diversi agent che stanno eseguendo le istruzioni. Maggiore è il feedback che si riceve, maggiori saranno gli insight sul modello e migliori saranno i risultati.
Per fare in modo che tutto questo funzioni bene, il modello del pensatore critico deve essere addestrato su dati il più possibile radicati nella realtà. In altre parole, dobbiamo fornire molte informazioni su obiettivi, piani, azioni, risultati specifici e fornire molti feedback. Questo può richiedere molte iterazioni, attraverso centinaia o addirittura migliaia di piani e risultati, prima che il modello disponga di dati sufficienti per iniziare ad agire come un pensatore critico.
Affidabilità e prevedibilità
Il modo in cui interagiamo oggi con i computer è prevedibile. Ad esempio, quando si programma un software comune, un ingegnere scrive un codice e comunica al computer esattamente cosa fare, passo dopo passo. In un processo di intelligenza artificiale con agent, al software non viene detto cosa fare passo dopo passo, ma si indica il risultato che si vuole ottenere e sarà lui stesso a determinare come raggiungerlo. L’agent ha un certo grado di autonomia e questo significa che può esserci una certa casualità negli output.
Abbiamo riscontrato un problema simile con ChatGPT e altri sistemi di intelligenza artificiale generativa basati su LLM, quando hanno debuttato per la prima volta. Ma negli ultimi due anni, abbiamo assistito a notevoli miglioramenti nella coerenza dei risultati dell’intelligenza artificiale generativa, grazie alla messa a punto, ai cicli di feedback umani e agli sforzi costanti per addestrare e perfezionare questi modelli. Dovremo impegnarci in maniera simile per ridurre al minimo la casualità dei sistemi di intelligenza artificiale agentici, per renderli più prevedibili e affidabili.
Data privacy e security
Alcune aziende sono riluttanti a utilizzare l’Agentic AI a causa di problemi di privacy e sicurezza, simili a quelli dell’intelligenza artificiale generativa ma potenzialmente più critici. Ad esempio, quando un utente interagisce con un LLM, ogni bit di informazione fornita al modello viene incorporato al suo interno. Non si può tornare indietro e chiedere di “dimenticare” quell’informazione. Alcuni tipi di attacchi cybercriminali, come il prompt injection, cercano di impossessarsi delle informazioni all’interno dei modelli. Gli agent software hanno accesso a molti sistemi diversi con un elevato livello di autonomia, per questo aumenta il rischio che possano esporre dati sensibili provenienti da più fonti.
Per risolvere questo problema le aziende devono iniziare in piccolo, containerizzando il più possibile i dati, per garantire che non vengano esposti oltre il dominio interno in cui sono necessari. È inoltre fondamentale rendere i dati anonimi, oscurando l’utente ed eliminando qualsiasi informazione personale (come numeri di conto bancario o indirizzo) dal prompt, prima di inviarli al modello.
A un livello più alto, è possibile esaminare 3 diversi tipi di sistemi basati sull’intelligenza artificiale agentica e le rispettive implicazioni sulla sicurezza in azienda:
- Agentic AI per il consumatore: in genere un’interfaccia utente interna con un modello di intelligenza artificiale esterno. L’azienda non ha alcun controllo sull’intelligenza artificiale stessa, ma solo sui dati e sulle istruzioni che invia;
- Agentic AI per i dipendenti: costruita internamente e per uso interno. Il rischio è minore ma è possibile che informazioni altamente private siano esposte a utenti non qualificati all’interno dell’azienda. Ad esempio, le organizzazioni possono decidere di creare la propria esperienza simile a GPT solo per uso interno;
- Agentic-AI per i clienti: creato da un’azienda al servizio dei propri clienti. Poiché esiste qualche rischio nell’interazione e nel lavoro con i clienti, il sistema deve avere una buona segmentazione per evitare di esporre i dati privati dei clienti.
Qualità e pertinenza dei dati
Una volta che i dati e l’utente sono stati resi anonimi, il modello di agent deve fornire risultati basati su dati di qualità e pertinenti alla richiesta dell’utente. Questa è una sfida significativa. Troppo spesso, i modelli di intelligenza artificiale generativa non riescono a fornire i risultati attesi perché sono disconnessi da dati più accurati e attuali. I sistemi di intelligenza artificiale agentica devono affrontare ulteriori problemi, perché accedono ai dati attraverso un’ampia varietà di piattaforme e fonti diverse.
Una piattaforma di data streaming (data streaming platform DSP) può essere utile perché permette agli ingegneri di abilitare risposte pertinenti basati su dati di alta qualità. Ad esempio, gli sviluppatori possono utilizzare Apache Kafka e Kafka Connect per importare dati da fonti disparate e Apache Flink per comunicare con altri modelli. I sistemi di intelligenza artificiale agentica avranno successo, sconfiggeranno le allucinazioni e daranno le risposte giuste solo se saranno basati su dati aggiornati e affidabili.
ROI e nuove competenze
L’intelligenza artificiale è ancora un territorio inesplorato per molte organizzazioni e richiede l’acquisto di nuovo hardware, GPU e la creazione di una nuova infrastruttura di dati con una nuova gestione della memoria, per salvare attività nella cache e per l’archiviazione a breve e lungo termine. Necessita inoltre della creazione, in azienda, di un modello di inferenza. Per questo si dovranno assumere nuovi talenti con competenze specifiche o formare i dipendenti sull’intelligenza artificiale. Il ritorno sull’investimento richiederà tempo, soprattutto per gli early adopter.
Nonostante questi ostacoli, l’intelligenza artificiale agentica si diffonderà nelle imprese come già successo con l’intelligenza artificiale generativa. Alcuni fornitori di tecnologia AI si stanno già muovendo in questa direzione. Ad esempio, Microsoft Copilot si è evoluto dalla semplice automazione di processi di codice all’azione in modalità agent, per scrivere e testare il codice.
Prima che le aziende possano vedere i vantaggi dell’intelligenza artificiale agentica, dovranno essere preparate a risolvere i problemi di affidabilità, privacy, qualità dei dati e logica del modello. Dovranno inoltre sostenere investimenti significativi in anticipo. Tuttavia, l’impatto potenziale sull’azienda potrebbe essere molto maggiore di quello sperimentato adesso con l’intelligenza artificiale generativa.