Microsoft ha pubblicato oggi la sesta edizione di Cyber Signals – il report di intelligence dedicato alle minacce informatiche, basato sui dati e sulle analisi condotte da Microsoft – che illustra l’impegno dell’azienda nella protezione delle piattaforme di intelligenza artificiale dai tentativi di abuso e di minaccia provenienti da Stati nazionali.
L’edizione di quest’anno, elaborata in collaborazione con OpenAI, raccoglie le informazioni sugli attori delle minacce affiliati a uno Stato che hanno cercato di utilizzare modelli linguistici di grandi dimensioni (LLM) per aumentare le loro operazioni di attacco. La ricerca mette in luce le mosse incrementali dei soggetti malevoli che sono state rilevate da Microsoft, e dimostra le azioni intraprese dall’azienda stessa per bloccare le loro attività e proteggere le piattaforme AI e gli utenti. Grazie alle soluzioni e alle tecnologie impiegate a protezione degli utenti, Microsoft è in grado di intercettare un grande tasso di traffico malevolo, stimato in oltre 65 trilioni di segnali al giorno.
Allo stesso tempo, Microsoft sta aiutando la comunità di sicurezza a comprendere e rilevare le prospettive emergenti degli LLM nelle attività di attacco, auspicando l’inclusione dei risultati del report all’interno del framework MITRE ATT&CK®, per aiutare i team operativi di sicurezza di tutto il mondo ad anticipare e riconoscere le minacce informatiche assistite dall’IA.
In questa edizione di Cyber Signals vengono anche fornite informazioni su come Microsoft stessa utilizza l’AI per proteggere i propri asset interni e su come gli attori delle minacce utilizzino l’AI per perfezionare i loro attacchi. I criminali informatici e gli attori sponsorizzati da Stati stanno sfruttando l’AI per sviluppare strategie di attacco sempre più sofisticate, tra cui l’automazione degli attacchi e la creazione di deepfake convincenti per le campagne di phishing e la sintesi vocale, dove un campione di voce di tre secondi può addestrare un modello a parlare come chiunque.
Microsoft utilizza diversi metodi per proteggersi da questo tipo di minacce informatiche, tra cui il rilevamento delle minacce abilitato dall’AI per individuare i cambiamenti nelle modalità di utilizzo delle risorse o del traffico sulla rete; l’analisi comportamentale per rilevare accessi rischiosi e comportamenti anomali; l’utilizzo di modelli di machine learning per rilevare accessi rischiosi e malware; l’applicazione della strategia Zero Trust, in cui ogni richiesta di accesso deve essere completamente autenticata, autorizzata e crittografata; e la verifica dello stato di salute dei dispositivi aziendali prima che essi vengano connessi alla rete interna. Soprattutto nel contesto aziendale, un dato emblematico ricorda l’importanza e l’efficacia dei sistemi di protezione basati sull’autentificazione a più fattori: Microsoft ha infatti analizzato che il rischio di account takeover viene ridotto del 99% se l’autentificazione multi-fattore è attivata per tutti gli utenti e per gli amministratori dei sistemi.
In questo scenario, l’introduzione di strumenti come Microsoft Copilot for Security ha dimostrato i suoi vantaggi: gli utenti che hanno avuto accesso a Copilot for Security hanno registrato un aumento del 44% della precisione in tutte le attività e un tasso di completamento più rapido del 26%. Questi dati evidenziano i vantaggi tangibili dell’integrazione dell’AI nelle pratiche di cybersecurity.
Il ruolo dell’AI nella cybersecurity è multiforme, in quanto promuove l’innovazione e l’efficienza in vari settori. Dal miglioramento del rilevamento delle minacce alla semplificazione della risposta agli incidenti, le capacità dell’AI stanno rimodellando la cybersecurity. I modelli di AI, se usati a fin di bene, possono analizzare grandi quantità di dati per scoprire schemi e tendenze delle minacce informatiche, aggiungendo un contesto prezioso alle informazioni sulle minacce. Assistono in compiti tecnici come il reverse engineering e l’analisi del malware, fornendo un nuovo livello di difesa contro i cyberattacchi.
Oggi le organizzazioni devono costruire una base sicura e adottare soluzioni di cybersecurity basate sull’AI in grado di adattarsi all’evoluzione delle minacce, rilevare le anomalie in tempo reale e rispondere rapidamente per neutralizzare i rischi.
L’approccio di Microsoft all’AI nella cybersecurity è proattivo ed esplorativo, volto a studiare come l’AI possa migliorare le misure di sicurezza esistenti, come l’identificazione di modelli in grandi insiemi di dati e la creazione di simulazioni realistiche. Microsoft sta inoltre studiando applicazioni innovative, come l’utilizzo dell’AI generativa per sviluppare codici sicuri e l’impiego dell’apprendimento automatico per rilevare e rispondere alle minacce in modo istantaneo.
Per saperne di più: https://www.microsoft.com/en-us/security/blog/