AI e campagne di disinformazione
Si ritiene che l’AI svolgerà un ruolo cruciale nelle campagne di disinformazione su vasta scala sulle piattaforme social media. Queste campagne possono verificarsi prima, durante e dopo grandi eventi globali, come conflitti geopolitici ed elezioni, che mettono in dubbio la fiducia nella capacità di verificare i fatti. Sebbene manchino prove concrete, l’intelligence open source suggerisce un trend in crescita dell’utilizzo dell’AI nelle campagne di disinformazione.
Darrell West, senior fellow presso il Center for Technology Innovation della Brookings Institution, ha recentemente lanciato un allarme sul potenziale impatto di questo caso d’uso, affermando che “ci sarà uno tsunami di disinformazione nelle prossime elezioni; in pratica, chiunque può usare l’intelligenza artificiale per creare video e audio falsi, e sarà quasi impossibile distinguere il reale dal fake.”
A questo fa eco la creazione di deepfake. Sebbene non siano direttamente collegati alla sicurezza informatica tradizionale, i deepfake iniziano a essere combinati con attacchi di social engineering. Questa intersezione tra tecnologia e manipolazione è fonte di preoccupazione per i professionisti della sicurezza, soprattutto perché gli algoritmi si affinano sempre più per aggirare le difese tradizionali, incapaci di contrastare gli attacchi più sofisticati.
Impatti a medio termine – Strumenti più efficaci
Nel medio termine, prevediamo che gli attori delle minacce affineranno ulteriormente i loro strumenti con l’AI. Ad esempio, potrebbero istruire modelli di intelligenza artificiale per identificare le risorse di un’azienda esposte a Internet con i rispettivi servizi in esecuzione per aiutare a individuare le vulnerabilità potenzialmente presenti.
Prevediamo un continuo aumento della sofisticazione delle minacce, con l’AI generativa sempre più utilizzata dai cybercriminali per elevare le loro abilità. È importante notare che queste tecnologie, come i modelli linguistici, sono attualmente utilizzate come supporto alle operazioni esistenti, ma non sono ancora state utilizzate appieno per creare malware o condurre campagne pericolose su larga scala.
Tuttavia, con ogni probabilità queste tecnologie verranno utilizzate per migliorare gli attacchi nel prossimo futuro, ad esempio per ottimizzare e perfezionare i testi delle email di spear phishing, che potrebbero diventare più convincenti grazie all’utilizzo di riferimenti geografici corretti, gergo e testo grammaticalmente accurato anche per rivolgersi a persone madrelingua.
Inoltre, possiamo aspettarci l’uso potenziale a breve termine dell’intelligenza artificiale generativa a scopi di ricognizione, per raccogliere informazioni su vittime specifiche, pre-compromissione, come intervalli di netblock, servizi/porte aperti e anche assistenza nella scansione di vulnerabilità.
Impatti a lungo termine – Co-pilot di sicurezza dotati di intelligenza artificiale
Guardando al futuro, prevediamo la possibilità di sviluppo da parte degli attori delle minacce di propri co-pilot di sicurezza dotati di intelligenza artificiale. Questi co-pilot potrebbero assistere i cybercriminali in diverse fasi della catena di attacco, come il movimento laterale e l’escalation dei privilegi all’interno di ambienti compromessi. Sebbene questo concetto non sia ancora una realtà pienamente realizzata, nei forum e nei social network underground si registra una crescente attenzione e discussione su come gli attaccanti possano sfruttare la tecnologia AI.
AI e il futuro della sicurezza informatica
In sintesi, l’AI è destinata a svolgere un ruolo sempre più significativo nel campo della cybersecurity. Con l’evolversi della tecnologia, è probabile che essa modifichi il modo stesso in cui professionisti della sicurezza e personale dei SOC affrontano il loro ruolo. Mentre nel breve termine possiamo aspettarci il suo utilizzo per campagne di disinformazione e deepfake, gli sviluppi a medio termine si concentreranno sull’affinamento degli strumenti lungo tutta la catena di attacco, ad esempio per la ricognizione e lo spear phishing. A lungo termine, infine, potremmo assistere all’emergere di co-pilot di sicurezza dotati di intelligenza artificiale, utilizzati per rendere ancora più efficaci le attività pericolose.
Tutto questo sottolinea la necessità per i professionisti della sicurezza di restare vigili, adattandosi all’evoluzione del panorama delle minacce. Con la continua evoluzione del settore della cybersecurity, è chiaro che l’AI sarà una forza trainante nelle strategie sia difensive che offensive. Alle aziende e ai responsabili della sicurezza spetta il compito di rimanere informati, adattare costantemente le loro difese ed essere pronti a contrastare efficacemente le minacce alimentate dall’AI.
Umberto Pirovano, Senior Manager Systems Engineering di Palo Alto Networks