Intelligenza Artificiale e Sicurezza Informatica: le previsioni 2025
La rapida evoluzione dell’intelligenza artificiale (IA) è destinata a ridisegnare radicalmente il panorama della sicurezza informatica. In questo contesto, si prevedono diversi sviluppi chiave che avranno un impatto significativo sul nostro mondo digitale. L’aumento dell’utilizzo dell’IA avrà implicazioni di vasta portata in settori quali il consumo energetico, lo sviluppo di software e i quadri etici e legali. Naturalmente, le tecnologie di IA saranno anche utilizzate come armi dai criminali informatici e dagli attori degli Stati nazionali, creando nuove e formidabili minacce alla sicurezza informatica.
L’esplosione dell’IA
L’adozione delle tecnologie IA sta accelerando a un ritmo senza precedenti. ChatGPT, per esempio, ha raggiunto 100 milioni di utenti dopo soli 60 giorni dal lancio e ora vanta oltre 3 miliardi di visite mensili. Questa crescita esplosiva non si limita a ChatGPT; anche altri modelli di IA come Claude, Gemini e Midjourney stanno registrando un’ampia adozione. Dimension Market Research prevede che entro il 2033 il mercato globale dei modelli linguistici di grandi dimensioni raggiungerà i 140,8 miliardi di dollari. Le tecnologie di IA richiedono enormi quantità di risorse di calcolo, per cui la rapida adozione di queste tecnologie sta già determinando un enorme aumento di spazio, acqua ed energia necessari per supportarle. L’entità della pressione esercitata dall’IA sulle risorse naturali si farà sentire nel 2025.
Risorse energetiche e innovazione
La proliferazione dell’IA sta mettendo a dura prova le risorse energetiche globali. I data center, la spina dorsale delle operazioni di Intelligenza Artificiale, si stanno moltiplicando rapidamente, utilizzando spazio, energia e acqua, risorse naturali preziose già sotto pressione. Secondo McKinsey, il loro numero è raddoppiato dai 3.500 del 2015 ai 7.000 del 2024. Deloitte prevede che il consumo di energia da parte di questi centri salirà da 508 TWh nel 2024 a un’incredibile livello di 1580 TWh entro il 2034, pari all’intero consumo energetico annuale dell’India.
Esperti come Deloitte hanno lanciato un campanello d’allarme: il sistema attuale sta diventando rapidamente insostenibile. Goldman Sachs Research stima che la domanda di energia dei data center crescerà del 160% entro il 2030 e che l’intelligenza artificiale rappresenterà circa il 19% della domanda di energia entro il 2028. Questa domanda di energia senza precedenti richiede un passaggio a fonti di energia più sostenibili e a soluzioni di raffreddamento innovative per carichi di lavoro di IA ad alta densità. Sebbene siano state raggiunte molte innovazioni in termini di sfruttamento di fonti energetiche alternative, l’energia nucleare sarà probabilmente sfruttata per alimentare l’aumento del consumo energetico alimentato dall’IA.
Anche la stessa tecnologia di calcolo diventerà più efficiente grazie ai progressi nella progettazione dei chip e nella pianificazione dei carichi di lavoro. Poiché l’IA spesso comporta trasferimenti massicci di dati, diventeranno essenziali innovazioni come le architetture compute-in-memory (CIM), che riducono in modo significativo l’energia necessaria per spostare i dati tra memoria e processori. I chip di memoria ad accesso casuale (RAM) integrano l’elaborazione all’interno della memoria stessa per eliminare la separazione tra unità di calcolo e memoria, migliorando così l’efficienza. Queste e altre tecnologie dirompenti emergeranno per aiutare a gestire la crescente computazione in modo efficiente dal punto di vista energetico.
L’IA responsabile trasformerà lo sviluppo del software
L’intelligenza artificiale è destinata a rivoluzionare la programmazione del software. Stiamo andando oltre i semplici strumenti di completamento del codice come GitHub Copilot per passare a piattaforme di creazione di codice completo come CursorAI e Replit.com. Se da un lato questo progresso promette un aumento della produttività, dall’altro comporta notevoli rischi per la sicurezza. L’intelligenza artificiale offre a qualsiasi criminale informatico la possibilità di generare malware completo da un singolo prompt, inaugurando una nuova era di minacce informatiche. La barriera d’ingresso per i criminali informatici scomparirà man mano che questi diventeranno più sofisticati e diffusi, rendendo il nostro mondo digitale molto meno sicuro.
Questa minaccia alimenterà il settore dell‘IA responsabile. L’IA responsabile si riferisce alla pratica dei fornitori di Intelligenza Artificiale di costruire barriere di protezione per impedire l’uso di armi o l’utilizzo malevolo dei loro modelli linguistici di grandi dimensioni (LLM). Gli sviluppatori di software e i fornitori di sicurezza informatica dovrebbero collaborare per ottenere un’IA responsabile grazie alla loro profonda esperienza nella comprensione della mentalità dell’attaccante per simulare e prevedere nuove tecniche di attacco. I tester di penetrazione come gli hacker “white hat” e i “red team” si dedicano a trovare le modalità attraverso cui il software può essere sfruttato prima che lo facciano gli hacker, in modo da proteggere le vulnerabilità in modo proattivo. Sono necessarie nuove partnership responsabili per l’intelligenza artificiale tra fornitori di software e di sicurezza informatica per testare i modelli LLM prima che si trasformino in pericolose armi di attacco.
L’ascesa dei sistemi di intelligenza artificiale multi-agente
Nel 2025 assisteremo all’emergere di sistemi di intelligenza artificiale multi-agente sia negli attacchi informatici che nella difesa. Gli agenti di IA sono la prossima fase di evoluzione degli assistenti digitali basati sull’Intelligenza Artificiale. Si tratta di sistemi autonomi che prendono decisioni, eseguono compiti e interagiscono con l’ambiente, spesso agendo per conto dell’uomo. Operano con un intervento umano minimo, comunicano con entità quali altri agenti di IA, database, sensori, API, applicazioni, siti web ed e-mail e si adattano in base al feedback. Gli aggressori li utilizzano per attacchi coordinati e difficili da individuare, mentre i difensori li impiegano per migliorare il rilevamento delle minacce, la risposta e la collaborazione in tempo reale tra reti e dispositivi. I sistemi di intelligenza artificiale multi-agente possono difendersi da più attacchi simultanei, lavorando insieme in modo collaborativo, condividendo informazioni sulle minacce in tempo reale e coordinando le azioni difensive per identificare e mitigare gli attacchi in modo più efficace.
Sfide etiche e normative
Man mano che l’Intelligenza Artificiale diventa sempre più pervasiva, ci troveremo ad affrontare sfide etiche e normative sempre maggiori. Due importanti leggi sono già destinate a entrare in vigore nel 2025. La legge sull’IA dell’UE entrerà in vigore il 2 febbraio 2025, con ulteriori disposizioni in vigore il 2 agosto. Negli Stati Uniti, si prevede l’attuazione di un nuovo quadro normativo sull’IA attraverso il National Defense Authorization Act (NDAA) e altre misure legislative, con disposizioni chiave a partire dall’inizio del 2025. Queste nuove leggi obbligheranno le imprese a esercitare un maggiore controllo sulle loro implementazioni di IA ed emergeranno nuove piattaforme di governance dell’IA per aiutarle a costruire fiducia, trasparenza ed etica.
Nel 2025, possiamo aspettarci un aumento dei quadri di garanzia per l’Intelligenza Artificiale specifici per settore, al fine di convalidarne l’affidabilità, la riduzione degli errori e la sicurezza. Queste piattaforme sapranno rendere comprensibili gli output generati dall’IA, impediranno i risultati dannosi o distorti e promuoveranno la fiducia negli strumenti di sicurezza informatica guidati dall’IA.
Dan Karpati, vicepresidente di AI Technologies presso Check Point Software