L’intelligenza artificiale sta diventando il nuovo “cervello operativo” delle organizzazioni. Impara, automatizza, ottimizza, accelera processi e decisioni. Ma proprio questa sua capacità di assorbire conoscenza e trasformarla in codice la rende un obiettivo sempre più prezioso per i cybercriminali. È il messaggio chiave che arriva dallo studio di TrendAI, la business unit di Trend Micro dedicata alla sicurezza dell’AI.
Ogni volta che AI apprende registra il modo in cuil’organizzazione pensa
Le aziende, spinte dalla carenza di competenze e dalla pressione operativa, stanno affidando all’AI compiti sempre più critici. Classificare alert, prendere decisioni, gestire workflow complessi. Ogni volta che l’AI apprende, però, memorizza logiche decisionali, procedure interne, criteri di risposta, correlazioni di sicurezza. In pratica, registra il modo in cui l’organizzazione “pensa”. Ed è qui che nasce il problema.
Se un cybercriminale riesce a mettere le mani su queste competenze, ottiene una mappa dettagliata del funzionamento interno dell’azienda. Come rileva le minacce, quali allarmi scattano e quali no, come vengono prese le decisioni, quali sono le vulnerabilità operative. È come consegnare al nemico il manuale d’istruzioni per aggirare le difese.
I SOC, i centri operativi di sicurezza, sono tra i più esposti
Le loro AI gestiscono enormi volumi di dati e automatizzano processi vitali. Comprometterle significa permettere agli attaccanti di eludere i controlli, manipolare la gravità degli incidenti o addirittura far passare inosservate attività malevole. Ma lo stesso rischio si estende a settori come sanità, finanza, industria e pubblica amministrazione. Un’AI compromessa può influenzare diagnosi, decisioni di trading, processi produttivi o valutazioni amministrative. Il problema è che gli strumenti di sicurezza tradizionali non sono progettati per difendere questo nuovo “patrimonio cognitivo”. Le competenze dell’AI sono spesso testo non strutturato, difficile da monitorare con sistemi basati su firme o pattern. Inoltre, molte organizzazioni archiviano questi asset in repository aperti o poco protetti, aumentando ulteriormente l’esposizione.
TrendAI evidenzia anche una nuova kill chain specifica per gli attacchi alle competenze dell’AI e invita le aziende a trattare questi asset come proprietà intellettuale sensibile. Bisogna effettuare ontrolli di accesso rigorosi, monitoraggio continuo, validazione dei modelli e governance strutturata. Come spiega Marco Fanuli, Technical Director di TrendAI Italia, «le competenze dell’AI trasformano la conoscenza istituzionale in codice eseguibile. Se un attaccante le ottiene, capisce come la vittima vede, pensa e decide. È fondamentale adottare contromisure adeguate».
In altre parole: l’AI è un acceleratore straordinario, ma anche un nuovo fronte di vulnerabilità. Più diventa intelligente, più diventa appetibile. E ignorare questo paradosso significa lasciare aperta una porta che i cybercriminali non vedono l’ora di attraversare.

