Cybersecurity 2024: l’anno degli attacchi GenAI

di Thomas De Vido

Trend Micro annuncia i dati dello studio annuale sulle minacce più pericolose previste. L’ampia disponibilità e la qualità dell’intelligenza artificiale generativa sarà la causa principale di un cambiamento epocale negli attacchi e nelle tattiche di phishing.Trend Micro

annuncia “Critical Scalability”, la nuova edizione del famoso studio annuale che analizza il panorama della sicurezza e presenta le minacce informatiche che imperverseranno nel corso dell’anno. Il report pone in evidenza il ruolo trasformativo dell’intelligenza artificiale generativa (GenAI) nello scenario delle minacce cyber e lo tsunami di tattiche sofisticate di social engineering e furti di identità potenziati da strumenti basati su GenAI, che potrebbe arrivare.

“I LLM, ossia i Large Language Model, sono una tecnologia AI avanzata, incentrata sulla comprensione e sull’analisi del testo. Questi modelli, presenti in qualsiasi lingua, sono una reale e seria minaccia per la sicurezza perché eliminano tutti gli indicatori tipici del phishing, come ad esempio gli errori di formattazione o quelli grammaticali. Questo rende gli attacchi estremamente difficili da individuare”. Afferma Alessio Agnello, Technical Director di Trend Micro Italia. “Le imprese e le organizzazioni devono superare le tradizionali misure anti-phishing e adottare controlli di sicurezza moderni. Gli strumenti di difesa avanzati affiancano la capacità umana nel rilevare i pericoli e assicurano resilienza contro le tattiche cybercriminali di oggi”.

L’ampia disponibilità e la qualità in costante miglioramento della GenAI, insieme all’utilizzo di Generative Adversarial Networks (GAN), saranno la causa di un cambiamento epocale negli attacchi e nelle tattiche di phishing. Questa trasformazione renderà possibile la creazione di audio iper-realistici e contenuti video a basso costo, determinando una nuova ondata di truffe business email compromise (BEC), rapimenti virtuali e altro ancora.

Considerato il livello elevato del potenziale guadagno di questi attacchi, i cybercriminali saranno incentivati a sviluppare strumenti GenAI malevoli per lanciare campagne o utilizzare tool legittimi ma con credenziali rubate, nascondendo le proprie identità all’interno di VPN.

Anche i modelli di AI potrebbero essere sotto attacco. I modelli generici come GenAI e LLM sono difficili da influenzare a causa degli ampi e variegati set di dati ma i modelli di machine learning cloud- based potrebbero essere un target attraente. I dataset più specializzati su cui si basano saranno presi di mira per inquinare le informazioni attraverso diverse tecniche, dall’esfiltrazione di dati sensibili al boicottaggio dei filtri anti-frodi, per esempio. I veicoli connessi potrebbero essere nel mirino di questi attacchi. In generale, i cybercriminali potrebbero corrompere i database da cui i modelli GenAI traggono le informazioni. Compiere un attacco di questo tipo costa meno di 100 dollari.

Queste tendenze potrebbero portare a loro volta a un maggiore controllo normativo e a un impegno più elevato dell’intero settore della cybersecurity.

“L’intero settore della cybersecurity deve collaborare attivamente con i governi e le istituzioni per sviluppare policy e regolamentazioni specifiche relative all’AI e alla sicurezza.” Ha commentato Alessandro Fontana, Country Manager di Trend Micro Italia. “Come Trend Micro sosteniamo ogni giorno la Pubblica Amministrazione Italiana e le Forze dell’Ordine nella lotta al cybercrime e ribadiamo il nostro impegno e la nostra disponibilità per favorire la sicurezza dell’intero sistema Paese”. 

Previsioni di Trend Micro per il 2024, gli highlights

  1. Le lacune di sicurezza negli ambienti cloud consentiranno ad attacchi worm cloud-native di avere successo. Gli attacchi colpiranno vulnerabilità ed errori di configurazione, utilizzando un livello alto di automazione, per centrare con il minimo sforzo il maggior numero di container, account e servizi
  2. I dati saranno trasformati in armi e verranno utilizzati per colpire i nuovi modelli cloud-based di machine learning. I dataset più specializzati su cui si basano i modelli di machine learning saranno presi di mira per inquinare le informazioni attraverso diverse tecniche, dall’esfiltrazione di dati sensibili al boicottaggio dei filtri anti-frodi, per esempio
  3. L’intelligenza artificiale generativa permetterà ai truffatori di far evolvere le trappole di social engineering in attacchi mirati. L’ampia disponibilità e la qualità migliorata dell’intelligenza artificiale generativa, insieme all’utilizzo di Generative Adversarial Networks (GAN), saranno la causa di un cambiamento epocale negli attacchi e nelle tattiche di phishing
  4. Gli attacchi ai software della supply chain saranno il campanello di allarme per una maggior protezione dei sistemi CI/CD dei fornitori. Questi attacchi potrebbero colpire sia i software open-source sia gli strumenti per la gestione delle identità, come le SIM dei telefoni, cruciali nella gestione flotte
  5. I cybercriminali prenderanno di mira le blockchain, terreni di caccia ancora poco esplorati, per escogitare piani di estorsioni. Le azioni potrebbero consistere nel modificare, sovrascrivere o cancellare le voci e chiedere un riscatto. In alternativa, i cybercriminali potrebbero provare a crittografare l’intera blockchain attraverso il controllo di un numero sufficiente di nodi

Il white paper è disponibile a questo link.

Immagine di copertina su licenza Depositphotos

Vuoi ricevere gli aggiornamenti delle news di TecnoGazzetta? Inserisci nome ed indirizzo E-Mail:


Acconsento al trattamento dei dati personali (Info Privacy)