Claude – Large Language Model (LLM) sviluppato dall’azienda di intelligenza artificiale (IA) Anthropic – è oggi uno dei modelli più conosciuti e utilizzati al mondo. Anthropic, come altre realtà nel settore dell’Intelligenza Artificiale, lavora continuamente per migliorare la sicurezza dei suoi modelli pubblici al fine di prevenirne un uso improprio. Tuttavia, i cybercriminali cercano continuamente modi per aggirare queste difese e sfruttare gli LLM senza restrizioni al fine di compiere attività illecite. A dimostrazione di ciò, Anthropic ha recentemente pubblicato un report di Threat Intelligence in cui viene descritto come i cybercriminali abbiano utilizzato Claude per automatizzare attacchi informatici.

In questo articolo analizziamo i risultati del report, esaminiamo gli scenari individuati e discutiamo le implicazioni per il futuro dell’IA e della cyber criminalità.

Principali risultati

Nonostante le aziende di intelligenza artificiale abbiano implementato misure di sicurezza per prevenire l’uso improprio dei loro modelli, i cybercriminali continuano a trovare modi per aggirare queste protezioni. I modelli di IA, che in passato venivano utilizzati solo per ottenere suggerimenti, sono oggi impiegati attivamente per condurre cyberattacchi sofisticati. Come evidenziato in un articolo precedente, anche gli utenti malintenzionati con poche competenze tecniche possono eseguire attacchi complessi sfruttando i modelli di IA. Di conseguenza, sia il numero di attacchi sia le capacità dei cybercriminali sono aumentati rapidamente, e questo trend è destinato a crescere in futuro.

In particolare, il team di Threat Intelligence (TI) di Anthropic ha osservato che i cybercriminali hanno utilizzato Claude in diverse fasi dell’attacco, tra cui il profiling delle vittime e degli asset, l’automatizzazione dello sviluppo di malware e la consegna dei payload malevoli. Claude è stato inoltre sfruttato in diverse operazioni di frode, come l’analisi dei dati esfiltrati, il furto di informazioni su carte di credito e la creazione di identità false. Ispirandosi al termine “vibe coding”, un nuovo approccio alla programmazione in cui si collabora con l’IA per sviluppare software usando il linguaggio naturale, i ricercatori hanno introdotto il concetto di “vibe hacking”. Questo termine si riferisce all’uso dell’IA per compiere attività criminali informatiche.

Come gli agenti di IA possono automatizzare le operazioni di estorsione dati

Il team di Threat Intelligence (TI) di Anthropic ha recentemente rilevato un cybercriminale che ha sfruttato Claude Code per condurre, in un brevissimo lasso di tempo, operazioni di estorsione contro diversi obiettivi. L’attore malintenzionato ha utilizzato Claude per automatizzare tutte le fasi dell’attacco: ricognizione, distribuzione del malware, sfruttamento, movimento laterale ed esfiltrazione dei dati.

All’inizio dell’attacco, Claude Code è stato impiegato per scansionare diversi endpoint VPN, individuando sistemi vulnerabili. Successivamente ha aiutato l’attaccante a rilevare sistemi critici, come domain controller e server SQL, e a estrarre diverse credenziali. Il malware installato sui sistemi compromessi è stato interamente sviluppato e rifinito con l’ausilio dell’IA. Claude Code è riuscito a mascherare gli eseguibili malevoli come file Microsoft legittimi, utilizzando tattiche di evasione, crittografia, codice anti-debugging e anti-EDR. Durante la fase di esfiltrazione, i dati rubati sono stati utilizzati per creare delle note di riscatto personalizzate con informazioni specifiche sulle vittime. In particolare, il modello IA ha calcolato l’importo ottimale del riscatto da richiedere e ha sviluppato diverse strategie di monetizzazione.

Questo scenario dimostra come le assunzioni sulla relazione tra skill dell’attaccante e complessità dell’attacco non sono più valide. Infatti, anche un singolo malintenzionato con competenze tecniche limitate può ora eseguire cybercrimini sofisticati grazie all’IA, capace di prendere decisioni sia strategiche che tattiche per la riuscita dell’attacco. Inoltre, la difesa risulta significativamente più difficile poiché gli attacchi generati dall’IA si adattano in tempo reale alle contromisure di sicurezza.

Vendita di Ransomware-as-a-Service (RaaS) generato dall’IA

Un’altra indagine condotta dal team di Threat Intelligence (TI) di Anthropic ha rivelato che un attaccante con sede nel Regno Unito ha sfruttato Claude per sviluppare e vendere ransomware con elevate capacità di evasione. L’attaccante ha sviluppato diverse varianti che integravano il cifrario ChaCha20, tecniche anti-EDR e lo sfruttamento delle funzionalità interne di Windows. Come nel precedente caso di studio, l’aspetto più preoccupante è che un individuo con poche competenze tecniche sia riuscito a creare e commercializzare ransomware grazie esclusivamente all’Intelligenza Artificiale. Questo fenomeno ha diverse implicazioni per il panorama della criminalità informatica:

  • Associare un cyber attacco ad uno specifico gruppo criminale sta diventando più difficile, poiché i nuovi malware presentano pattern tipici dell’Intelligenza Artificiale.
  • Lo sviluppo di nuove varianti di malware è sempre più rapido ed efficiente.
  • Attori con scarse competenze tecniche possono ora condurre attacchi altamente complessi, portando ad un aumento significativo del numero di incidenti.

Truffe sentimentali automatizzate con l’IA

I ricercatori hanno inoltre scoperto una serie di truffe sentimentali condotte tramite un bot su Telegram. Tramite lo sfruttamento di diversi modelli di IA, i truffatori sono riusciti a generare conversazioni estremamente persuasive con le vittime. Claude, in particolare, è stato utilizzato per creare risposte emotivamente intelligenti e migliorare le foto profilo false, consentendo ai truffatori di costruire identità convincenti in grado di ingannare le vittime.

L’utilizzo dell’IA ha permesso all’attaccante di superare le tipiche barriere linguistiche, evitando gli errori grammaticali che spesso allarmano la vittima. Oltre a generare semplici testi, il bot è stato progettato per guidare l’attaccante in ogni fase della truffa sentimentale, dal primo contatto alla manipolazione delle vittime per ottenere un guadagno economico. In passato, il successo di queste truffe dipendeva in gran parte dall’abilità del criminale nel mantenere conversazioni credibili. Oggi, invece, i messaggi generati dall’IA non solo evitano i classici errori linguistici che possono allertare le vittime, ma consentono anche ai criminali di aumentare drasticamente il numero di truffe effettuate.

Aspetti chiave

L’integrazione dei modelli di Intelligenza Artificiale nel ciclo di vita della criminalità informatica è sempre più diffusa. Se in passato i modelli di IA venivano utilizzati principalmente per ottenere suggerimenti, oggi sono in grado di condurre veri e propri attacchi informatici sofisticati. Questa evoluzione ha importanti conseguenze per il panorama della cybercriminalità:

  • Il numero e la pericolosità dei crimini informatici stanno aumentando a causa di quello che i ricercatori definiscono “vibe hacking”: l’uso dell’IA per automatizzare attacchi informatici.
  • L’IA viene integrata in tutte le fasi delle operazioni informatiche, tra cui ricognizione, sviluppo e consegna dei payload, movimento laterale ed esfiltrazione dei dati.
  • Individui con poche competenze tecniche possono ora realizzare attacchi che in passato avrebbero richiesto anni di esperienza.
  • Gli attacchi guidati dall’IA possono modificare le proprie strategie in tempo reale, aggirando le difese ed eludendo i sistemi di rilevamento con maggiore efficacia rispetto agli attacchi tradizionali.
  • L’IA consente di automatizzare lo sviluppo di malware, rendendo gli attacchi più difficili da prevedere e contrastare.

Conclusione

L’IA sta cambiando il modo in cui opera la criminalità informatica. I modelli di Intelligenza Artificiale, che un tempo venivano usati solo per fornire suggerimenti, ora aiutano i cybercriminali a condurre attacchi sofisticati: dallo sviluppo malware alle truffe su larga scala e al furto di dati. Questo rende i crimini informatici più numerosi, difficili da individuare e alla portata anche di persone con competenze tecniche limitate.

Ti è piaciuto l’articolo? Seguici su Linkedin per sostenerci!

consigliati