Dentro il racket dei finti lavoratori IT nordcoreani alimentato dall’IA: come i doppelgänger digitali di Pyongyang prendono di mira l’Occidente
Gli hacker nordcoreani potenziano con l’IA le truffe dei falsi lavori IT, alzando la posta in gioco per la cybersecurity globale.
In un tranquillo pomeriggio di martedì, un responsabile delle assunzioni di una grande azienda tech statunitense scorre un curriculum che sembra impeccabile: esperienza rifinita, credenziali eccellenti, persino una foto profilo perfetta. Ma dietro la maschera digitale non c’è un aspirante di Silicon Valley, bensì un operativo nordcoreano, armato di strumenti di IA e di una missione che va ben oltre l’ottenere un lavoro da remoto. Benvenuti nella nuova frontiera dell’inganno informatico, dove l’intelligenza artificiale è l’arma segreta che alimenta le truffe globali di Pyongyang basate su finti lavoratori IT.
L’anatomia di una truffa potenziata dall’IA
Mentre molti criminali informatici hanno faticato a potenziare in modo significativo i propri attacchi con l’IA, gli attori nordcoreani stanno usando la tecnologia in modo silenzioso - ed efficace - per rilanciare un classico raggiro: il finto lavoratore IT. Il team di threat intelligence di Microsoft ha recentemente descritto come gruppi come “Jasper Sleet” e “Coral Sleet” abbiano trasformato l’IA in un’arma in ogni fase dei loro schemi, dalla ricerca degli annunci di lavoro al mantenimento di elaborate identità digitali.
Il processo inizia con una ricognizione guidata dall’IA. Chatbot e modelli linguistici di grandi dimensioni (LLM) scandagliano bacheche di lavoro come Upwork, estraggono parole chiave e generano curriculum e lettere di presentazione su misura. Questi strumenti aiutano anche a colmare divari culturali e linguistici, producendo nomi fittizi, indirizzi email e profili social che si integrano senza attriti nel bacino globale dei talenti. A volte, l’inganno si spinge oltre: app commerciali di face-swapping inseriscono volti nordcoreani in documenti d’identità rubati, mentre software di modifica della voce rifiniscono la loro performance nei colloqui da remoto.
Ottenere il lavoro è solo l’inizio. Una volta dentro, questi operativi usano l’IA per mantenere la copertura - generando risposte email plausibili, scrivendo frammenti di codice e adattando lo stile comunicativo alle aspettative. Ma le conseguenze vanno ben oltre uno stipendio ottenuto fraudolentemente. Ottenere accesso legittimo a organizzazioni occidentali apre la porta a minacce interne: Coral Sleet, per esempio, ha usato l’IA per automatizzare la creazione di siti web aziendali falsi, predisporre infrastrutture malevole e persino costruire e distribuire nuovi ceppi di malware.
L’obiettivo? Prima di tutto, convogliare entrate verso il regime di Kim Jong-Un. Ma il beneficio collaterale - l’accesso a dati e sistemi sensibili - può rivelarsi ancora più prezioso nel lungo periodo. I ricercatori di Microsoft avvertono che, man mano che gli strumenti di IA diventano più sofisticati, le tecniche operative nordcoreane potrebbero diventare ancora più difficili da individuare e interrompere.
C’è anche qualche buona notizia: una maggiore vigilanza da parte dei team di selezione sta rallentando il successo della truffa. Le aziende ora interrogano i candidati da remoto su punti di riferimento locali o aspetti culturali, rendendo più difficile per operativi stranieri cavarsela con l’improvvisazione. Eppure, mentre la corsa agli armamenti tra truffatori e difensori si intensifica, l’unica certezza è che le tattiche continueranno a evolversi.
Conclusione
Le truffe nordcoreane dei lavoratori IT potenziate dall’IA sono un monito netto: l’inganno informatico non è più il dominio di hacker solitari. Con risorse sostenute dallo Stato e tecnologia all’avanguardia, questi operativi sfumano il confine tra lavoratore legittimo e infiltrato malevolo. Per le organizzazioni, la sfida riguarda tanto la difesa tecnologica quanto la vigilanza umana - perché nell’era dell’IA, chiunque potrebbe essere un doppelgänger digitale.
WIKICROOK
- APT (Advanced Persistent Threat): Una Advanced Persistent Threat (APT) è un attacco informatico mirato e di lunga durata condotto da gruppi esperti, spesso sostenuti da uno Stato, con l’obiettivo di rubare dati o interrompere le operazioni.
- Large Language Model (LLM): Un Large Language Model (LLM) è un’IA addestrata a comprendere e generare testo simile a quello umano, spesso usata in chatbot, assistenti e strumenti di creazione di contenuti.
- Deepfake: Un deepfake è un contenuto multimediale generato dall’IA che imita l’aspetto o la voce di persone reali, spesso usato per ingannare creando video o audio falsi ma convincenti.
- Social Engineering: Il social engineering è l’uso dell’inganno da parte degli hacker per indurre le persone a rivelare informazioni riservate o a fornire accesso non autorizzato ai sistemi.
- Insider Threat: Una minaccia interna si verifica quando qualcuno all’interno di un’organizzazione abusa del proprio accesso a sistemi o dati, intenzionalmente o accidentalmente, causando danni.