Le côté obscur de l’IA : pourquoi les chatbots du marché noir profitent aux amateurs, pas aux cerveaux du crime
Les outils d’IA clandestins promettent une révolution du cybercrime, mais pour l’instant, ils n’aident que les hackers de bas niveau à écrire de meilleurs spams et des malwares simples.
En bref
- Les « dark LLM » comme WormGPT 4 et KawaiiGPT automatisent des tâches cybercriminelles basiques, parfois contre paiement, parfois gratuitement.
- Ces outils aident les non-anglophones et les hackers débutants à rédiger des emails de phishing et des malwares simples.
- Malgré le battage médiatique, les experts techniques affirment que les dark LLM n’ont pas permis de développer des méthodes d’attaque avancées ou inédites.
- Les chercheurs trouvent peu de preuves que les malwares générés par l’IA causent de nouvelles menaces à grande échelle.
- La plupart des productions des dark LLM ne font que recycler d’anciennes astuces de malware, facilement détectées par les outils de sécurité existants.
Un coup de pouce pour les script kiddies, pas une révolution
Imaginez le monde souterrain numérique comme un bazar animé. À un stand, une nouvelle génération de vendeurs propose de « l’IA sans limites » - des chatbots entraînés non pas à écrire de la poésie, mais à aider les cybercriminels. Ces « dark LLM » (grands modèles de langage) comme WormGPT 4 et KawaiiGPT sont présentés comme les complices ultimes des hackers. Pourtant, derrière leur image inquiétante, leur véritable pouvoir est bien moins spectaculaire que ne le laissent entendre les gros titres.
Lorsque ChatGPT d’OpenAI a été lancé fin 2022, les milieux de la cybersécurité se sont préparés à une vague d’attaques pilotées par l’IA. La crainte : que n’importe qui puisse utiliser l’IA pour créer des malwares indétectables ou lancer des cyberattaques automatisées. La réalité, trois ans plus tard, est bien plus modérée. Selon Unit 42 de Palo Alto Networks, des outils comme WormGPT 4 et KawaiiGPT excellent à aider les débutants - surtout ceux qui maîtrisent mal l’anglais - à rédiger des emails de phishing convaincants ou à assembler du code malveillant basique. Mais la magie s’arrête là.
Comment le monde souterrain vend de « l’IA sans garde-fous »
WormGPT, apparu pour la première fois en 2023, a été présenté comme un outil de « malware-as-a-service », promettant de générer du code et des messages de phishing sans les limites de sécurité des IA classiques. Son successeur, WormGPT 4, et des concurrents comme KawaiiGPT, sont désormais vendus ou partagés dans des groupes Telegram comptant des centaines d’utilisateurs. Leur attrait ? N’importe qui peut demander un modèle de lettre de rançon, un simple logiciel de verrouillage de fichiers ou un script Python pour le vol de données - sans compétences avancées. KawaiiGPT aide même les utilisateurs à se déplacer latéralement dans des systèmes compromis, mais de façon prévisible.
Pourtant, malgré leur présence croissante sur les forums de hackers, ces outils n’ont pas déclenché de vague de criminalité. Les chercheurs en sécurité notent que la plupart des productions des dark LLM sont recyclées à partir de malwares existants - pas de nouvelles astuces ingénieuses, juste d’anciennes techniques dans un langage plus propre. Leur base d’utilisateurs, bien réelle, est surtout composée de « script kiddies » - des amateurs qui se contentent de copier-coller plutôt que d’innover.
Pourquoi l’IA ne révolutionne pas (encore) le cybercrime
Techniquement, ces IA du marché noir trébuchent encore. Elles « hallucinent » souvent - produisant du code qui semble plausible mais ne fonctionne pas réellement. Une supervision humaine est nécessaire pour corriger ces erreurs et adapter les attaques aux réseaux réels. Des experts comme Kyle Wilhoit (Unit 42) et Oded Vanunu (Check Point) sont d’accord : les fondamentaux du hacking n’ont pas changé. Les dark LLM les plus populaires se contentent de remixer ce qui existe déjà en ligne, sans inventer de nouvelles menaces.
Pour l’instant, les défenseurs peuvent souffler un peu. La grande majorité des malwares générés par l’IA restent détectables par les outils de sécurité classiques, et rien ne prouve que ces dark LLM alimentent de grandes campagnes de cybercriminalité. Si le marché souterrain de l’IA illicite se développe, son impact reste modeste - du moins jusqu’à ce que quelqu’un trouve comment libérer tout le potentiel nuisible de la technologie.
WIKICROOK
- Large Language Model (LLM) : Un Large Language Model (LLM) est une IA entraînée à comprendre et générer du texte de type humain, souvent utilisée dans les chatbots, assistants et outils de contenu.
- Phishing : Le phishing est un cybercrime où des attaquants envoient de faux messages pour inciter les utilisateurs à révéler des données sensibles ou à cliquer sur des liens malveillants.
- Malware : Le malware est un logiciel malveillant conçu pour s’infiltrer, endommager ou voler des données sur des appareils informatiques sans le consentement de l’utilisateur.
- Script Kiddie : Un script kiddie est une personne qui utilise des outils de hacking existants sans connaissances techniques approfondies, lançant souvent des cyberattaques sans vraiment comprendre ce qu’elle fait.
- Hallucination (IA) : L’hallucination d’IA se produit lorsqu’une intelligence artificielle produit des réponses qui semblent plausibles mais sont en réalité incorrectes ou totalement inventées.