Pare-feu humain ou assaut de l’IA ? Les responsables de la sécurité s’affrontent sur les limites de l’automatisation
Alors que les défenses alimentées par l’IA se multiplient, les leaders du secteur débattent : les humains doivent-ils commander, superviser ou s’effacer ?
Au cœur de la conférence RSAC 2026 de San Francisco, une question provocante a résonné dans les couloirs : les humains sont-ils la dernière ligne de défense - ou le plus grand obstacle - dans la course à la sécurisation du monde numérique par l’intelligence artificielle ? Alors que les menaces cybernétiques s’accélèrent et que les équipes de sécurité peinent à suivre, les RSSI de Google Cloud, Vodafone et PayPal ont livré des points de vue remarquablement francs sur l’évolution de la relation entre l’humain et la machine dans la protection de nos systèmes les plus critiques.
L’ascension fulgurante de l’IA en cybersécurité promet des défenses plus intelligentes, plus rapides et plus adaptatives. Pourtant, à mesure que les organisations s’empressent d’intégrer des modèles de langage étendus (LLM) et des agents automatisés dans leurs opérations, le débat s’intensifie : les humains doivent-ils superviser activement chaque décision prise par l’IA, ou cela risque-t-il de créer des goulets d’étranglement et de l’épuisement ?
Les intervenants du RSAC 2026 - Francis deSouza (Google Cloud), Emma Smith (Vodafone) et Shaun Khalfan (PayPal) - étaient unanimes sur un point : les contrôles traditionnels “humain dans la boucle” ne peuvent pas suivre le rythme des attaques menées à la vitesse des machines. “Les défenses dirigées par l’humain sont souvent trop lentes pour stopper les cyberattaques menées par des agents”, a affirmé deSouza, évoquant l’orientation de Google vers une “défense menée par les agents”. Smith a acquiescé, avertissant que la supervision manuelle n’est pas seulement irréaliste à grande échelle - elle risque de transformer les analystes experts en simples cocheurs de cases désengagés.
Le consensus s’est donc orienté vers un rôle plus nuancé pour l’humain : “sur la boucle”, et non “dans la boucle”. Cela signifie que les experts en sécurité supervisent, auditent et interviennent uniquement lorsque les systèmes d’IA signalent des situations à haut risque ou ambiguës. L’approche de Vodafone, par exemple, utilise des cartes thermiques de risque pour déterminer quand l’intervention humaine est essentielle - généralement dans des scénarios à fort impact commercial ou sur la vie privée.
La sécurité des données et la transparence restent non négociables. Khalfan a décrit les protections en couches de PayPal : les modèles d’IA sont hiérarchisés selon la sensibilité des données, avec des contrôles adaptés pour prévenir l’injection de prompts et la manipulation des modèles. Point crucial, PayPal comme Vodafone insistent sur l’encadrement de chaque déploiement d’IA dans des cadres garantissant la confidentialité, l’explicabilité et la conformité.
Mais la technologie seule ne suffit pas à résoudre l’équation de la confiance. Des efforts collaboratifs comme la Coalition for Secure AI (CoSAI) poussent à l’adoption de standards sectoriels, tandis que les responsables de la sécurité appellent à un changement de mentalité : la sécurité ne doit pas freiner l’innovation, mais l’accompagner de façon responsable. Comme l’a résumé Alexandra Rose de Sophos, la vraie question n’est pas “Pouvons-nous dire non ?” - mais “Comment pouvons-nous dire oui, en toute sécurité ?”
Le verdict du terrain : l’IA peut dépasser les attaquants, mais seulement si les humains évoluent de gardiens à superviseurs stratégiques. L’avenir de la cyberdéfense ne sera peut-être pas l’homme contre la machine - mais l’homme allié à la machine, chacun jouant de ses forces pour déjouer les adversaires dans un monde où la vitesse et la confiance sont essentielles.
WIKICROOK
- Large Language Model (LLM) : Un Large Language Model (LLM) est une IA entraînée à comprendre et générer du texte de type humain, souvent utilisée dans les chatbots, assistants et outils de contenu.
- Humain dans la boucle : “Humain dans la boucle” signifie que des personnes restent impliquées dans les décisions de cybersécurité pilotées par l’IA, assurant supervision, contexte et jugement éthique aux côtés des systèmes automatisés.
- Injection de prompt : L’injection de prompt survient lorsque des attaquants soumettent des entrées malveillantes à une IA, la poussant à agir de manière imprévue ou dangereuse, souvent en contournant les protections habituelles.
- Agent : Un agent est un programme logiciel qui agit de façon autonome pour accomplir des tâches, collaborant souvent avec d’autres pour gérer ou sécuriser des systèmes informatiques.
- Explicabilité : L’explicabilité est la capacité à comprendre et auditer la façon dont un système d’IA prend ses décisions, essentielle pour la confiance, la transparence et la conformité réglementaire.