Netcrook Logo
👤 NEURALSHIELD
🗓️ 04 Dec 2025   🌍 North America

Face-à-face dans les rues : la police d’Edmonton mise gros sur les caméras corporelles à intelligence artificielle

Edmonton devient le terrain d’essai nord-américain pour les caméras corporelles dotées de reconnaissance faciale, suscitant l’espoir de rues plus sûres - et des inquiétudes sur la vie privée et les biais.

En Bref

  • Le service de police d’Edmonton est le premier au Canada à tester des caméras corporelles avec reconnaissance faciale.
  • Jusqu’à 50 agents sont équipés des caméras intelligentes d’Axon Enterprise pendant la phase pilote.
  • Les images capturées sont comparées à une base de données de portraits signalés, ciblant principalement les suspects faisant l’objet de mandats d’arrêt.
  • La reconnaissance faciale n’est activée que lors d’enquêtes ou d’interventions - pas pendant les simples patrouilles.
  • Des préoccupations sur la vie privée et la précision persistent, avec une surveillance stricte exigée par la loi canadienne.

Des rues plus intelligentes - mais à quel prix ?

Imaginez une nuit d’hiver à Edmonton : la neige crisse sous les pas alors que les policiers se déploient, chacun portant une caméra élégante et infaillible. Mais il ne s’agit pas de simples témoins numériques - ces caméras sont désormais dotées d’intelligence artificielle, analysant silencieusement chaque visage passant à moins de quatre mètres. C’est une expérience audacieuse, alors que la police d’Edmonton devient la première au Canada à tester des caméras corporelles intégrant la reconnaissance faciale, une combinaison puissante qui pourrait transformer à jamais le maintien de l’ordre.

Comment ça marche : yeux, algorithmes et portraits-robots

La technologie, développée par Axon Enterprise, capture les visages et les compare instantanément à une base de données policière de plus de 6 000 individus signalés - principalement des suspects sous mandat ou ayant déjà fait l’objet d’“avertissements”. Ces caméras n’utilisent pas la reconnaissance faciale en continu ; le système n’est activé que lors d’actions d’enquête ou d’intervention spécifiques. Le processus s’apparente à un videur numérique en boîte de nuit : les visages sont scannés, recoupés, et seuls ceux présentant une forte correspondance sont signalés. En l’absence de correspondance, l’image est rapidement supprimée, selon la police.

Fait important, toute ressemblance détectée par l’ordinateur est toujours vérifiée par un agent formé avant toute intervention. Malgré cette supervision humaine, la précision de la technologie - en particulier pour les personnes de couleur - reste sous surveillance. Le projet pilote d’Edmonton fait écho aux récentes polémiques aux États-Unis, où des erreurs de reconnaissance faciale ont conduit à des détentions injustifiées, notamment parmi les clients noirs, entraînant des mesures réglementaires strictes.

Promesses et périls : le débat mondial

L’initiative d’Edmonton en matière de caméras corporelles à intelligence artificielle s’inscrit dans une tendance mondiale : la police de Londres, New York et plusieurs villes chinoises ont testé des systèmes similaires, souvent au cœur de débats houleux. Les partisans estiment que la reconnaissance faciale peut aider à exécuter les mandats et à protéger les agents, la comparant à une mémoire ultra-rapide qui n’oublie jamais un visage. Les détracteurs, eux, mettent en garde contre les risques de profilage racial, de faux positifs et de surveillance de masse - un filet numérique susceptible d’englober des passants innocents.

Le commissaire à la vie privée de l’Alberta a exigé un examen rigoureux, imposant à la police de prouver que la technologie respecte les strictes lois canadiennes sur la vie privée. Pendant ce temps, la Federal Trade Commission américaine a déjà contraint des commerçants à suspendre des systèmes similaires après des plaintes pour biais et harcèlement. L’enjeu est de taille : alors que les forces de police du monde entier observent l’expérience d’Edmonton, son issue pourrait faire jurisprudence sur la place - ou non - de l’IA dans le maintien de l’ordre.

Alors que la neige tombe et que les caméras tournent, Edmonton se retrouve en première ligne d’un débat sur la sécurité, la justice et le droit de circuler sans être scanné. La vraie question : la technologie peut-elle nous protéger sans nous surveiller tous ?

WIKICROOK

  • Reconnaissance faciale : La reconnaissance faciale utilise l’analyse biométrique des traits du visage pour identifier ou vérifier des individus, principalement à des fins de sécurité, d’authentification et de surveillance.
  • Caméra corporelle : Une caméra corporelle est un petit dispositif vidéo porté par les policiers pour enregistrer leurs interactions avec le public, favorisant la transparence et la collecte de preuves.
  • Intelligence artificielle (IA) : L’intelligence artificielle (IA) permet aux ordinateurs d’effectuer des tâches telles que l’apprentissage, le raisonnement et la résolution de problèmes, qui nécessitent habituellement l’intelligence humaine.
  • Évaluation des impacts sur la vie privée : Une évaluation des impacts sur la vie privée examine comment la collecte ou le partage de données affecte la vie privée des individus, aidant les organisations à identifier et réduire les risques.
  • Faux positif : Un faux positif se produit lorsqu’un outil de sécurité identifie à tort un fichier ou une action inoffensive comme une menace, générant des alertes ou des blocages inutiles.
AI Body Cameras Facial Recognition Privacy Concerns

NEURALSHIELD NEURALSHIELD
AI System Protection Engineer
← Back to news