À bord des caméras, stockeurs, serveurs, VMS et autres superviseurs, l’IA fait son chemin dans la sûreté. D’ici trois ans, 41 % des caméras de vidéoprotection devraient l’embarquer. De quoi décentraliser l’analyse d’image. Voire étendre l’utilisation des caméras à la mobilité urbaine et à la gestion de l’environnement.
Apprentissage automatique (Machine Learning), apprentissage profond (Deep Learning), détection automatique d’anormalités, Big Data, temps réel, Forensic, analyse comportementale, reconnaissance faciale… l’intelligence artificielle (IA) prend de multiples formes dans le domaine de la sûreté. Mais, derrière les effets d’annonce, quelles en sont les réalités sur le terrain ? Quelles sont les offres opérationnelles ? Quelles en sont les apports et les limites ? Pour répondre à ces questions, l’Association nationale pour la vidéoprotection (AN2V) a organisé une table ronde en distanciel le 16 mars dernier présentant des offres vendues sur le marché.
Acic : 25 000 caméras équipées d’IA
Témoin l’éditeur belge Acic, créé en 2003, qui s’est fait la main dans l’analyse vidéo et l’extraction de données (Data Mining) au service, entre autres, du dénombrement de foules, du comptage de personnes, de la lecture automatique de plaques d’immatriculation (LAPI) ou de la surveillance de trafic routier. En 2007, Acic a démarré ses développements en IA. Depuis 2020, elle vend des solutions d’IA embarquées dans des caméras de vidéosurveillance fixes pour la classification du trafic, la lutte contre les incivilités, la détection d’objets abandonnés, la détection d’intrusion, la vérification du port d’EPI (équipements de protection individuelle) et la gestion de parking. « Nos solutions se retrouvent aujourd’hui sur plus de 25 000 caméras », explique Lorenzo Bassani, le PDG de l’entreprise. Depuis cette année, Acic porte ses algorithmes en comptage, classification et détection sur des caméras d’Axis Communications, Dahua et HIKvision utilisées en systèmes déportés (Edge) temporaires… « L’IA n’est peut-être pas la panacée mais, utilisée à bon escient, notamment pour la détection de colis abandonnés en extérieur, elle apporte un meilleur taux de performance que l’analyse vidéo classique. »
Approches hybrides
Mais avec des limites : « L’apprentissage d’un modèle de Deep Learning réclame des millions d’images. Ce qui rend sa capacité prédictive très efficace, reconnaît Jean-Baptiste Ducatez, PDG de l’éditeur lyonnais d’analyse d’images Foxstream, spécialisé depuis quinze ans dans l’IA. La limite, c’est que, face à un objet qu’il ne connaît pas, un tracteur par exemple, au mieux il dira que c’est un camion ou une moto. Au pire, il en niera l’existence. » D’où l’intérêt de développer des approches hybrides combinant IA à des méthodes plus classiques. Comme l’analyse de modélisation du fond, la détection de mouvement et le filtrage d’objets.
Rendre les caméras urbaines multi-applicatives
De son côté l’américain BriefCam transforme les données brutes de la vidéo en données structurées, quantifiables et exploitables. L’éditeur génère à la volée des méta-données sur tous les objets et personnages des scènes filmées puis il réduit les heures de vidéos où rien ne se passe à un synopsis quelques minutes qui met en scène ce qui est important. Ainsi les événements ayant eu lieu à des moments différents sont-ils présentés simultanément. « De cette manière, une caméra peut aussi avoir plusieurs utilités », estime Florian Leibovici, directeur des ventes de BriefCam pour l’Europe. Autrement dit, les mêmes images peuvent servir à la sécurité publique (détection dynamique des foules, enquête vandalisme/graffitis, détection de fumées et situations d’urgence). Mais aussi à la mobilité urbaine (gestion du stationnement et des infractions, flux de trafic et détection des accidents, LAPI pour reconnaissance des véhicules volés). Et à la gestion environnementale de la ville (détection des dépôts sauvages d’ordures, surveillance météo et des inondations).
Vers un modèle d’analyse décentralisée
En 2020, 49 % des caméras IP n’embarquaient aucune analyse d’image mais presque autant, 46 %, en embarquaient et seules 5 % d’entre elles contenaient un processeur d’analyse d’image doté d’algorithmes de Deep Learning, selon une étude de Panasonic Business. En 2024, les parts des deux premières catégories de caméras IP devraient tomber respectivement à 26 % et 33 %. Tandis que celle des caméras avec Deep Learning embarqué devrait atteindre 41 %. Conséquence : « On redéfinit le rôle de la caméra comme un équipement d’analyse d’image en amont. Ce qui va rendre les VMS [Video Management System] plus efficace avec moins de personnel, décrit Emmanuel Berthelot, responsable commercial chez Panasonic Business Europe. La grande innovation, c’est qu’on décentralise la puissance de calcul dans la caméra qui analyse avec une résolution 4K en natif. » Autrement dit, l’analyse d’image s’affranchit de la coûteuse centralisation des traitements.
Distribuer les applications comme pour les smartphones
Pour sa part, HIKvision prévoit de déployer l’IA non seulement dans les caméras et les stockeurs mais aussi dans les les serveurs. Sachant que l’IA est déjà à bord des VMS et superviseurs de ses partenaires ainsi que dans nombre de ses propres logiciels. Pour aller plus loin, Roc4t.tech lance l’initiative Open Security and Safety Alliance (OSSA) afin de distribuer l’installation des applications de sécurité dans les caméras comme sur des smartphones.
Erick Haehnsen
Commentez