Pour déployer les algorithmes qui génèrent de nouvelles données à partir des capteurs, l’Edge Computing devient l’allié naturel de l’IA et du Cloud. Comment se répartissent les rôles ?
Caméras vidéo, détecteurs d’intrusion, radars, barrières infrarouges… tous les capteurs déployés en sécurité-sûreté participent à la construction d’un système d’information (SI) à part entière : le SI de la sûreté globale (SISG) d’un site. À l’instar des autres systèmes d’information de l’entreprise (bureautique, RH, production industrielle, logistique, sécurité incendie…), le SISG recherche son pilotage par la donnée afin de gagner en efficacité et en qualité. Dans ce contexte, l’intelligence artificielle (IA) a fait son irruption pour analyser des montages de données, notamment des flux vidéo, afin d’extraire une aiguille d’une botte de foin. Jusqu’à présent, l’analyse s’effectuait en central. Progressivement, les traitements se décentralisent à la source des données, à la périphérie du réseau. C’est-à-dire à bord même des équipements de sécurité électronique. D’où l’expression Edge Computing. Désormais, l’avenir des SISG s’oriente vers une alliance entre IA, Edge Computing et Cloud.
Capter, analyser, partager
« À l’heure où la donnée explose, les tuyaux risquent d’être encombrés par leur transmission. À cet égard, la force du Edge Computing, c’est d’analyser la donnée là où elle est produite afin de n’envoyer aux agents de sécurité que ce qui est indispensable. Ce qui soulage leur charge mentale, explique Amaury Chapeau, responsable des partenariats technologiques de Milestone Systems en France, l’éditeur danois de plateformes logicielles de vidéosurveillance (VMS). Au lieu d’envoyer tout le flux vidéo à visionner, on ne transmet que l’information pertinente, par exemple ‘‘une personne en pull rouge avec un sac-à-dos’’. » Dans un monde idéal, on ne trouverait que de puissantes caméras IP dotées de fonctions d’intelligence artificielle capables de ne remonter que les alertes. « En réalité, il existe encore un très grand nombre de capteurs d’anciennes générations ou dépourvus de capacité d’analyse. Certains sont numériques mais avec peu d’intelligence. D’autres sont même analogiques », reprend Amaury Chapeau. Il faut donc rajouter un étage d’intelligence à la périphérie des réseaux (Edge) pour accélérer la centralisation de la donnée et en faciliter l’analyse ainsi que le partage dans le Cloud. »
De la sécurité à la Smart & Safe City
D’où l’intérêt du partenariat entre Milestone Systems et le californien Nvidia, spécialiste des processeurs graphiques (GPU) et de traitement graphique qui assurent le traitement massivement parallèle des données dont l’IA est très consommatrice. Ces deux sociétés ont pour objectif d’accélérer l’adoption de technologies d’IA dans la vidéo pour apporter de nouveaux usages concrets et disruptifs. Cette initiative globale tombe à point nommé pour contribuer à l’organisation de la prochaine Coupe du Monde de Rugby en 2023 et des Jeux olympiques et paralympiques (JO) de 2024. « Avec cette alliance, nous envisageons d’accueillir de nouvelles solutions dont les algorithmes sont élaborés par les partenaires de Nvidia qui leur fournit des environnements de développement privilégiés, poursuit Amaury Chapeau. L’idée consiste à intégrer ces fonctionnalités pour faire de Milestone Systems un agrégateur de technologies vidéo en faveur de la Smart & Safe City. »
Cas d’usage
Parmi les trois développeurs d’algorithmes déjà envisagés, citons Wintics qui cherche à fluidifier le trafic urbain en connectant des données de comptage des véhicules (voitures, camions, vélos, trottinettes…) afin d’en tirer des prévisions. Notamment pour prévenir les goulets d’étranglement. « L’Edge consistera à accoler à une caméra une machine de calcul Nvidia qui lui fournira l’intelligence nécessaire à l’analyse en local », précise le responsable des partenariats technologiques de Milestone Systems. Citons également Two-i dont les algorithmes savent détecter des événements anormaux liés à la sécurité : intrusion, présence anormale de véhicules… « Dans l’est de la France, cette technologie a été capable d’identifier de forts ralentissements sur une route nationale malgré la présence de ronds-points, souligne Amaury Chapeau. En réalité, l’analyse a révélé qu’un grand nombre de piétons traversaient la RN. Une passerelle a été installée et le problème a été réglé. » Quant au troisième partenaire, XXII, il apporte à la plateforme de Milestone Systems des algorithmes qui œuvrent au bon fonctionnement des villes. Notamment par la détection en temps réel de dépôts sauvages ou des infractions au code de la route (stationnement gênant, sens interdit, etc.).
Les trois étages du Edge
« Le calcul de l’IA se déroule sur trois étages du Edge Computing », résume William Eldin, PDG de XXII, start-up créée en 2015 qui, basée à Paris-La Défense, emploie 60 salariés pour un chiffre d’affaires de 1,7 million d’euros. Premier étage : la caméra dont l’IA embarquée est limitée en raison de sa faible puissance de calcul à des opérations comme le comptage ou la détection de bas niveau. « Les modèles dernier cri d’Hanwhua, Axis Communications et Bosch (ou, dans une certaine mesure ceux de Mobotix), disposent de microprocesseurs de plus en plus puissants pour des analyses embarquées », estime Amaury Chapeau. « Mais le problème vient surtout des parcs existants dont les modèles sont anciens. Du coup, pour les calculs plus complexes, il est nécessaire d’avoir un serveur doté d’une puissance élevée grâce à des GPU », complète William Eldin qui propose le second étage du Edge avec des serveurs capables d’analyser les flux de 50 caméras avec plusieurs algorithmes en parallèle. Le serveur accède à une intelligence de réseau qui permet de comprendre des phénomènes complexes de tracking sur plusieurs caméras. Ce que n’offre pas l’IA embarquée en Edge dans une seule caméra. »
Au troisième étage, le Cloud sert à partager l’information et opérer des tableaux de bord, notamment des statistiques. « Le problème du Cloud, c’est que l’analyse en temps réel des flux vidéo est très chère en puissance de calcul et en bande passante », soulève William Eldin. À titre d’exemple, une instance GPU à 15 ou 20 flux revient 10 centimes de l’heure chez AWS. Or une ville moyenne aura besoin de 30 flux, soit 500 euros par mois ainsi que de 500 euros par mois de bande passante. Soit 12 000 euros par an contre 10 000 euros à vie pour un serveur. Côté montée en charge, le Edge réclame de rajouter un serveur si l’on dépasse 50 flux. Un désagrément que ne connaît pas le Cloud.
Erick Haehnsen
Commentez