Les milliards de photos déposées sur Facebook par ses utilisateurs rendent chaque jour plus performants les algorithmes de Deep Learning élaborés par les équipes du Français Yann LeCun. A tel point qu’ils peuvent reconnaître une personne même de dos ! Sans surprise, ce type de rupture technologique fait rêver bien des acteurs de la vidéoprotection. « Les réseaux de neurones, technologie de base du Machine Learning et du Deep Learning [deux technologies de l’intelligence artificielle, NDLR], ont aujourd’hui de 200 à 300 couches de traitement. Résultat, Facebook reconnaît ainsi un visage à 97,25 %. Le réseau social de Mark Zuckerberg saurait même détecter si la personne est en dépression nerveuse, expliquait Vincent Lecerf, expert en intelligence artificielle (IA) et fondateur de la société Metagenia, lors de l’atelier « Ruptures technologiques dans la sûreté » organisé le 5 juin par l’Association nationale de la vidéoprotection (AN2V). Il est donc capital d’avoir les données qui permettent de nourrir et entraîner le modèle. En sécurité, c’est ce qui permet d’apprendre ce qui est normal et ce qui ressort de l’anormalité. » Et, ensuite, de prendre des décisions.
L’IA entre mythe et réalité
Cependant, l’IA ne fait pas tout : « Elle n’a pas d’humour, ne sait pas penser à l’envers ni contourner les difficultés », reprend Vincent Lecerf. Par exemple, l’écrivain et artiste britannique James Bridle n’a eu besoin que de peindre un cercle blanc tout autour d’une voiture autonome pour la bloquer sur place, cette dernière n’ayant pas le droit de franchir une ligne continue ! Par ailleurs, l’IA peut établir des corrélations absurdes. Comme affirmer que l’hôpital est l’endroit le plus dangereux du monde. Ou que plus le budget de la National Aeronautics and Space Administration (Nasa) augmente, plus nombreux sont les suicides. Néanmoins, avec les progrès de l’électronique et du logiciel, les ruptures technologiques s’opèrent dans tous les secteurs d’activité économique. Et celui de la sûreté-sécurité espère bien en tirer parti.
Douze domaines de rupture
Telle est l’objectif de Jacques Roujansky, délégué général du Conseil des industries de la confiance et de la sécurité (CICS) : « Nous sommes en train d’établir notre seconde feuille de route pour l’horizon 2025 dans le but de développer une douzaine de domaines technologiques. » Il en ressort une sérié de ruptures majeures en sécurité et sûreté. A savoir les plateformes de véhicules connectés, de drones et autres robots mobiles, la détection de produits dangereux, l’observation locale, l’identification et l’authentification, les interfaces entre les mondes réel et virtuel, la Blockchain, l’Internet des objets (IoT) et la 5G, le Big Data et l’IA, l’ubérisation et la post-ubérisation ainsi que les plateformes ouvertes de sécurité.
Tenir compte de l’acceptation sociétale
Dans ce contexte, la question est « comment récolter les données et comment se protéger des fausses données, élaborées pour biaiser les systèmes de Machine Learning ? », soulève Jacques Roujansky. Ce dernier a voulu positionner ces ruptures dans le cadre d’écosystèmes et de scénarios (technologique, Low Cost, Shield, Club) par rapport à la Sécurité nationale, aux enjeux de l’État, la création de valeur pour les entreprises et l’acceptation sociétale des nouvelles technologies. Après l’analyse effectuée par le groupe d’études du CICS, les ruptures arrivant en tête sont : le Big Data, l’IoT, l’observation locale, l’identification/authentification et l’analyse. « Cependant, le groupe d’études indique que ces cinq ruptures sont également les moins bien acceptées par la société », remarque Jacques Roujansky. Une chose est sûre : d’ici 2025, il faudra soit mieux communiquer envers les concitoyens soit inventer de nouvelles voies d’innovation plus respectueuses de l’éthique et des libertés.
Éviter les fausses bonnes idées
« Il faut associer les citoyens à la réflexion », estime Stéphane Schmoll, délégué au développement de Safecluster, qui met en garde contre les fausses ruptures. A commencer par les évolutions très lentes et progressives qui, à l’instar de l’intelligence artificielle inventée par Alan Turing en 1942, sont présentées comme de vraies ruptures. Il en va de même pour les ruptures « inventées par des ingénieurs qui n’ont jamais vu un utilisateur ». Pis : les fausses bonnes idées comme l’application smartphone Reporty, mise en test par Christian Estrosy à Nice. Ce système de dénonciation généralisé, au départ destiné à responsabiliser les citoyens pour lutter contre la délinquance, a dû être retiré suite à son interdiction par la Commission nationale informatique et libertés (Cnil). A l’inverse, Stéphane Schmoll désigne comme vraies ruptures les rétines neuronales pour analyser les scènes au niveau même des caméras, les caméras mobiles géolocalisées (drones, voitures, motos, piétons…), ainsi que la fusion des données provenant de capteurs multiples dont les capteurs de son d’une société comme Sensivic.
Erick Haehnsen
Commentez