Le 15 mars dernier, un terroriste d’extrême droite massacrait 51 personnes dans deux mosquées situées à Christchurch, en Nouvelle-Zélande. Comble de l’horreur, il s’était filmé pour diffuser ses images en direct durant 17 longues minutes grâce à l’application Live de Facebook. Les images ont fait le tour du monde, impliquant le média social de Marc Zuckerberg dans une complicité involontaire d’apologie du meurtre raciste. « Cela a été un acte horrible, tragique pour la Nouvelle-Zélande et pour le monde entier, qui nous a tous choqués. Et face à la diffusion de cette vidéo – 17 minutes c’est bien trop, trente secondes c’est trop, une seconde c’est trop. Bien sûr qu’il faut prendre des décisions », a expliqué au micro de Franceinfo ce mercredi matin Laurent Solly, DG de Facebook France et Europe du Sud, avant de détailler deux mesures importantes adoptées par le réseau social.
Durcir les règles d’utilisation de Live
« La première [décision], c’est que nous durcissons les règles d’utilisation de Facebook Live. Nous allons interdire à des utilisateurs, qui auraient enfreint nos règles les plus sensibles et les plus strictes de sécurité, l’utilisation du Live », annonce le DG France du réseau social aux 2,5 milliards de membres dans le monde, dont 36 millions dans l’Hexagone. [Cette mesure] aurait permis d’éviter que le tueur de Christchurch n’utilise Facebook Live pour diffuser [en direct] le massacre de 51 personnes […]. » Et Laurent Solly d’enchaîner : « Si vous postez un contenu, si vous postez un lien lié à une personne ou à un groupe terroriste ou qui propage la haine, vous êtes immédiatement sanctionné, vous ne pouvez plus utiliser Facebook Live. »
Lutter contre la manipulation de vidéos
La seconde mesure concerne la lutte contre les contenus manipulés sur Facebook. La firme de Menlo Park (Californie) mise ainsi sur un partenariat de recherche, doté de 7,5 millions de dollars (6,7 millions d’euros), avec trois universités américaines. Objectif : améliorer les capacités d’analyse des images sur le réseau social. Un programme attendu car, après l’attentat de Christchurch, « en 24 heures, nous avons bloqué plus de 1,2 million de vidéos, confie Lurant Solly. Mais nous avons constaté qu’un peu moins d’un millier de vidéos avaient été manipulées, changées, que certaines secondes avaient été coupées, remontées, pour pouvoir s’affranchir des barrières, notamment de nos outils d’intelligence artificielle. » Ce programme de recherche devrait également améliorer les dispositifs de Facebook pour lutter contre la manipulation des contenus. Il n’est, cependant, pas certain que cette évolution soit prête pour les élections européennes…
Erick Haehnsen
Commentez