Suite au terrible attentat dans la mosquée de Christchurch en Nouvelle-Zélande, Facebook a annoncé plusieurs mesures afin de lutter contre la diffusion d’images terroristes en direct sur sa plateforme.

Une restriction de la plateforme “Facebook Live”

Le 15 mars dernier, un acte terroriste a été perpétré à Christchurch en Nouvelle-Zélande, causant près de 50 morts. Le terroriste avait filmé et diffusé en live sa tuerie sur Facebook. Ces images filmées avec une GoPro ont pu être diffusées en direct durant 17 minutes, sans aucune intervention. Ce mercredi à Paris, Jacinda Arden, la première Ministre de Nouvelle-Zélande lance « l’Appel de Christchurch”, avec le président Emmanuel Macron, contre la diffusion de vidéos terroristes en direct. Facebook annonce conjointement des mesures drastiques pour lutter contre ce fléau.

Facebook s’est d’abord intéressé à la plateforme Live, qu’elle propose et qui avait permis au terroriste de diffuser en direct et en toute impunité sa vidéo. Concernant cette plateforme, ils annoncent dans leur communiqué interdire l’utilisation de cette fonctionnalité à toute personne qui ne respecte pas “les politiques les plus sensibles” de Facebook. Jusqu’à maintenant, Facebook supprimait les contenus qui étaient contraires à leurs standards.

À travers leur communiqué, ils expliquent les nouvelles mesures : “S’ils continuaient de publier du contenu enfreignant nos standards, nous les empêchions d’utiliser Facebook pendant un certain temps, leur retirant ainsi la possibilité d’utiliser Facebook Live. (…) Et, dans certains cas, nous les excluons de notre plateforme, en raison de violations mineures répétées ou, dans des cas plus rares, à cause d’une unique violation flagrante.” Ils expliquent également : “Par exemple, quelqu’un qui partage un lien vers un communiqué d’un groupe terroriste sans élément de contexte se verra immédiatement interdire l’utilisation de Facebook Live pour une période déterminée. »

Facebook promet ainsi une restriction de la fonctionnalité pour une durée de 30 jours dans ce cas-là, ce qui permettrait de contrôler les contenus potentiellement dangereux et indésirables.

La difficulté d’avoir la mainmise sur les copies de vidéos

L’entreprise s’est également intéressée à un problème technique de taille qu’elle avait rencontré : les copies de vidéos. En effet, même si la vidéo originale de l’attaque de Christchurch a fini par être supprimée, de nombreuses copies ont commencé à déferler sur le Web, notamment sur les réseaux sociaux et sur YouTube.

Facebook explique ainsi qu’il est assez difficile de contrôler toutes ces copies de vidéos, puisque les algorithmes ont du mal à les identifier. En effet, bien souvent ceux qui partagent la vidéo vont présenter un extrait de vidéo, vont la recadrer ou vont ajouter du texte. En seulement 24 heures, l’entreprise avait annoncé avoir supprimé 1,5 million de vidéos de l’attaque.

Le réseau social annonce ainsi, ce mercredi, investir dans la recherche pour pouvoir mettre au point une technologie qui permettrait de traquer ces copies modifiées de vidéos. Avec un investissement de 7,5 millions de dollars soit 6,7 millions d’euros et avec la contribution de trois universités, ils espèrent trouver un moyen efficace et rapide pour éradiquer ces contenus litigieux.

Pensez-vous que les moyens entrepris par Facebook pour lutter contre la diffusion en direct d’images terroristes sont efficaces ?

COMMENTEZ

Inscrivez-vous ou connectez-vous pour commenter
avatar
  S’abonner  
Notifier de