Facebook veut supprimer les contenus terroristes avant diffusion grâce à l’I.A.

Facebook déploie une intelligence artificielle afin d’empêcher l’usage terroriste de son service. C’est que la société a annoncé jeudi dernier par un article de blog. 

L’intelligence artificielle sera utilisée en conjonction avec des examinateurs humains afin de supprimer les contenus terroristes avant que les utilisateurs du réseau social ne les voient.

Facebook semble ainsi répondre aux demandes conjointes de Theresa May, Premier ministre britannique et Emmanuel Macron, Président de la République, d’accélérer le blocage des contenus terroristes.

Le Président de la République soulignait qu’un contenu terroriste touche la moitié des esprits susceptibles d’être manipulés en moins de 2 heures.  Quant à Theresa May, elle ajoutait que les deux gouvernements préparaient la possibilité de poursuivre en justice les géants du Web qui ne retireraient pas les contenus incriminés.

L’article publié par Facebook reconnaît que les récentes attaques terroristes  amènent les gens à mettre en question le rôle des sociétés de technologie . « Nous sommes d’accord avec ceux qui disent que les médias sociaux ne doivent pas être un endroit où les terroristes ont une voix, » annoncent-ils.


Facebook utilisera la reconnaissance d’images afin de détecter si une photo ou une vidéo terroriste ressemble à une photo ou une vidéo terroriste déjà connue. Mais comme il n’est pas toujours facile pour une intelligence artificielle de savoir si un drapeau de l’Etat Islamique illustre un article de presse ou de la propagande, l’opérateur humain restera nécessaire.

De plus, Facebook exploite la compréhension du langage et déclare avoir démarré une expérimentation afin de détecter si un texte fait l’apologie du terrorisme. Facebook travaille à partir de textes déjà supprimés de la plateforme qui étaient favorables à ISIS ou à Al Qaeda afin de développer des signaux sur des contenus pouvant être de la propagande terroriste.

« L’algorithme en est à ses premiers pas d’apprentissage dans la détection d’articles similaires. Les algorithmes de Machine Learning fonctionnent en boucle fermée et s’améliorent avec le temps, » promet Facebook.

Dans le même temps, Facebook souligne qu’il détecte les groupes de terroristes sur son réseau, par les liens qu’ils entretiennent. La détection de faux comptes créés par des personnes déjà rejetées est également plus rapidement réussie. Le travail de détection s’effectue entre les trois plateformes Facebook, WhatsApp et Instagram appartenant au même groupe, les données étant alors partagées entre ces trois réseaux sociaux.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *