Modération de Facebook et Youtube : l’humain indispensable, l’I.A. étant loin du compte

L’intelligence artificielle est encore loin du compte quand il s’agit de faire le tri des contenus acceptables sur les médias sociaux.

30 000 personnes fin 2018

Conséquence, qu’il s’agisse de Youtube ou de Facebook, ce sont des milliers de personnes qui sont mobilisées pour ingurgiter des millions de contenus déversés chaque jour et faire le tri entre ce qui est publiable ou pas. Fin 2018, les deux réseaux mobiliseront 30 000 personnes pour la modération de leurs contenus et encadrer leur usage. Ces enjeux concernent également Apple ou Microsoft.

10 000 personnes chargées du tri des contenus pour Google

Début décembre, Susan Wojcicki, DG de YouTube, annonçait qu’elle fera en sorte qu’il y ait 10 000 personnes travaillant à la visualisation et au tri des contenus chez Google en 2018. Et ce ne sera pas du luxe puisque chaque jour, 65 ans de vidéos est ajouté à Youtube.

Quant à Facebook, Mark Zuckerberg début mai, annonçait qu’il allait ajouter 3000 opérateurs en 2018 aux 4500 qui traquent déjà les contenus indésirables sur son réseau social et doivent traiter les millions de signalisations remontant des utilisateurs chaque semaine. En octobre, il ajoutait que 1000 personnes supplémentaires seraient employées à vérifier les publicités avant publication sur Facebook.

Il s’agissait alors de répondre aux accusations d’avoir diffusé des publicités favorables à Donald Trump et achetées par la Russie pour manipuler l’élection présidentielle américaine.

20 000 personnes employées à la sécurité et à la sûreté pour Facebook

Le 31 octobre, Colin Stretch, avocat de Facebook, témoignant devant le sénat américain annonçait que Facebook aurait 20 000 personnes travaillant à la sécurité et la suppression des comportements indésirables à la fin de 2018 contre 10 000 en 2017. Un chiffre impressionnant puisque Facebook employait environ 20 600 personnes en interne en juin dernier.


Les équipes qui travaillent spécifiquement sur les contenus terroristes comprenant plusieurs milliers de travailleurs, dont 150 consacrent leur temps à retirer ces contenus terroristes. Mais qu’il s’agisse d’actes de guerre ou de terrorisme, de violence, de sauvagerie, de suicide, d’abus sur les enfants, toutes ces images doivent être visualisées par ces opérateurs.

Des opérateurs qui sont en fait souvent les employés de prestataires externes auxquels font appel les géants de l’internet, relève le Wall Street Journal. Ce choix de l’externalisation n’est pas innocent, le travail de visionnage de milliers de contenus répugnants étant particulièrement éprouvant pour les personnes qui le réalisent, pas très high tech et non sans conséquence sur leur santé mentale.

2 millions de vidéos évaluées en 6 mois sur le critère de violence extrémiste

La DG de Youtube tente bien de montrer que le Machine Learning progresse afin de traiter de manière automatisée certains contenus. Mais elle reconnaît que l’être humain demeure essentiel, afin de contextualiser l’information. Entre juin et novembre, ce sont 2 millions de vidéos Youtube qui ont été évaluées à la main par les opérateurs en fonction de leur violence extrémiste. 150 000 vidéos ont été retirées finalement.

A ce jour, le Machine Learning aide les opérateurs à retirer 5 fois plus de vidéos que des opérations uniquement manuelles. Les algorithmes en sont encore à être entraînés pour qu’un jour, peut être, l’I.A. puisse enfin vraiment prendre la relève de l’être humain.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *