L’intelligence artificielle est encore loin du compte quand il s’agit de faire le tri des contenus acceptables sur les médias sociaux.
30 000 personnes fin 2018
Conséquence, qu’il s’agisse de Youtube ou de Facebook, ce sont des milliers de personnes qui sont mobilisées pour ingurgiter des millions de contenus déversés chaque jour et faire le tri entre ce qui est publiable ou pas. Fin 2018, les deux réseaux mobiliseront 30 000 personnes pour la modération de leurs contenus et encadrer leur usage. Ces enjeux concernent également Apple ou Microsoft.
10 000 personnes chargées du tri des contenus pour Google
Quant à Facebook, Mark Zuckerberg début mai, annonçait qu’il allait ajouter 3000 opérateurs en 2018 aux 4500 qui traquent déjà les contenus indésirables sur son réseau social et doivent traiter les millions de signalisations remontant des utilisateurs chaque semaine. En octobre, il ajoutait que 1000 personnes supplémentaires seraient employées à vérifier les publicités avant publication sur Facebook.
Il s’agissait alors de répondre aux accusations d’avoir diffusé des publicités favorables à Donald Trump et achetées par la Russie pour manipuler l’élection présidentielle américaine.
20 000 personnes employées à la sécurité et à la sûreté pour Facebook
Les équipes qui travaillent spécifiquement sur les contenus terroristes comprenant plusieurs milliers de travailleurs, dont 150 consacrent leur temps à retirer ces contenus terroristes. Mais qu’il s’agisse d’actes de guerre ou de terrorisme, de violence, de sauvagerie, de suicide, d’abus sur les enfants, toutes ces images doivent être visualisées par ces opérateurs.
Des opérateurs qui sont en fait souvent les employés de prestataires externes auxquels font appel les géants de l’internet, relève le Wall Street Journal. Ce choix de l’externalisation n’est pas innocent, le travail de visionnage de milliers de contenus répugnants étant particulièrement éprouvant pour les personnes qui le réalisent, pas très high tech et non sans conséquence sur leur santé mentale.
2 millions de vidéos évaluées en 6 mois sur le critère de violence extrémiste
A ce jour, le Machine Learning aide les opérateurs à retirer 5 fois plus de vidéos que des opérations uniquement manuelles. Les algorithmes en sont encore à être entraînés pour qu’un jour, peut être, l’I.A. puisse enfin vraiment prendre la relève de l’être humain.