Une perspective de modération sur le web

 

Le machine learning, ou comment les ordinateurs ont appris le harcèlement 

La semaine dernière, Jared Cohen, président chez Jigsaw, filiale d’Alphabet annonçait le lancement de son nouvel API pour vaincre le harcèlement en ligne en misant sur l’intelligence artificielle. L’apprentissage automatique ou encore « machine learning » peut dorénavant anticiper et prévoir les comportements des utilisateurs sur Internet, déclarer la guerre aux trolls et ainsi vaincre la violence sur le web.

Ce nouvel API appelé Perspective permet à tous les développeurs de vaincre le harcèlement. L’intelligence artificielle développée chez Perspective utilise l’apprentissage automatique pour détecter automatiquement les insultes ou tout autre propos injurieux sur le web. Jigsaw confirme qu’iI peut immédiatement évaluer la gravité d’une phrase plus rigoureusement que n’importe quelle liste de mots clés malveillants. Il agit aussi plus rapidement que n’importe quel modérateur humain.

 

Harcèlement sur Internet

Selon Google, plus de 72% d’utilisateurs Américains ont été témoins de harcèlement en ligne et près de la moitié confirme en avoir été victime. Près d’un tiers censure leurs propos par crainte de représailles. Selon le même rapport, 140 millions américains affirment en avoir souffert.

Perspective déjà chez les grands médias numériques

Le harcèlement en ligne n’affecte pas seulement les utilisateurs. C’est aussi un problème important chez les grands médias de ce monde qui souhaitent soutenir un niveau de discussion autour de leur contenu plutôt que de gérer des millions de commentaires abusifs. Plusieurs sites d’informations ont dû supprimer l’accès aux commentaires. Ce n’est pas toujours la solution idéale, mais c’est là ou Perspective présente comme la solution idéale.

En ce moment, Wikipédia l’utilise pour réaliser une étude sur ses pages de discussions. Également, The Guardian et The Economist testent la nouvelle plateforme pour améliorer leurs sections de commentaires.

« Au final, nous voulons que l’Intelligence artificielle nous informe des cas problèmes plus rapidement. (…) Nous afficherons un espace libre où tout le monde peut débattre intelligemment »

a indiqué Mme Law, rédactrice en chef The Economist.  

De plus, Jigsaw a testé une version de l’API chez The New York Times, où une équipe complète s’assure de la modération de plus de 11 000 commentaires chaque jour. Seulement 10 pour cent de peurs pages sont ouvert aux commentaires. En somme, le Times a su développer des modèles qui permettent aux modérateurs de trier et schématiser les commentaires tout en permettant des commentaires sur plus d’articles chaque jour.

 

Comment ça fonctionne ?

Perspective scrute les commentaires et les classe en fonction de degré de similarité aux commentaires «toxiques» ou susceptibles de faire quitter une conversation. Pour déceler tout échange potentiellement nocif, Perspective a épluché des centaines de milliers de commentaires sur plusieurs réseaux. On a ensuite pu marquer les types de comportements et commentaires nuisibles qui avaient été étiquetés au préalable par des spécialistes.

Les éditeurs peuvent choisir ce qu’ils veulent faire avec les informations qu’ils obtiennent de Perspective. Par exemple, un éditeur peut signaler les commentaires de ses propres modérateurs pour les examiner et décider de les inclure dans une conversation. Il pourrait aussi fournir des outils pour aider sa communauté à comprendre l’impact de ce qu’ils ont écrit. Par exemple, laisser le commentateur voir la toxicité potentielle de leurs propres commentaires.

Enfin, les webmestres pourraient aussi permettre aux lecteurs de trier les commentaires par niveaux de nuisance et de toxicité. De cette façon, on pourrait améliorer le niveau de discussions sur ses forums et améliorer le niveau de conversations en ligne.

 

Sources : Blogue Google The Wired

 

Facebook, Instagram, LinkedIn

bool(false)