Une erreur dans le texte ?

C'est le bon endroit pour nous l'indiquer !
Attention, ce formulaire ne doit servir qu'à signaler une erreur. N'hésitez pas à utiliser la page de contact pour nous contacter ou nous faire part de vos suggestions. Merci.

Etape 1

Cliquez sur les paragraphes contenant des erreurs !

YouTube dégaine de nouvelles armes anti-haine pour mieux protéger les vidéastes

Problème endémique sur le net, les commentaires ouvertement hostiles, irrespectueux voire carrément toxiques sont légions. Parmi les premiers concernés par ce fléau, YouTube a annoncé le déploiement progressif de plusieurs fonctionnalités ayant un double objectif : dissuader les haters de poster leurs commentaires haineux, mais aussi protéger les vidéastes en proposant un filtre de modération destiné à leur éviter la lecture de ce type de contenus.

YouTube prévoit aussi de mener en 2021 une enquête auprès des créateurs pour récolter des données qui viseront à déterminer pourquoi certains vidéastes sont plus concernés par la haine en ligne et le harcèlement. La principale nouveauté reste néanmoins l'apparition sur la plateforme d'un message d'avertissement lorsqu'un utilisateur s'apprêtera à publier un commentaire offensant. Il lui sera alors possible de consulter le règlement de la communauté, de modifier son commentaire (au travers d'un bouton bien en évidence)... ou de le partager quand même.

Haine en ligne : YouTube prend le problème à bras le corps (ou en tout cas essaye)

Avec cette alerte, YouTube veut avant tout se montrer dissuasif en ajoutant un obstacle à la publication d'un commentaire susceptible d'être haineux. L'idée est vaguement reprise d'Instagram qui a mis en place un système similaire l'année dernière. La plateforme a depuis indiqué que cette méthode avait aidé à réduire le harcèlement dans les commentaires, sans toutefois fournir de données précises. Comme le rapporte TechCrunch, ce type de mesures arrive tardivement sur les réseaux. Car si elles peuvent effectivement dissuader la publication de commentaires déplacés, et contribuer à réduire le harcèlement, elles induisent aussi une éventuelle baisse du taux d'engagement pour les plateformes. Un problème redouté par YouTube, Instagram et bien d'autres.

Dans le cas de YouTube, le système d'alerte sera basé sur des algorithmes capable d'apprendre quels types de commentaires sont irrespectueux en analysant ceux qui sont le plus souvent signalés par les utilisateurs. IA oblige, ce système se perfectionnera avec le temps.

En parallèle, YouTube compte aussi proposer un filtre aux vidéastes pour leur épargner la lecture de contenus haineux. Ce dernier sera proposé par l'intermédiaire de l'outil de gestion de chaîne YouTube Studio. Une fois actif, ce filtre cachera les commentaires blessants ayant été préalablement signalés. Jusqu'à présent, la modération des commentaires requiert dans certains cas l'intervention des vidéastes eux-mêmes, qui se trouvent alors confrontés à des messages potentiellement choquants. YouTube veut éviter cela.

Ces mesures seront complétées, promet le service, par une réorganisation de son processus de modération afin de rendre plus rapide et efficace le traitement des commentaires signalés. La plateforme explique avoir multiplié par 46 le nombre de suppression de commentaires haineux depuis 2019. On apprend en outre que sur le dernier trimestre plus de 1,8 millions de chaînes ont été suspendues. 54 000 d'entre elles pour des discours de haine.