YouTube dégaine de nouvelles armes anti-haine pour mieux protéger les vidéastes

Les commentaires toxiques plus efficacement jetés aux oubliettes

 

YouTube déploie de nouvelles fonctionnalités permettant de lutter avec plus d'efficacité contre les commentaires irrespectueux, toxiques et / ou haineux. Un moyen pour la firme de protéger les vidéastes de la frange la moins reluisante de leurs communautés.

YouTube sur smartphone
YouTube sort le grand jeu pour mettre au placard le plus rapidement possible les commentaires haineux, mais aussi pour dissuader les utilisateurs d’en poster…

Problème endémique sur le net, les commentaires ouvertement hostiles, irrespectueux voire carrément toxiques sont légions. Parmi les premiers concernés par ce fléau, YouTube a annoncé le déploiement progressif de plusieurs fonctionnalités ayant un double objectif : dissuader les haters de poster leurs commentaires haineux, mais aussi protéger les vidéastes en proposant un filtre de modération destiné à leur éviter la lecture de ce type de contenus.

YouTube prévoit aussi de mener en 2021 une enquête auprès des créateurs pour récolter des données qui viseront à déterminer pourquoi certains vidéastes sont plus concernés par la haine en ligne et le harcèlement. La principale nouveauté reste néanmoins l’apparition sur la plateforme d’un message d’avertissement lorsqu’un utilisateur s’apprêtera à publier un commentaire offensant. Il lui sera alors possible de consulter le règlement de la communauté, de modifier son commentaire (au travers d’un bouton bien en évidence)… ou de le partager quand même.

Haine en ligne : YouTube prend le problème à bras le corps (ou en tout cas essaye)

Avec cette alerte, YouTube veut avant tout se montrer dissuasif en ajoutant un obstacle à la publication d’un commentaire susceptible d’être haineux. L’idée est vaguement reprise d’Instagram qui a mis en place un système similaire l’année dernière. La plateforme a depuis indiqué que cette méthode avait aidé à réduire le harcèlement dans les commentaires, sans toutefois fournir de données précises. Comme le rapporte TechCrunch, ce type de mesures arrive tardivement sur les réseaux. Car si elles peuvent effectivement dissuader la publication de commentaires déplacés, et contribuer à réduire le harcèlement, elles induisent aussi une éventuelle baisse du taux d’engagement pour les plateformes. Un problème redouté par YouTube, Instagram et bien d’autres.

Dans le cas de YouTube, le système d’alerte sera basé sur des algorithmes capable d’apprendre quels types de commentaires sont irrespectueux en analysant ceux qui sont le plus souvent signalés par les utilisateurs. IA oblige, ce système se perfectionnera avec le temps.

Voici l’alerte qui apparaîtra lorsqu’un commentaire haineux sera sur le point d’être publié // Source : YouTube via TechCrunch

En parallèle, YouTube compte aussi proposer un filtre aux vidéastes pour leur épargner la lecture de contenus haineux. Ce dernier sera proposé par l’intermédiaire de l’outil de gestion de chaîne YouTube Studio. Une fois actif, ce filtre cachera les commentaires blessants ayant été préalablement signalés. Jusqu’à présent, la modération des commentaires requiert dans certains cas l’intervention des vidéastes eux-mêmes, qui se trouvent alors confrontés à des messages potentiellement choquants. YouTube veut éviter cela.

Ces mesures seront complétées, promet le service, par une réorganisation de son processus de modération afin de rendre plus rapide et efficace le traitement des commentaires signalés. La plateforme explique avoir multiplié par 46 le nombre de suppression de commentaires haineux depuis 2019. On apprend en outre que sur le dernier trimestre plus de 1,8 millions de chaînes ont été suspendues. 54 000 d’entre elles pour des discours de haine.


Envie de rejoindre une communauté de passionnés ? Notre Discord vous accueille, c’est un lieu d’entraide et de passion autour de la tech.