YouTube teste une option pour empêcher la diffusion de Deepfakes

 
YouTube annonce le déploiement d’un nouveau système de détection permettant aux créateurs d’identifier si leur visage a été dupliqué par intelligence artificielle.
Logo YouTube // Source : Frandroid

Les intelligences artificielles continuent de se perfectionner. De simple LLM de conversation, certains modèles ont évolué pour être aujourd’hui capables de créer des images, mais également de la vidéo. Criant de réalisme, certains de ces modèles comme Sora 2 d’OpenAI ou Grok de xAI peuvent reproduire des visages connus. Une situation pouvant conduire à la production de Deepfakes.

Pour aller plus loin
Le « Spicy Mode » de Grok génère des deepfakes sans contrôle

Pour lutter contre ces dérives, YouTube teste un système de détection de ressemblance par IA pour ses créateurs de contenus.

Un système facile d’accès

Après une phase de test menée en septembre 2024, l’outil commence à être déployé auprès de 5 000 créateurs, indique The Wrap. Ces derniers pourront voir au sein de leur espace YouTube Studio un nouvel onglet intitulé « Détection de contenu ».

Pour activer cette nouvelle technologie, ils devront donner un accord de consentement, fournir une preuve de leur identité ainsi qu’un selfie vidéo. L’utilisateur sera intégré au programme en quelques jours, une fois les vérifications faites.

YouTube justifie ce nombre restreint d’utilisateurs à The Wrap en précisant avoir sélectionné les utilisateurs qui « en auraient besoin le plus rapidement ».

Ce nouvel outil sera disponible pour l’ensemble des créateurs monétisés dans le monde à compter de janvier 2026.


Retrouvez tous les articles de Frandroid directement sur Google. Abonnez-vous à notre profil Google pour ne rien manquer !

Recherche IA boostée par
Perplexity