Apple et la pédopornographie : plus de questions que de solutions

 

Les nouvelles mesures d'Apple pour lutter contre la pédopornographie suscite une levée de boucliers massive. À juste titre.

L'application Messages de l'iPhone ne semble plus aussi "sécurisée"

L’application Messages de l’iPhone ne semble plus aussi « sécurisée » // Source : Jun Wai Chin (via Unsplash)

Avec l’arrivée d’iOS 15 et macOS Monterey, Apple commence à déployer de nouvelles protections permettant de lutter contre les abus sexuels sur mineurs. Une bonne volonté qui soulève malheureusement beaucoup de questions pour finalement assez peu de résultats.

Deux outils très différents

Ce qu’Apple appelle CSAM Detection (pour Child Sexual Abuse Material) est en fait divisé en deux outils distincts. Le premier concerne l’application Messages et permet de scanner toutes les images qui y transitent afin de repérer, grâce à une intelligence artificielle, du contenu sexuellement explicite envoyé ou reçu. Dans le cas d’un résultat positif, l’image est alors floutée et l’enfant est notifié.

Tout cela se passe directement sur l’iPhone, l’iPad ou le Mac et aucune image n’est donc transmise à Apple. Par ailleurs, cela ne concerne que les appareils des enfants au sein d’un compte familial et les parents ne sont notifiés que si l’enfant a 12 ans ou moins. À partir de 13 ans, l’enfant peut donc décider de regarder les images en question s’il le souhaite, et ce en toute discrétion.

L’idée est plutôt intéressante pour préserver les yeux chastes de nos petites têtes blondes, mais nécessite tout de même que l’enfant passe par Messages et non une autre messagerie (WhatsApp, Telegram, Signal, Messenger…) et ne protège pas vraiment les enfants à partir de 13 ans qui pourraient succomber à des discours enjôleurs. Par ailleurs, certains experts en sécurité affirment que c’est là une atteinte à la promesse de chiffrement de bout en bout de la messagerie, puisqu’un contrôle du contenu est effectué à un moment du processus.

Mais c’est le deuxième outil qui soulève réellement des questions. Celui-ci scanne toutes les photos contenues sur iCloud afin de les comparer à une base de données de contenus pédopornographiques (fournie par le National Center for Missing and Exploited Children) et le signaler aux autorités en cas de correspondance avérée. Apple assure que la sécurité des données est conservée puisque seules les photos contrevenant à la loi sont partagées.

Une vague de mécontentement

À la suite de cette annonce, plusieurs voix se sont élevées contre ce qui est considéré par certains comme une atteinte à la vie privée. Tim Sweeney, fondateur d’Epic Games ayant beaucoup de choses à reprocher à Apple, a par exemple qualifié cela de « spyware gouvernemental », de même que Will Cathcart, le responsable de WhatsApp qui en a profité pour assurer que son application de messagerie n’adopterait jamais un tel système, ou encore l’ONG Electronic Frontier Foundation.

Soyons clairs : les abus sexuels sur mineurs sont horribles et sont condamnés de toute part, mais il existe d’autres moyens de lutter contre ces pratiques qu’une boîte noire opaque. C’est là le principal reproche à l’encontre de la méthode d’Apple. La base de données utilisée par Apple, bien que hashée (rendue illisible par un algorithme), contient du contenu illégal, ce qui empêche quiconque de tenter de le décrypter afin d’en vérifier son contenu. Théoriquement, elle pourrait donc également contenir d’autres éléments.

En pleine lutte contre les fuites, Apple pourrait par exemple intégrer à ce catalogue des images volées de ses propres produits afin de remonter à la source. De même, un gouvernement pourrait forcer Apple à rajouter à cette liste d’autres éléments. Matt Blaze, chercheur en informatique, assure qu’il va désormais « y avoir une énorme pression sur Apple de la part des gouvernements du monde pour étendre cette capacité de détection à d’autres types de ‘mauvais’ contenu ».

Dans un document visant à clarifier les choses, Apple promet de refuser toutes ces demandes et indique que cette base de données est intégrée au système pour éviter une injection pernicieuse d’images afin de repérer un autre contenu… mais il faudra pour cela croire l’entreprise de Cupertino sur parole. Par ailleurs, l’affaire Pegasus a montré qu’il existe toujours des failles de sécurité permettant d’exploiter des vulnérabilités.

Une protection limitée

Cette intégration n’est donc pas sans risque pour les libertés individuelles en ligne et risque malheureusement de n’avoir qu’un impact très faible sur la lutte contre la pédopornographie. Le fonctionnement de ces outils étant détaillé, les plus malintentionnés pourront sans souci les contourner pour arriver à leurs fins. Un simple lien envoyé par l’application Messages par exemple ne serait pas analysé par l’outil d’Apple et pourrait mener vers le même type de contenu.

Pour sa part, Will Cathcart indique que WhatsApp a rapporté 400 000 cas en 2020 au National Center for Missing and Exploited Children, juste en se basant sur les signalements des utilisateurs, et que plus de 300 000 comptes sont bannis chaque mois. Des chiffres qui font un peu peur, il faut bien l’avouer…

Les derniers articles