Une erreur dans le texte ?

C'est le bon endroit pour nous l'indiquer !
Attention, ce formulaire ne doit servir qu'à signaler une erreur. N'hésitez pas à utiliser la page de contact pour nous contacter ou nous faire part de vos suggestions. Merci.

Etape 1

Cliquez sur les paragraphes contenant des erreurs !

Apple Siri : des discussions confidentielles (trafic de drogue, relations...) écoutées par des humains

Tout comme Amazon et Google, Apple fait écouter une sélection de commandes Siri par des sociétés tierces afin d'améliorer la pertinence de ses réponses. Cela signifie que des humains ont entendu certaines discussions parfois sensibles ou des situations gênantes.

Récemment, Google se retrouvait au cœur d'une polémique lorsqu'un média belge a soulevé le fait que certaines conversations que l'on peut avoir Google Assistant sont écoutées par des humains. Ces discussions, anonymisées, servent à peaufiner l'assistant personnel afin d'améliorer sa compréhension et ses réponses. C'est d'ailleurs le cas également pour Amazon qui fait de même avec sa base de données de requêtes Alexa.

De son côté, Apple procède également de la même façon avec Siri. En 2015 déjà, dans les CGU d'iOS, on pouvait d'ailleurs lire que « vous acceptez et convenez qu’Apple, ses filiales et agents transmettent, recueillent, conservent, traitent et utilisent ces informations, y compris vos entrées vocales et les données utilisateur, pour offrir et améliorer Siri ». Si le message est clair, il ne précise pas que cela concerne à la fois les discussions déclenchées volontairement avec l'assistant, mais aussi toutes les fois où Siri se déclenche en raison d'un faux positif.

Des messages confidentiels

Et c'est là tout le problème, car si vous avez conscience des informations que vous diffusez à Apple, Google ou Amazon lorsque vous déclenchez un assistant, il est moins évident de savoir ce qui est transféré lorsque l'assistant en question se déclenche par erreur. Une source anonyme ayant souhaité rester anonyme et annoncée comme travaillant pour l'un des sous-traitants d'Apple s'est confiée à The Guardian à ce sujet.

La source indique avoir constaté « d'innombrables exemples d'enregistrements comportant des discussions privées entre médecins et patients, des accords commerciaux, des relations apparemment criminelles, des relations sexuelles, etc. », précisant par ailleurs que ces enregistrements « sont accompagnés de données utilisateur indiquant l'emplacement, les coordonnées et les données d'applications ». Selon les dires d'Apple, ces données ne permettent pas cependant d'identifier l'utilisateur.

Peu de contrôles

Deals de drogue, actes sexuels, discussions médicales... les humains écoutant les conversations de nos assistants auraient donc des données très privées entre leurs mains. L'informateur de The Guardian précise d'ailleurs qu'il « ne serait pas difficile d’identifier la personne que vous écoutez, en particulier avec les déclenchements accidentels [qui peuvent parfois révéler adresse, nom, etc.] ».

Mais qui sont ces personnes ayant une oreille sur notre vie privée ? « Il n’y a pas beaucoup de contrôles sur les employés qui travaillent là, et la quantité de données que nous sommes libres de consulter est assez large » précise la source, ajoutant que le turn-over est élevé et que rien n'encourage ces employés à prendre particulièrement en considération la vie privée des utilisateurs.

La réponse d'Apple

Apple précise que juste « une petite partie des demandes Siri sont analysées pour améliorer Siri et la dictée [environ 1 %] » et que « les demandes d’utilisateur ne sont pas associées à l’identifiant Apple. Les réponses Siri sont analysées dans des installations sécurisées et tous les examinateurs sont tenus de respecter les strictes exigences de confidentialité d’Apple ». C'est en tout cas assez contradictoire avec le message publicitaire placardé à Las Vegas en janvier dernier qui affirmait avec aplomb que « ce qui se passe dans votre iPhone reste dans votre iPhone ».