Confidentialité différentielle : Google veut marier vie privée et big data

 

Cette expression ne vous dit peut-être rien, mais la « confidentialité différentielle » pourrait représenter l’avenir de la vie privée en ligne. Google vient de rendre cette jeune technique plus simple d’accès aux développeurs en publiant une librairie open source en la matière.

La conférence Google I/O 2019 en mai dernier.

« Confidentialité différentielle », voilà un terme dont le commun des mortels n’a probablement jamais entendu parler. À moins peut-être d’être un fan d’Apple, vu que la firme à la pomme promeut le concept dans ses appareils depuis 2016. C’est pourtant une avancée majeure en science des données, qui permettrait entre autres d’analyser des informations sur des utilisateurs sans porter atteinte à leur vie privée individuelle.

Et Google compte bien populariser cette technique. L’entreprise vient de publier une librairie logicielle open source de confidentialité différentielle, avec pour but de rendre celle-ci accessible à des programmeurs qui ne sont pas forcément des chercheurs en informatique. Les développeurs peuvent maintenant directement piocher dans ces bouts de code pour leurs projets. « En plus d’être librement accessible, nous avons voulu qu’elle soit facile à déployer et utile ».

À sa dernière conférence Google I/O en 2019, le géant de Mountain View avait d’ailleurs mentionné l’ajout de la confidentialité différentielle dans certains de ses produits, sans rentrer dans beaucoup de détails.

Qu’est-ce que la confidentialité différentielle ?

La confidentialité différentielle (differential privacy, ou « DP ») est un concept informatique mis au point en 2006 par la chercheuse Cynthia Dwork de Microsoft. L’idée est de faire en sorte que peu importe que vos informations personnelles soient récoltées ou non, cela n’aura pas d’incidence sur ce qu’on pourra apprendre sur vous grâce aux données analysées sur d’autres personnes. Dit ainsi, cela peut paraître assez abstrait, mais l’informaticienne donne un exemple bien plus facile à comprendre.

Soit un groupe de personnes où on trouve à la fois des délinquants et des innocents. On veut connaître la proportion de délinquants, mais ceux-ci ne se dénonceront jamais si cette information (hautement sensible !) peut leur être associée personnellement. La solution est de demander à chaque personne de jouer à pile ou face en cachette. Si c’est face, elle doit dire la vérité. Si c’est pile, elle doit relancer la pièce pour choisir au hasard de dire « je suis délinquant » ou « je suis innocent ».

Les délinquants n’auront donc plus peur d’avouer, vu qu’ils savent que beaucoup d’innocents diront aussi « je suis délinquant ». Quelques calculs statistiques permettent alors de retrouver la vraie proportion de délinquants dans le groupe ; mais on ne sait pas individuellement qui en est un ou pas. La DP se base sur des variantes plus sophistiquées de cette procédure. Avec la promesse, peut-être, de réconcilier big data et vie privée sur Internet.

https://www.numerama.com/tech/264953-confidentialite-differentielle-resolvez-5-enigmes-pour-comprendre-ce-concept-cher-a-apple.html


Les derniers articles