Les technologies de pointe basées sur l’intelligence artificielle et l’apprentissage automatique ont gagné du terrain ces dernières années. Les organisations en sont de plus en plus dépendantes pour leurs opérations internes, la recherche et la prévision des besoins des clients. Cependant, ces technologies sont alimentées par les données, en particulier celles des utilisateurs finaux.
Si l’analyse des données fournit les informations nécessaires pour offrir un meilleur service à la clientèle, le maintien de la confidentialité des utilisateurs est le principal obstacle que les entreprises doivent surmonter. C’est là que des techniques comme la confidentialité différentielle (DP) entrent en jeu. La confidentialité différentielle permet de traiter et de partager des données sans révéler l’identité des utilisateurs en utilisant le bruit statistique, c’est-à-dire des modifications aléatoires apportées aux données d’origine.
Voici un cas d’utilisation simple : Une étude doit être réalisée pour analyser si les milléniaux préfèrent utiliser du dentifrice ou du bain de bouche pour leur hygiène dentaire. Les participants sont invités à choisir l’une des deux options. Avant d’enregistrer leurs réponses, l’algorithme différentiellement privé appliquera une technique de randomisation similaire à celle d’un jeu de pile ou face. Si c’est pile, la réponse originale du participant, supposons le dentifrice, sera retenue. Si c’est pile, le bain de bouche sera enregistré comme la réponse choisie par le participant. En cas de fuite de données, un attaquant aura du mal à faire la différence entre les données originales et les données modifiées générées par l’algorithme. L’interversion des réponses (bruit) ne se ferait qu’en quantités acceptables qui ne provoqueraient pas de variations significatives des résultats agrégés.
Les géants de la technologie comme Apple et Google utilisent le DP pour identifier les schémas comportementaux des utilisateurs sans divulguer leur identité. Apple utilise le DP pour accumuler des informations telles que l’utilisation des moteurs de recherche, l’utilisation des emoji et l’utilisation de mots ne figurant pas dans la bibliothèque de mots-clés sur des appareils tels que les iPhones, les iPads et les Macs. Google Maps utilise le DP pour recueillir des informations sur le trafic dans les villes. Récemment, Google l’a utilisé dans ses rapports sur la mobilité des communautés, qui saisissent les tendances des mouvements géographiques pendant le COVID-19. LinkedIn l’utilise pour générer des analyses marketing et des informations sur l’audience pour les annonceurs sans révéler les données de ses membres. Amazon l’utilise pour accéder à l’historique des achats des utilisateurs sans compromettre leur identité, afin de fournir des suggestions plus personnalisées.
Ce ne sont là que quelques exemples d’utilisation. Voici cinq articles intéressants sur la confidentialité différentielle et ce qu’elle signifie pour les entreprises.
Les gens sont de plus en plus préoccupés par la manière dont leurs données sont stockées et utilisées. La DP est l’une des techniques utilisées pour y répondre. Bien qu’il ne s’agisse pas d’un concept entièrement nouveau, peu de personnes l’ont mis en œuvre à grande échelle. Il est essentiel de comprendre les principales composantes de la DP et son lien avec votre objectif de recherche pour pouvoir l’appliquer à plus grande échelle.
De nombreuses techniques de calcul améliorant la confidentialité sont développées et testées par de grandes entreprises. La DP est l’une d’entre elles qui gagne en popularité. Voyons quels secteurs devraient envisager de la mettre en œuvre et comment elle est utilisée dans différentes industries.
Certains bogues d’implémentation peuvent faire échouer les algorithmes de confidentialité différentielle. Les tests automatisés et les preuves manuelles sont quelques-unes des méthodes connues pour résoudre ce problème. Dans cet article, nous explorons une autre option appelée preuve automatique. Les outils de preuve automatique analysent un programme et tentent de construire une preuve qu’il ne laissera pas les algorithmes échouer.
Le fait de mélanger des données confidentielles avec des quantités spécifiques de données modifiées de façon aléatoire offre plus de sécurité que le simple cryptage. Cet article examine les façons dont les entreprises peuvent tirer parti de cette technique pour sécuriser des données précieuses, ainsi que les avantages et les inconvénients de ces approches.
- La confidentialité différentielle est-elle morte? L’affaire du recensement est riche d’enseignements
Cet article explore le concept de DP et la manière dont il est utilisé par les entreprises de différents secteurs. Il partage également les principaux enseignements tirés de l’utilisation de la DP par le Bureau du recensement des États-Unis.
Les entreprises qui traitent des informations sensibles peuvent réduire le risque d’exposition des données en associant le DP à d’autres technologies de renforcement de la confidentialité. De grandes marques telles qu’Apple et Google ont déjà testé de nouveaux algorithmes de confidentialité différentielle dans le cadre de leurs mesures de protection des données. Les entreprises et les gouvernements ont maintenant commencé à explorer son potentiel pour soutenir des échanges sûrs de données sensibles. Toutefois, les entreprises devront comprendre dans quelle mesure le bruit (données altérées) peut être injecté pour que cette méthode soit efficace.