Protéger la confidentialité des données : Une nouvelle approche pour masquer les informations sensibles

Des chercheurs de l’Université de Copenhague ont développé un logiciel innovant pour résoudre le défi de la protection des données sensibles utilisées dans les applications d’apprentissage automatique en santé. Cette méthode garantit la confidentialité tout en permettant l’accès aux ensembles de données pour le développement de traitements améliorés.

La collecte et l’analyse de données provenant d’un grand groupe de patients sont essentielles dans les soins de santé modernes pour identifier des schémas et déterminer l’efficacité et les effets secondaires potentiels des traitements. Cependant, il est essentiel de protéger ces données pour préserver la confidentialité des individus et maintenir la confiance du public. Malheureusement, les tentatives précédentes d’anonymisation des données et de les rendre publiques ont entraîné des violations, où des chercheurs ont pu ré-identifier les participants en utilisant diverses sources d’informations disponibles publiquement.

Pour résoudre ce problème, les chercheurs du département d’informatique de l’Université de Copenhague ont élaboré une solution pratique et rentable. Le doctorant Joel Daniel Andersson explique : « Nous avons développé une méthode pratique et économique pour protéger les ensembles de données utilisés pour former des modèles d’apprentissage automatique. » L’importance de leur travail est évidente, comme en témoigne l’invitation de Joel à donner une conférence technique Google sur ce sujet et sa récente présentation à la conférence NeurIPS sur l’apprentissage automatique.

Le concept clé de leur approche est l’introduction délibérée de « bruit » dans toute sortie dérivée de l’ensemble de données. Contrairement aux méthodes de chiffrement traditionnelles, où le bruit est ajouté puis retiré, dans ce cas, le bruit reste présent. Une fois le bruit incorporé, il devient indiscernable de la sortie originale.

Naturellement, les propriétaires d’ensembles de données peuvent avoir des préoccupations concernant l’ajout de bruit aux sorties dérivées de leurs données. Cependant, cette nouvelle approche garantit qu’il est impossible d’identifier les informations sensibles sous-jacentes, même avec accès aux sorties bruitées.

En adoptant cette approche, les chercheurs de l’Université de Copenhague ont ouvert de nouvelles possibilités pour rendre les données sensibles en matière de santé disponibles pour la recherche et l’analyse, tout en protégeant efficacement la confidentialité des individus. Alors que les avancées dans l’apprentissage automatique continuent de révolutionner les soins de santé, des solutions respectueuses de la confidentialité comme celle-ci joueront un rôle crucial dans le développement de meilleurs traitements sans compromettre la confidentialité des patients.

The source of the article is from the blog myshopsguide.com

Privacy policy
Contact