Avanzamento della Privacy-Preserving Machine Learning nella Ricerca Medica

Un team di ricerca del KAUST ha compiuto significativi progressi nel affrontare la sfida dell’integrazione dell’intelligenza artificiale (IA) con i dati genomici garantendo al contempo la privacy degli individui. Sfruttando un insieme di algoritmi per la privacy, il team ha sviluppato un approccio di machine learning che ottimizza le prestazioni del modello senza compromettere la privacy.

Il metodo tradizionale di crittografia dei dati per proteggere la privacy pone sfide computazionali, in quanto i dati devono essere decrittati per l’addestramento. Questo approccio non elimina la conservazione di informazioni private nel modello addestrato. D’altra parte, suddividere i dati in pacchetti più piccoli per l’addestramento attraverso l’addestramento locale o il federated learning introduce il rischio di divulgazione di informazioni private.

Per superare queste limitazioni, il team di ricerca ha incorporato un algoritmo di mescolamento decentralizzato nel loro approccio di machine learning preservativo della privacy. Aggiungendo un mescolatore all’interno del framework della privacy differenziale, hanno ottenuto una migliore performance del modello mantenendo lo stesso livello di protezione della privacy. Questo approccio decentralizzato ha eliminato le problematiche di fiducia associate a un mescolatore centralizzato di terze parti e ha trovato un equilibrio tra preservazione della privacy e capacità del modello.

L’approccio del team, noto come PPML-Omics, ha dimostrato la sua efficacia nell’addestrare modelli di deep learning rappresentativi per compiti sfidanti multi-omics. Non solo il PPML-Omics ha superato gli altri metodi in termini di efficienza, ma si è dimostrato resiliente contro attacchi informatici all’avanguardia.

Questa ricerca sottolinea l’importanza crescente della protezione della privacy nel campo del deep learning, soprattutto quando applicato all’analisi di dati biologici e biomedici. La capacità dei modelli di deep learning di conservare informazioni private dai dati di addestramento comporta significativi rischi per la privacy. Pertanto, combinare algoritmi preservativi della privacy con tecniche di machine learning è cruciale per far progredire la ricerca medica preservando la privacy individuale.

Bilanciando la privacy e le prestazioni del modello, l’approccio PPML-Omics apre nuove possibilità per accelerare la scoperta dai dati genomici. Permette ai ricercatori di sfruttare il potere dell’IA per la ricerca medica senza compromettere la privacy degli individui.

The source of the article is from the blog newyorkpostgazette.com

Privacy policy
Contact