Intelligenza Artificiale in Sanità: Promuovere l’Uso Responsabile

L’Intelligenza Artificiale (IA) ha il potenziale per rivoluzionare la sanità e le scienze biomediche, ma comporta anche dei rischi. Per affrontare tali preoccupazioni, la National Academy of Medicine ha sviluppato un progetto pilota chiamato “Codice di Condotta per l’IA.” Questo framework promuove un comportamento responsabile nello sviluppo, uso e valutazione continua dell’IA.

I principi centrali del framework enfatizzano la collaborazione inclusiva, la valutazione continua della sicurezza, l’efficienza e la protezione ambientale. Questi principi fungono da punti di riferimento per le organizzazioni al fine di prendere decisioni in tempo reale e implementare tecnologie AI in modo responsabile.

L’iniziativa del Codice di Condotta per l’IA della National Academy of Medicine ha coinvolto numerosi portatori di interessi per creare questo framework. L’obiettivo è stabilire principi, linee guida e salvaguardie per l’uso dell’IA in campo sanitario. Victor Dzau, presidente dell’accademia, sottolinea l’urgente necessità di garantire il corretto utilizzo delle tecnologie AI per prevenire eventuali effetti dannosi.

Nel loro commento, gli esperti dell’accademia individuano diversi rischi associati all’IA in campo sanitario, tra cui diagnosi errate, sovrasfruttamento delle risorse, violazioni della privacy e displacement della forza lavoro. Questi rischi sottolineano l’importanza di azioni intenzionali e collaborazione tra i portatori di interessi nel perseguimento di una visione condivisa.

Il framework è composto da 10 principi di codice e sei impegni di codice. Questi principi mirano a massimizzare i benefici per la salute umana riducendo al minimo i potenziali rischi dell’IA. Forniscono un punto di partenza per le organizzazioni per migliorare le proprie pratiche AI su vasta scala, contribuendo all’allineamento a livello di sistema e al miglioramento continuo.

Michael McGinnis, dirigente della National Academy of Medicine, ritiene che questo nuovo framework possa portare all’uso sicuro, efficace ed etico dell’IA in campo sanitario. L’accademia incoraggia i commenti pubblici per perfezionare il framework, accelerando ulteriormente l’integrazione dell’IA in sanità.

Per garantire la qualità e l’affidabilità del framework, l’accademia prevede di convocare gruppi di lavoro, condurre studi di caso e consultare vari portatori di interessi, inclusi promotori delle associazioni di pazienti, sistemi sanitari e agenzie governative.

Nel più ampio trend dell’IA in sanità, la Coalizione per l’IA in Sanità ha anche sviluppato un piano che affronta le barriere alla fiducia e altri sfide dell’IA. Questo piano, fondato sul Progetto di Legge dei Diritti dell’IA della Casa Bianca e il Framework di Gestione dei Rischi di AI dell’Istituto Nazionale di Standardizzazione e Tecnologia, punta a seguire un approccio centrato sul paziente.

Mentre i leader sanitari concordano sull’importanza della fiducia negli strumenti dell’IA, la messa in pratica di pratiche etiche dell’IA rimane una sfida. Molte organizzazioni mancano delle risorse necessarie e dei comitati di governance per monitorare in modo efficace i modelli AI.

Il nuovo framework di codice di condotta è un passo fondamentale verso il corretto sfruttamento dei benefici dell’IA per migliorare i risultati sanitari e le scoperte mediche. La National Academy of Medicine incoraggia la collaborazione e il feedback da vari portatori di interessi per garantire l’uso responsabile dell’IA in campo sanitario.

The source of the article is from the blog bitperfect.pe

Privacy policy
Contact