Inteligência Artificial na Saúde: Potencializando o Uso Responsável

A Inteligência Artificial (IA) tem o potencial de revolucionar a área da saúde e ciências biomédicas, mas também traz consigo riscos. Para lidar com essas preocupações, a Academia Nacional de Medicina desenvolveu um rascunho de um framework chamado “Código de Conduta de IA”. Esse framework promove um comportamento responsável no desenvolvimento, uso e avaliação contínua da IA.

Os princípios fundamentais do framework enfatizam a colaboração inclusiva, avaliação contínua de segurança, eficiência e proteção ambiental. Esses princípios servem como guias para organizações tomarem decisões em tempo real e implementarem tecnologias de IA de forma responsável.

A iniciativa do Código de Conduta de IA da Academia Nacional de Medicina envolveu diversos interessados na criação desse framework. O objetivo é estabelecer princípios, diretrizes e salvaguardas para o uso de IA na área da saúde. Victor Dzau, presidente da academia, destaca a necessidade urgente de garantir o uso adequado das tecnologias de IA para prevenir quaisquer efeitos prejudiciais.

Em seus comentários, os especialistas da academia identificam vários riscos associados à IA na área da saúde, incluindo erro de diagnóstico, uso excessivo de recursos, violações de privacidade e deslocamento de mão de obra. Esses riscos destacam a importância de ação intencional e colaboração entre interessados na busca de uma visão compartilhada.

O framework é composto por 10 princípios de código e seis compromissos de código. Esses princípios visam maximizar os benefícios para a saúde humana, ao mesmo tempo que minimizam os riscos potenciais da IA. Eles fornecem um ponto de partida para as organizações melhorarem suas práticas de IA em escala, contribuindo para o alinhamento em todo o sistema e a melhoria contínua.

Michael McGinnis, diretor executivo da Academia Nacional de Medicina, acredita que esse novo framework pode levar ao uso seguro, eficaz e ético da IA na área da saúde. A academia encoraja comentários públicos para refinar o framework, acelerando ainda mais a integração da IA na área da saúde.

Para garantir a qualidade e confiabilidade do framework, a academia planeja reunir grupos de trabalho, realizar estudos de caso e consultar diversos interessados, incluindo defensores de pacientes, sistemas de saúde e agências governamentais.

Em uma tendência maior da IA na área da saúde, a Coalizão para a IA em Saúde também desenvolveu um plano que aborda barreiras de confiança e outros desafios da IA. Este plano, fundamentado na Declaração de Direitos de IA da Casa Branca e no Framework de Gestão de Riscos de IA do Instituto Nacional de Padrões e Tecnologia, visa adotar uma abordagem centrada no paciente.

Enquanto líderes da área da saúde concordam sobre a importância da confiança nas ferramentas de IA, implementar práticas éticas de IA continua sendo um desafio. Muitas organizações não possuem os recursos necessários e comitês de governança para monitorar eficazmente os modelos de IA.

O novo rascunho do framework de código de conduta é um passo vital para aproveitar com segurança os benefícios da IA na melhoria dos resultados de saúde e avanços médicos. A Academia Nacional de Medicina encoraja a colaboração e o feedback de diversos interessados para garantir o uso responsável da IA na área da saúde.

FAQ

The source of the article is from the blog tvbzorg.com

Privacy policy
Contact