El Futuro de la Inteligencia Artificial en el Gobierno de Estados Unidos

La administración Biden ha presentado recientemente tres nuevas políticas para regular el uso de la inteligencia artificial (IA) por parte del gobierno federal. Estas políticas, vistas como un referente para la acción global, tienen como objetivo abordar preocupaciones sobre el impacto de la IA en la fuerza laboral de los Estados Unidos, la privacidad, la seguridad nacional y la posibilidad de tomar decisiones discriminatorias.

Para garantizar la seguridad y los derechos de los estadounidenses, la Oficina de Administración y Presupuesto ha ordenado a las agencias federales utilizar la IA de manera que no ponga en peligro los «derechos y la seguridad» de los ciudadanos. Además, se requerirá que las agencias federales publiquen en línea una lista de los sistemas de IA que están utilizando, junto con una evaluación de los riesgos asociados con esos sistemas y cómo se están gestionando.

Además, la Casa Blanca está dirigiendo a todas las agencias federales a designar a un oficial principal de IA con una sólida experiencia en el campo. Esta persona será responsable de supervisar el uso de tecnologías de IA dentro de la agencia, garantizando que se empleen de manera ética y efectiva.

La vicepresidenta Kamala Harris, quien ha sido una fuerza líder en la conformación de las políticas de IA de la administración, enfatizó la importancia de estas regulaciones a escala global. Ella cree que todos los líderes, independientemente del sector, tienen la responsabilidad de garantizar la adopción y avance responsables de la IA para proteger al público de posibles daños, maximizando al mismo tiempo sus beneficios.

El gobierno ya ha revelado más de 700 instancias de uso actual y planeado de IA en diversas agencias. Los ejemplos van desde detectar el COVID-19 a través del análisis de la tos en teléfonos inteligentes hasta identificar presuntos crímenes de guerra y prevenir el tráfico ilegal de mercancías. Sin embargo, para mitigar los riesgos potenciales, se requerirá que las agencias federales implementen salvaguardias que evalúen, prueben y monitoreen de manera confiable el impacto de la IA en el público. Esto incluye esfuerzos para prevenir la discriminación algorítmica y garantizar la rendición de cuentas transparente en la utilización de la IA por parte del gobierno.

Un ejemplo ilustrativo proporcionado por la vicepresidenta Harris implica el uso de la IA en el diagnóstico de pacientes dentro de la Administración de Veteranos. En este escenario, es crucial que el sistema de IA demuestre que sus diagnósticos no tienen sesgo racial.

La orden ejecutiva del presidente Biden sobre la IA, que aprovecha la Ley de Producción de Defensa, obliga a las empresas que desarrollan plataformas de IA avanzadas a notificar y compartir los resultados de pruebas de seguridad con el gobierno. Estas pruebas, realizadas a través de un proceso conocido como «red teaming,» involucran una evaluación rigurosa de riesgos. El Instituto Nacional de Normas y Tecnología también está trabajando en establecer estándares para las pruebas de red teaming para garantizar la seguridad y el despliegue responsable de las tecnologías de IA para el público.

Estas nuevas políticas marcan un paso significativo en la regulación y gobernanza de la IA dentro de los Estados Unidos. Al priorizar la transparencia, la rendición de cuentas y la protección de los ciudadanos, el gobierno federal tiene como objetivo establecer un marco sólido que pueda servir como modelo para las regulaciones globales de IA.

Preguntas Frecuentes

The source of the article is from the blog japan-pc.jp

Privacy policy
Contact