Unión Europea aboga por el uso responsable de la IA con una legislación innovadora

Los ministros europeos llegan a un consenso sobre una legislación pionera en inteligencia artificial. Los ministros de la Unión Europea han acordado por unanimidad una histórica y pionera legislación que regula la inteligencia artificial (IA). La nueva ley está diseñada específicamente para regular situaciones de alto riesgo, incluidos procesos de aplicación de la ley y contratación.

El Secretario de Estado de Asuntos Digitales de Bélgica ha reconocido la importancia de esta legislación innovadora. Destacó su papel en abordar un desafío tecnológico global y crear oportunidades para las sociedades y economías.

La ley europea permite el uso de IA pero la prohíbe cuando la tecnología representa una amenaza para las personas. Establece regulaciones estrictas sobre sistemas de alto riesgo, permitiendo su uso solo cuando se ha demostrado que respetan los derechos fundamentales.

La nueva ley de IA prohíbe sistemas discriminatorios. Se prohíben los sistemas que utilizan categorización biométrica basada en creencias políticas, religiosas, filosóficas, raza o género bajo esta nueva regulación. Además, la ley impide la explotación de la manipulación conductual y prohíbe los sistemas que evalúan a las personas basándose en su comportamiento o rasgos personales.

Esta legislación también apunta a prevenir la expansión o creación no regulada de bases de datos de datos faciales, capturados al azar a través de internet o grabaciones de audio y video.

Si bien la ley impone estas restricciones, permite a las fuerzas de seguridad utilizar cámaras de identificación biométrica con una orden judicial para prevenir amenazas terroristas, por ejemplo.

Etiquetado obligatorio de contenidos y certificación del mercado de IA. El contenido creado por IA, como textos, imágenes o videos, debe ser clasificado para proteger a los espectadores de contenidos engañosos generados mediante deepfake. Los sistemas de alto riesgo deben recibir la certificación de organismos acreditados antes de entrar en el mercado de la UE, supervisado por la nueva Oficina de IA.

El incumplimiento de la ley puede conllevar multas de hasta 35 millones de euros o el 7% de la facturación anual de la empresa, dependiendo de la naturaleza de la entidad infractora.

Esta iniciativa legislativa de IA fue propuesta por primera vez por la Comisión Europea en abril de 2021, durante la presidencia portuguesa del Consejo de la UE.

Datos:
– La Unión Europea (UE) tiene una base histórica en la regulación de nuevas tecnologías y previamente había promulgado el Reglamento General de Protección de Datos (RGPD), que también tuvo un impacto global.
– Los sistemas de IA plantean una variedad de preocupaciones éticas, incluidos sesgos, problemas de privacidad y desafíos relacionados con la automatización y el empleo.
– El enfoque de la Comisión Europea para la regulación de la IA se basa en una visión de «IA confiable», que incluye una IA legal, ética y robusta.

Preguntas y respuestas importantes:
¿Qué tipos de sistemas de IA se consideran «de alto riesgo»?
Los sistemas de IA de alto riesgo incluyen aquellos utilizados para infraestructuras críticas (por ejemplo, transporte), educación o formación profesional, empleo y gestión de trabajadores, servicios esenciales privados y públicos (por ejemplo, puntuación crediticia), aplicación de la ley, migración, asilo y gestión de control fronterizo, administración de justicia y procesos democráticos.

¿Por qué la UE está adoptando un enfoque regulatorio hacia la IA?
La UE tiene como objetivo garantizar que los sistemas de IA sean transparentes, rastreables y respeten los derechos fundamentales. Además, quieren establecer certeza legal para facilitar la inversión y la innovación en IA.

¿Cómo clasifica y regula la Ley de IA los sistemas de IA de bajo riesgo?
Las aplicaciones de IA de bajo riesgo están sujetas a requisitos mínimos. Podrían incluir sistemas de IA para videojuegos o filtros de spam. Se puede animar a los proveedores de IA de bajo riesgo a adherirse a códigos de conducta voluntarios.

Desafíos clave y controversias:
– Equilibrar la innovación con la regulación: Regulaciones demasiado estrictas podrían frenar la innovación en la IA, mientras que demasiada leniencia podría conducir a un mal uso y erosión de los derechos fundamentales.
– Impacto internacional y alineación: La legislación de la UE puede afectar a empresas internacionales y establecer una tendencia regulatoria global, lo que podría generar controversia sobre la jurisdicción y los estándares de cumplimiento que deben cumplir las empresas no pertenecientes a la UE.
– Preocupaciones de privacidad vs. medidas de seguridad: Permitir la identificación biométrica para la seguridad puede ser controvertido, con preocupaciones sobre la vigilancia masiva y el impacto en la privacidad y la libertad de los ciudadanos.

Ventajas:
– Promover el desarrollo de una IA ética y confiable.
– Facilitar la claridad legal y la previsibilidad para las empresas que invierten en IA.
– Potencial para convertirse en un estándar regulatorio global, influyendo en las normas internacionales sobre IA.

Desventajas:
– Podría ralentizar la tasa de innovación en IA dentro de la UE debido a la carga regulatoria.
– Posible conflicto con otros regímenes regulatorios, especialmente cuando los sistemas de IA son de alcance global.
– Preocupaciones sobre la efectividad de hacer cumplir dichas regulaciones en los diversos estados miembros de la UE.

Para obtener más información, puedes visitar el sitio web oficial de la Unión Europea: Unión Europea. Ten en cuenta que debido a mi última actualización en 2023, los enlaces externos deben verificarse para su validez y relevancia actuales.

The source of the article is from the blog smartphonemagazine.nl

Privacy policy
Contact