Empresas de IA instan al gobierno del Reino Unido a mejorar las pruebas de seguridad

Varias empresas líderes en IA, como OpenAI, Google DeepMind, Microsoft y Meta, han pedido al gobierno del Reino Unido que acelere sus procedimientos de pruebas de seguridad para sistemas de IA. Estas empresas han acordado permitir la evaluación de sus modelos de IA por parte del recientemente establecido Instituto de Seguridad de IA (AISI), pero han expresado preocupaciones sobre el ritmo actual y la transparencia del proceso de evaluación. Si bien las empresas están dispuestas a abordar cualquier defecto identificado por el AISI, no están obligadas a retrasar o modificar la publicación de sus tecnologías en base a los resultados de la evaluación.

Uno de los principales puntos de controversia para los proveedores de IA es la falta de claridad con respecto a los protocolos de prueba. Buscan información más detallada sobre las pruebas que se están realizando, la duración de la evaluación y el mecanismo de retroalimentación. También hay incertidumbre sobre si las pruebas deben repetirse cada vez que hay una actualización menor en el modelo de IA, un requisito que los desarrolladores de IA pueden considerar una carga.

Las reservas expresadas por estas empresas son válidas considerando la ambigüedad que rodea al proceso de evaluación. Con otros gobiernos que están considerando evaluaciones similares de seguridad de IA, cualquier confusión actual en los procedimientos del Reino Unido solo se intensificará a medida que más autoridades comiencen a hacer demandas similares a los desarrolladores de IA.

Según el Financial Times, el gobierno del Reino Unido ya ha comenzado a probar modelos de IA en colaboración con los respectivos desarrolladores. Las pruebas incluyen acceso a modelos de IA sofisticados para pruebas previas a la implementación, incluso para modelos no lanzados oficialmente como Gemini Ultra de Google. Esta iniciativa fue uno de los acuerdos clave firmados por las empresas en la Cumbre de Seguridad de IA del Reino Unido celebrada en noviembre.

Es imperativo que el gobierno del Reino Unido y otros organismos gubernamentales trabajen en estrecha colaboración con las empresas de IA para establecer procedimientos claros y estandarizados de pruebas de seguridad. Las evaluaciones transparentes y eficientes no solo mejorarán la confianza en las tecnologías de IA, sino que también garantizarán la implementación responsable de estos sistemas en diversos sectores.

Sección de Preguntas frecuentes

1. ¿Qué empresas han instado al gobierno del Reino Unido a acelerar sus procedimientos de pruebas de seguridad para sistemas de IA?
Varias empresas líderes en IA, como OpenAI, Google DeepMind, Microsoft y Meta, han hecho este llamado.

2. ¿Cuál es el papel del recientemente establecido Instituto de Seguridad de IA (AISI)?
Las empresas han acordado permitir la evaluación de sus modelos de IA por parte del AISI.

3. ¿Las empresas retrasarán o modificarán la publicación de sus tecnologías en base a los resultados de la evaluación?
No, las empresas no están obligadas a retrasar o modificar la publicación de sus tecnologías en base a los resultados de la evaluación.

4. ¿Qué preocupaciones han expresado estas empresas sobre el proceso de evaluación?
Las empresas han expresado preocupaciones sobre el ritmo actual, la transparencia y la falta de claridad con respecto a los protocolos de prueba. Buscan información más detallada sobre las pruebas que se están realizando, la duración de la evaluación y el mecanismo de retroalimentación.

5. ¿Hay incertidumbre sobre si las pruebas deben repetirse para actualizaciones menores en los modelos de IA?
Sí, hay incertidumbre sobre si las pruebas deben repetirse cada vez que hay una actualización menor en el modelo de IA, lo cual los desarrolladores de IA pueden considerar una carga.

Términos clave/Jerga

– IA: Siglas de Inteligencia Artificial.
– Instituto de Seguridad de IA (AISI): Un instituto recién establecido encargado de evaluar modelos de IA en cuanto a su seguridad.
– Modelo de IA: Se refiere al sistema o algoritmo de inteligencia artificial desarrollado por las empresas.
– Protocolos de prueba: Los procedimientos y pautas seguidos para la evaluación y prueba de modelos de IA.
– Pruebas previas a la implementación: Pruebas realizadas antes de que el modelo de IA se implemente oficialmente o se lance.

Enlaces relacionados

– OpenAI
– Google DeepMind
– Microsoft
– Meta
– Financial Times

[incrustar]https://www.youtube.com/embed/ro7xr6LjmBY[/incrustar]

The source of the article is from the blog lokale-komercyjne.pl

Privacy policy
Contact