Tech Giants del Reino Unido exigen pruebas de seguridad para la inteligencia artificial (IA)

Tech Giants del Reino Unido, incluyendo OpenAI, Google DeepMind, Microsoft y Meta, están instando al gobierno del Reino Unido a acelerar las pruebas de seguridad para los sistemas de inteligencia artificial (IA). Si bien las empresas se han comprometido a abrir sus últimos modelos de IA generativos para revisión por parte del recién establecido Instituto de Seguridad de IA (AISI, por sus siglas en inglés), están buscando claridad sobre las pruebas, los plazos y el proceso de retroalimentación involucrados.

A diferencia de los acuerdos legalmente vinculantes, estos compromisos voluntarios resaltan los desafíos de confiar en la autorregulación de la industria en el campo en constante evolución de la IA. En respuesta, el gobierno del Reino Unido ha enfatizado la necesidad de requisitos vinculantes futuros para responsabilizar a los desarrolladores de IA por la seguridad del sistema.

El AISI respaldado por el gobierno, que desempeña un papel fundamental en la visión del primer ministro Rishi Sunak de convertir al Reino Unido en líder en abordar los riesgos potenciales de la IA, ya ha comenzado a probar los modelos de IA existentes. También tiene acceso a modelos no publicados, como el Gemini Ultra de Google. El enfoque de estas pruebas se centra en mitigar los riesgos asociados con el mal uso de la IA, especialmente en ciberseguridad. La colaboración con el Centro Nacional de Seguridad Cibernética del Cuartel General de Comunicaciones del Gobierno (GCHQ, por sus siglas en inglés) proporciona experiencia en esta área crucial.

Contratos gubernamentales recientes revelan que el AISI ha destinado £1 millón para adquirir capacidades para probar la susceptibilidad de los chatbots de IA a la violación de seguridad y para protegerse contra ataques de spear-phishing. Además, el AISI está desarrollando sistemas automatizados para facilitar la ingeniería inversa del código fuente, lo que permite una evaluación exhaustiva de los modelos de IA.

Google DeepMind expresó su compromiso de colaborar con el AISI, con el objetivo de mejorar la evaluación y las prácticas de seguridad de los modelos de IA. Sin embargo, OpenAI y Meta se negaron a hacer comentarios al respecto.

En general, el impulso de los gigantes tecnológicos del Reino Unido para las pruebas de seguridad de la IA refleja la importancia del desarrollo y regulación responsables para abordar de manera efectiva los riesgos potenciales asociados con los avances de la IA. El enfoque del gobierno en requisitos vinculantes y colaboración de la industria tiene como objetivo garantizar la seguridad y la responsabilidad en el campo en rápido crecimiento de la tecnología de IA.

Preguntas frecuentes: Tech Giants del Reino Unido instando a realizar pruebas de seguridad para la IA

1. ¿Qué están instando los gigantes tecnológicos del Reino Unido al gobierno del Reino Unido a acelerar?
Los gigantes tecnológicos del Reino Unido, incluyendo OpenAI, Google DeepMind, Microsoft y Meta, están instando al gobierno del Reino Unido a acelerar las pruebas de seguridad para los sistemas de inteligencia artificial (IA).

2. ¿Qué compromisos han hecho estas empresas?
Las empresas se han comprometido a abrir sus últimos modelos de IA generativos para revisión por parte del recién establecido Instituto de Seguridad de IA (AISI).

3. ¿Cuáles son los desafíos de confiar en la autorregulación de la industria en el campo de la IA?
Los compromisos voluntarios resaltan los desafíos de confiar en la autorregulación de la industria en el campo en constante evolución de la IA.

4. ¿Qué enfatiza el gobierno del Reino Unido en respuesta?
El gobierno del Reino Unido enfatiza la necesidad de requisitos vinculantes futuros para responsabilizar a los desarrolladores de IA por la seguridad del sistema.

5. ¿Cuál es el papel del AISI en la visión del gobierno del Reino Unido?
El AISI, respaldado por el gobierno, desempeña un papel fundamental en la visión del primer ministro Rishi Sunak de convertir al Reino Unido en líder en abordar los riesgos potenciales de la IA.

6. ¿Qué pruebas ha empezado a realizar el AISI?
El AISI ya ha comenzado a probar los modelos de IA existentes, incluyendo el acceso a modelos no publicados, como el Gemini Ultra de Google.

7. ¿En qué se centran las pruebas de seguridad de la IA?
El enfoque de estas pruebas se centra en mitigar los riesgos asociados con el mal uso de la IA, especialmente en ciberseguridad.

8. ¿Con quién está colaborando el AISI para obtener experiencia en ciberseguridad?
El AISI está colaborando con el Centro Nacional de Seguridad Cibernética del Cuartel General de Comunicaciones del Gobierno (GCHQ) para obtener experiencia en ciberseguridad.

9. ¿Con qué capacidades está adquiriendo el AISI con £1 millón?
El AISI ha destinado £1 millón para adquirir capacidades para probar la susceptibilidad de los chatbots de IA a la violación de seguridad y para protegerse contra ataques de spear-phishing.

10. ¿Qué sistemas automatizados está desarrollando el AISI?
El AISI está desarrollando sistemas automatizados para facilitar la ingeniería inversa del código fuente, lo que permite una evaluación exhaustiva de los modelos de IA.

11. ¿Cómo ha expresado Google DeepMind su compromiso con el AISI?
Google DeepMind ha expresado su compromiso de colaborar con el AISI para mejorar la evaluación y las prácticas de seguridad de los modelos de IA.

12. ¿En qué se enfoca el gobierno en el campo de la tecnología de IA?
El enfoque del gobierno está en requisitos vinculantes y colaboración de la industria para garantizar la seguridad y la responsabilidad en el campo en rápido crecimiento de la tecnología de IA.

Definiciones:
– IA: Inteligencia Artificial
– AISI: Instituto de Seguridad de IA
– Modelos de IA generativos: Modelos de IA que pueden crear nuevo contenido o generar nuevos datos basados en patrones o información existente.
– Autorregulación: La capacidad de una industria u organización para regularse a sí misma sin intervención gubernamental externa.

Enlaces relacionados:
– OpenAI
– Google DeepMind
– Microsoft
– Meta
– Cuartel General de Comunicaciones del Gobierno (GCHQ)

The source of the article is from the blog anexartiti.gr

Privacy policy
Contact