Empresas de IA pedem ao governo do Reino Unido que melhore os testes de segurança

Várias empresas líderes em inteligência artificial (IA), incluindo OpenAI, Google DeepMind, Microsoft e Meta, pediram ao governo do Reino Unido que acelere seus procedimentos de testes de segurança para sistemas de IA. Essas empresas concordaram em permitir a avaliação de seus modelos de IA pelo recém-criado Instituto de Segurança de IA (AISI), mas expressaram preocupações em relação ao ritmo atual e à transparência do processo de avaliação. Embora as empresas estejam dispostas a resolver quaisquer falhas identificadas pelo AISI, elas não têm a obrigação de atrasar ou modificar o lançamento de suas tecnologias com base nos resultados da avaliação.

Um dos principais pontos de discordância para os fornecedores de IA é a falta de clareza em relação aos protocolos de teste. Eles buscam informações mais detalhadas sobre os testes realizados, a duração da avaliação e o mecanismo de feedback. Também há incerteza quanto à necessidade de repetir os testes toda vez que houver uma atualização mínima no modelo de IA, um requisito que os desenvolvedores de IA podem considerar oneroso.

As reservas expressas por essas empresas são válidas considerando a ambiguidade que envolve o processo de avaliação. Com outros governos considerando avaliações de segurança de IA semelhantes, qualquer confusão atual nos procedimentos do Reino Unido apenas se intensificará à medida que mais autoridades comecem a fazer demandas comparáveis ​​aos desenvolvedores de IA.

Segundo o Financial Times, o governo do Reino Unido já iniciou a realização de testes de modelos de IA por meio da colaboração com os respectivos desenvolvedores. Os testes incluem acesso a modelos de IA sofisticados para testes pré-implantação, mesmo para modelos não lançados como o Gemini Ultra do Google. Essa iniciativa foi um dos principais acordos assinados pelas empresas na Cúpula de Segurança de IA do Reino Unido realizada em novembro.

É imperativo que o governo do Reino Unido e outros órgãos governantes trabalhem em estreita colaboração com as empresas de IA para estabelecer procedimentos claros e padronizados de testes de segurança. Avaliações transparentes e eficientes não apenas aumentarão a confiança nas tecnologias de IA, mas também garantirão a implantação responsável desses sistemas em vários setores.

Seção de Perguntas Frequentes

1. Quais empresas pediram ao governo do Reino Unido que acelere seus procedimentos de testes de segurança para sistemas de IA?
Várias empresas líderes em IA, incluindo OpenAI, Google DeepMind, Microsoft e Meta, fizeram esse pedido.

2. Qual é o papel do recém-criado Instituto de Segurança de IA (AISI)?
As empresas concordaram em permitir a avaliação de seus modelos de IA pelo AISI.

3. As empresas adiarão ou modificarão o lançamento de suas tecnologias com base nos resultados da avaliação?
Não, as empresas não têm a obrigação de adiar ou modificar o lançamento de suas tecnologias com base nos resultados da avaliação.

4. Que preocupações essas empresas expressaram sobre o processo de avaliação?
As empresas expressaram preocupações em relação ao ritmo atual, à transparência e à falta de clareza em relação aos protocolos de teste. Elas buscam informações mais detalhadas sobre os testes realizados, a duração da avaliação e o mecanismo de feedback.

5. Há incerteza quanto à necessidade de repetir os testes para atualizações mínimas nos modelos de IA?
Sim, há incerteza quanto à necessidade de repetir os testes toda vez que houver uma atualização mínima no modelo de IA, o que os desenvolvedores de IA podem considerar oneroso.

Termos-Chave/Jargão

– IA: Sigla para Inteligência Artificial.
– Instituto de Segurança de IA (AISI): Um instituto recém-criado responsável pela avaliação de modelos de IA em termos de segurança.
– Modelo de IA: Refere-se ao sistema ou algoritmo de inteligência artificial desenvolvido pelas empresas.
– Protocolos de teste: Os procedimentos e diretrizes seguidos para a avaliação e teste de modelos de IA.
– Teste pré-implantação: Testes realizados antes que o modelo de IA seja oficialmente implementado ou lançado.

Links Relacionados

– OpenAI
– Google DeepMind
– Microsoft
– Meta
– Financial Times

The source of the article is from the blog motopaddock.nl

Privacy policy
Contact