Britse Tech Giants Roepen op tot Veiligheidstests voor AI

Britse tech giants, waaronder OpenAI, Google DeepMind, Microsoft en Meta, dringen er bij de Britse overheid op aan om veiligheidstests voor systemen van kunstmatige intelligentie (AI) te versnellen. Hoewel de bedrijven hebben toegezegd om hun nieuwste generatieve AI-modellen ter beoordeling beschikbaar te stellen aan het onlangs opgerichte AI Safety Institute (AISI), zijn ze op zoek naar duidelijkheid over de tests, tijdlijnen en het feedbackproces.

In tegenstelling tot juridisch bindende overeenkomsten benadrukken deze vrijwillige toezeggingen de uitdagingen van het vertrouwen op zelfregulering in de snel evoluerende AI-sector. Als reactie hierop heeft de Britse overheid het belang benadrukt van toekomstige bindende eisen om AI-ontwikkelaars verantwoordelijk te houden voor de veiligheid van systemen.

Het door de overheid gesteunde AISI, dat een sleutelrol speelt in de visie van premier Rishi Sunak om het VK tot een leider te maken in het aanpakken van de mogelijke risico’s van AI, is al begonnen met het testen van bestaande AI-modellen. Het heeft ook toegang tot nog niet uitgebrachte modellen, zoals Google’s Gemini Ultra. De focus van deze tests ligt op het beperken van risico’s die gepaard gaan met het verkeerde gebruik van AI, met name op het gebied van cybersecurity. Samenwerking met het National Cyber Security Centre binnen het Government Communications Headquarters (GCHQ) biedt expertise op dit cruciale gebied.

Recente overheidscontracten onthullen dat het AISI £1 miljoen heeft toegewezen voor de aanschaf van mogelijkheden om de kwetsbaarheid van AI-chatbots voor jailbreaking te testen en bescherming te bieden tegen spear-phishingaanvallen. Daarnaast ontwikkelt het AISI geautomatiseerde systemen om reverse engineering van broncode te vergemakkelijken, wat een grondige evaluatie van AI-modellen mogelijk maakt.

Google DeepMind heeft zijn toewijding geuit om samen te werken met het AISI om de evaluatie- en veiligheidspraktijken van AI-modellen te verbeteren. OpenAI en Meta hebben echter geen commentaar gegeven op de kwestie.

Al met al weerspiegelt de oproep van de Britse tech giants voor AI-veiligheidstests het belang van verantwoorde ontwikkeling en regulering om effectief om te gaan met de mogelijke risico’s die gepaard gaan met de vooruitgang van AI. De focus van de overheid op bindende eisen en samenwerking met de industrie heeft tot doel veiligheid en verantwoordelijkheid te waarborgen in het snelgroeiende veld van AI-technologie.

The source of the article is from the blog maltemoney.com.br

Privacy policy
Contact