Vidutinės dirbtinio intelekto (DI) įmonės ragina Didžiosios Britanijos vyriausybę tobulinti saugumo testavimo procesą

Kelios pirmaujančios DI įmonės, įskaitant OpenAI, Google DeepMind, Microsoft ir Meta, kreipėsi į Didžiosios Britanijos vyriausybę, ragindamos pagreitinti savo DI sistemų saugumo testavimo procedūras. Šios įmonės sutiko leisti savo DI modelių vertinimą naujai įkurtoje DI saugumo institucijoje (AISI), tačiau jos išreiškė susirūpinimą dėl šiuo metu vykstančio vertinimo proceso tempimo ir skaidrumo. Nors įmonės yra pasiruošusios ištaisyti visus AISI nustatytus trūkumus, jomis nebus priverstos atidėti ar modifikuoti savo technologijų išleidimo pagal vertinimo rezultatus.

Viena iš pagrindinių ginčo priežasčių tarp DI tiekėjų yra trūkumas dėl testavimo protokolų aiškumo. Jos siekia gauti išsamesnę informaciją apie vykdomus testus, vertinimo trukmę ir atsiliepimo mechanizmą. Taip pat neaišku, ar testavimas turi būti kartojamas kiekvieną kartą, kai atliekama nedidelė AI modelio atnaujinimas, reikalavimas, kurį kai kurie DI kūrėjai gali laikyti neįtraukiamu.

Šių įmonių išreikšti susirūpinimai yra pagrįsti, atsižvelgiant į vertinimo proceso neapibrėžtumą. Kitos vyriausybės svarsto panašias DI saugumo vertinimo procedūras, todėl Didžiosios Britanijos, jei jos procedūros dabar sukelia painiavą, problema tik sustiprės, kai daugiau institucijų pradės kelianti lygiavertines reikalavimus DI kūrėjams.

Finansų kartotekoje nurodoma, kad Didžiosios Britanijos vyriausybė jau pradėjo testuoti DI modelius bendradarbiaudama su atitinkamais kūrėjais. Testavimas apima priėjimą prie pažangių DI modelių, skirtų priešparduodamam testavimui, netgi neskelbtų modelių, pvz., „Google” „Gemini Ultra”. Ši iniciatyva buvo viena iš pagrindinių sutarčių, kurias įmonės pasirašė Didžiosios Britanijos DI saugumo viršūnių susitikime lapkričio mėn.

Ypatingai svarbu, kad Didžiosios Britanijos vyriausybė ir kiti valdžios organai glaudžiai bendradarbiautų su DI įmonėmis, siekdami nustatyti aiškias, standartizuotas saugumo testavimo procedūras. Skaidrūs ir veiksmingi vertinimai ne tik padidins pasitikėjimą DI technologijomis, bet ir užtikrins atsakingą šių sistemų diegimą įvairiose srityse.

DUK skyrius

1. Kokie įmonės kreipėsi į Didžiosios Britanijos vyriausybę, prašydamos pagreitinti savo DI sistemų saugumo testavimo procedūras?
Šį prašymą pateikė keletas pirmaujančių DI įmonių, įskaitant OpenAI, Google DeepMind, Microsoft ir Meta.

2. Kokį vaidmenį atlieka naujai įkurta AI Saugumo institucija (AISI)?
Įmonės sutiko leisti savo DI modelių vertinimą AISI.

3. Ar įmonės atidės ar modifikuos savo technologijų išleidimą pagal vertinimo rezultatus?
Ne, įmonės nėra priverstos atidėti ar modifikuoti savo technologijų išleidimo pagal vertinimo rezultatus.

4. Kokių susirūpinimų išreiškė šios įmonės vertinimo proceso atžvilgiu?
Įmonės išreiškė susirūpinimą šiuo metu vykstančio vertinimo proceso tempimu, skaidrumu ir dėl trūkstančio informacijos apie testavimo protokolus aiškumo. Jos siekia gauti išsamesnę informaciją apie vykdomus testus, vertinimo trukmę ir atsiliepimo mechanizmą.

5. Ar neaišku, ar testavimas turi būti kartojamas atnaujinus DI modelius?
Taip, neaišku, ar testavimas turi būti kartojamas kiekvieną kartą, kai atliekamas nedidelis AI modelio atnaujinimas, kuris gali būti laikomas našta DI kūrėjų.

Pagrindiniai terminai/jargonai

– DI: Trumpinys, reiškiantis dirbtinį intelektą.
– AI Saugumo institucija (AISI): Naujai įkurta institucija, atsakinga už DI modelių saugumo vertinimą.
– DI modelis: Tai dirbtinio intelekto sistema ar algoritmas, kurį sukūrė įmonės.
– Testavimo protokolai: Tai procedūros ir gairės, vadovaujamasi DI modelių vertinimo ir testavimo metu.
– Priešparduodamas testavimas: Testavimas, atliekamas prieš oficialiai pradėjus naudoti ar išleidžiant DI modelį.

The source of the article is from the blog windowsvistamagazine.es

Privacy policy
Contact