Poduzeća za umjetnu inteligenciju pozivaju britansku vladu da poboljša postupke sigurnosnog testiranja

Nekoliko vodećih poduzeća za umjetnu inteligenciju, uključujući OpenAI, Google DeepMind, Microsoft i Meta, pozvala su britansku vladu da ubrza postupke sigurnosnog testiranja za AI sustave. Ta su poduzeća pristala na evaluaciju svojih AI modela od strane novoosnovanog Instituta za sigurnost umjetne inteligencije (AISI), ali su izrazila zabrinutost zbog trenutnog tempa i transparentnosti evaluacijskog procesa. Iako su poduzeća spremna rješavati nedostatke identificirane od strane AISI-ja, nisu obvezna odgađati ili mijenjati puštanje svojih tehnologija na temelju rezultata evaluacije.

Jedna od glavnih točaka spora za dobavljače AI je nedostatak jasnoće u vezi s protokolima testiranja. Zatražili su više detaljnih informacija o provođenim testovima, trajanju evaluacije i mehanizmu povratnih informacija. Također postoji neizvjesnost o tome treba li testiranje ponavljati svaki put kada se napravi manja izmjena u AI modelu, zahtjev koji bi developeri AI-ja mogli smatrati opterećujućim.

Rezervacije izražene od strane ovih poduzeća su opravdane s obzirom na nejasnoće koje okružuju evaluacijski proces. S obzirom na to da se druge vlade razmatraju slične procjene sigurnosti AI-a, svaka trenutna zbrka u britanskim postupcima samo će se povećavati kako sve više vlasti počinje stavljati slične zahtjeve pred razvijatelje AI sustava.

Prema informacijama Financial Timesa, britanska vlada već je započela testiranje AI modela kroz suradnju s odgovarajućim developerima. Testiranje uključuje pristup sofisticiranim AI modelima za testiranje prije njihovog puštanja u upotrebu, čak i za modele koji nisu još službeno objavljeni poput Googleovog Gemini Ultra. Ova inicijativa bila je jedan od glavnih sporazuma potpisanih od strane poduzeća na britanskom Summitu za sigurnost AI-a održanom u studenom.

Važno je da britanska vlada i druge regulatorne organizacije tijesno surađuju s poduzećima za umjetnu inteligenciju kako bi uspostavile jasne i standardizirane postupke sigurnosnog testiranja. Transparentne i učinkovite evaluacije neće samo povećati povjerenje u AI tehnologije, već će osigurati odgovorno implementiranje tih sustava u različitim sektorima.

Često postavljana pitanja

1. Koja poduzeća su pozvala britansku vladu da ubrza postupke sigurnosnog testiranja za AI sustave?
Nekoliko vodećih poduzeća za umjetnu inteligenciju, uključujući OpenAI, Google DeepMind, Microsoft i Meta, su to učinila.

2. Koja je uloga novoosnovanog Instituta za sigurnost umjetne inteligencije (AISI)?
Poduzeća su pristala na evaluaciju svojih AI modela od strane AISI-ja.

3. Hoće li ta poduzeća odgoditi ili mijenjati puštanje svojih tehnologija na temelju rezultata evaluacije?
Ne, ta poduzeća nisu obvezna odgađati ili mijenjati puštanje svojih tehnologija na temelju rezultata evaluacije.

4. Kakve su zabrinutosti izrazila ta poduzeća u vezi s evaluacijskim procesom?
Poduzeća su izrazila zabrinutost zbog trenutnog tempa, transparentnosti i nedostatka jasnoće u vezi s protokolima testiranja. Traže više detaljnih informacija o provođenim testovima, trajanju evaluacije i mehanizmu povratnih informacija.

5. Postoji li neizvjesnost u vezi s tim treba li testiranje ponavljati za manje izmjene u AI modelima?
Da, postoji neizvjesnost o tome treba li testiranje ponavljati svaki put kada se napravi manja izmjena u AI modelu, što bi developeri AI-ja mogli smatrati opterećujućim.

Ključni pojmovi/jargon

– AI: Oznaka za umjetnu inteligenciju.
– Institut za sigurnost umjetne inteligencije (AISI): Novoosnovani institut zadatak kojeg je evaluacija AI modela u svrhu sigurnosti.
– AI model: Odnosi se na umjetnički sustav ili algoritam razvijen od strane poduzeća.
– Protokoli testiranja: Postupci i smjernice koje slijede pri evaluaciji i testiranju AI modela.
– Testiranje prije puštanja u upotrebu: Testiranje provedeno prije službenog puštanja AI modela u upotrebu.

Povezane poveznice

– OpenAI
– Google DeepMind
– Microsoft
– Meta
– Financial Times

The source of the article is from the blog publicsectortravel.org.uk

Privacy policy
Contact