Kunstintellekti ettevõtted kutsuvad Ühendkuningriigi valitsust parandama ohutustestimist

Mitmed juhtivad kunstintellekti ettevõtted, sealhulgas OpenAI, Google DeepMind, Microsoft ja Meta, on palunud Ühendkuningriigi valitsusel kiirendada oma kunstintellekti süsteemide ohutustestimise protseduure. Need ettevõtted on nõustunud laskma oma kunstintellekti mudeleid hinnata hiljuti loodud Kunstintellekti Ohutusinstituudi (AISI) poolt, kuid on väljendanud muret hindamisprotsessi praeguse tempoka ja läbipaistmatuse üle. Kuigi ettevõtted on valmis parandama mis tahes AISI tuvastatud vigu, pole neil kohustust viivitada ega muuta tehnoloogiate väljalaskmist hindamise tulemuste põhjal.

Üks peamisi erimeelsusi kunstintellekti müüjate seas on selguse puudumine testimisprotokollide osas. Nad otsivad üksikasjalikumat teavet läbiviidavate testide kohta, hindamise kestvuse ja tagasiside mehhanismi kohta. On ka ebakindlust, kas testimine tuleb korduda igal korral, kui tehakse väikseid uuendusi kunstintellekti mudelisse, nõue, mida kunstintellekti arendajad võivad pidada koormavaks.

Ettevõtete väljendatud reservatsioonid on põhjendatud arvestades hindamisprotsessi ümbritsevat ebaselgust. Kuna ka teised valitsused kaaluvad sarnaseid kunstintellekti ohutushinnanguid, süveneb praegune segadus Ühendkuningriigi protseduuride ümber veelgi, kui rohkem ametiasutusi hakkab esitama sarnaseid nõudmisi kunstintellekti arendajatele.

Finantstimesi andmetel on Ühendkuningriigi valitsus juba alustanud koostööd vastavate arendajatega kunstintellekti mudelite testimiseks. Testimine hõlmab juurdepääsu keerukatele kunstintellekti mudelitele enne rakendustega testimist, isegi sellistele avalikustamata mudelitele nagu Google’i Gemini Ultra. Seda algatust peeti üheks olulisemaks kokkuleppeks, mille ettevõtted allkirjastasid Ühendkuningriigi novembris toimunud Kunstintellekti Ohutuse tippkohtumisel.

On ülimalt oluline, et Ühendkuningriigi valitsus ja teised haldusorganid töötaksid tihedalt koos kunstintellekti ettevõtetega, et luua selged ja standardiseeritud ohutustestimise protseduurid. Läbipaistvad ja tõhusad hindamised parandavad mitte ainult usaldust kunstintellekti tehnoloogiate vastu, vaid tagavad ka nende süsteemide vastutustundliku kasutuselevõtu erinevates valdkondades.

KKK ja vastused

1. Millised ettevõtted on palunud Ühendkuningriigi valitsusel kiirendada ohutustestimise protseduure kunstintellekti süsteemide jaoks?
Mitmed juhtivad kunstintellekti ettevõtted, sealhulgas OpenAI, Google DeepMind, Microsoft ja Meta, on selle palve esitanud.

2. Mis on hiljuti loodud Kunstintellekti Ohutusinstituudi (AISI) roll?
Ettevõtted on nõustunud laskma oma kunstintellekti mudeleid hinnata AISI poolt.

3. Kas ettevõtted viivitavad või muudavad oma tehnoloogiate väljalaskmist hindamise tulemuste põhjal?
Ei, ettevõtted pole kohustatud viivitama ega muutma oma tehnoloogiate väljalaskmist hindamise tulemuste põhjal.

4. Milliseid murekohti on need ettevõtted avaldanud hindamisprotsessi kohta?
Ettevõtted on avaldanud muret praeguse tempoka, läbipaistmatuse ja selguse puudumise üle seoses testimisprotokollidega. Nad otsivad üksikasjalikumat teavet läbiviidavate testide kohta, hindamise kestvuse ja tagasiside mehhanismi kohta.

5. Kas on ebakindlust, kas testimine tuleb korduda kunstintellekti mudeli väiksemate uuenduste korral?
Jah, on ebakindlust, kas testimine tuleb korduda iga kord, kui tehakse väikseid uuendusi kunstintellekti mudelisse, mis võib olla koormav kunstintellekti arendajate jaoks.

Olulised mõisted/jargoon

– AI: Kunstintellekti lühend.
– Kunstintellekti Ohutusinstituut (AISI): Hiljuti loodud instituut, mis vastutab kunstintellekti mudelite ohutuse hindamise eest.
– Kunstintellekti mudel: Viitab ettevõtete välja töötatud kunstintellekti süsteemile või algoritmile.
– Testimisprotokollid: Menetlused ja juhised kunstintellekti mudelite hindamiseks ja testimiseks.
– Enne rakendamise testimine: Testimine, mis viiakse läbi enne ametlikku rakendamist või väljalaskmist.

Seotud lingid

– OpenAI
– Google DeepMind
– Microsoft
– Meta
– Financial Times

The source of the article is from the blog jomfruland.net

Privacy policy
Contact