UK tehnoloogiahiiglased nõuavad AI ohutustestide kiirendamist

UK tehnoloogiahiiglased, sealhulgas OpenAI, Google DeepMind, Microsoft ja Meta, kutsuvad Ühendkuningriigi valitsust üles kiirendama tehisintellekti (AI) süsteemide ohutustestide läbiviimist. Kuigi ettevõtted on pühendunud oma viimaste generatiivsete AI mudelite avamisele ülevaatamiseks hiljuti loodud AI ohutusinstituudi (AISI) poolt, soovivad nad selgust testide, ajakavade ja tagasisidemenetluste osas.

Erinevalt seaduslikult siduvatest kokkulepetest rõhutavad need vabatahtlikud kohustused tööstuse omaregulatsiooni väljakutseid kiiresti areneval AI valdkonnas. Vastuseks on Ühendkuningriigi valitsus rõhutanud vajadust tulevaste siduvate nõuete järele, et panna AI arendajad vastutama süsteemi ohutuse eest.

Valitsus toetatud AISI, mis mängib otsustavat rolli peaminister Rishi Sunaki visioonis Ühendkuningriigist liidrina AI potentsiaalsete riskide käsitlemisel, on juba alustanud olemasolevate AI mudelite testimist. Sellel on juurdepääs ka avaldamata mudelitele, nagu näiteks Google’i Gemini Ultra. Nende testide keskmes on AI kuritarvitamisega seotud riskide leevendamine, eriti küberturvalisuse valdkonnas. Koostöö Valitsuse Kommunikatsioonipeavalitsuse (GCHQ) Rahvusliku Küberturvalisuse Keskusega annab asjatundlikkuse selles olulises valdkonnas.

Hiljutised valitsuse lepingud näitavad, et AISI on eraldanud 1 miljoni naela võimekuste hankimiseks AI vestlusrobotite testideks, et vältida nende vastuvõtlikkust vangistamisele ja kaitsta nende eest püüde-õngitsemise rünnakuid. Lisaks arendab AISI automatiseeritud süsteeme lähtekoodi taasinsenerimise hõlbustamiseks, võimaldades põhjalikku AI mudelite hindamist.

Google DeepMind on väljendanud oma kohustust AISI-ga koostööd teha, eesmärgiga täiustada AI mudelite hindamise ja ohutuspraktikate läbiviimist. OpenAI ja Meta keeldusid kommentaaride andmisest seoses selle küsimusega.

Kokkuvõttes kajastab UK tehnoloogiahiiglaste surve AI ohutustestideks vastutustundliku arendamise ja regulatsiooni olulisust, et tõhusalt käsitleda AI edusammudega kaasnevaid potentsiaalseid riske. Valitsuse fookus siduvate nõuete ja tööstuse koostöö osas on tagada turvalisus ja vastutus kiiresti kasvavas AI tehnoloogia valdkonnas.

KKK: UK tehnoloogiahiiglased survestavad AI ohutusteste

1. Millele kutsub Ühendkuningriigi tehnoloogiahiiglased Ühendkuningriigi valitsust kiirendama?
UK tehnoloogiahiiglased, sealhulgas OpenAI, Google DeepMind, Microsoft ja Meta, kutsuvad Ühendkuningriigi valitsust üles kiirendama tehisintellekti (AI) süsteemide ohutustestide läbiviimist.

2. Milliseid kohustusi on need ettevõtted võtnud?
Ettevõtted on pühendunud oma viimaste generatiivsete AI mudelite avamisele ülevaatamiseks hiljuti loodud AI ohutusinstituudi (AISI) poolt.

3. Millised on väljakutsed tööstuse enda reguleerimisel AI valdkonnas?
Vabatahtlikud kohustused rõhutavad tööstuse enda reguleerimise väljakutseid kiiresti arenevas AI valdkonnas.

4. Millele valitsus vastusena rõhutab?
Ühendkuningriigi valitsus rõhutab vajadust tulevaste siduvate nõuete järele, et panna AI arendajad vastutama süsteemi ohutuse eest.

5. Milline on AISI roll Ühendkuningriigi valitsuse visioonis?
Valitsuse toetatud AISI mängib otsustavat rolli peaminister Rishi Sunaki visioonis Ühendkuningriigist liidrina AI potentsiaalsete riskide käsitlemisel.

6. Millel on AISI juba testimist alustanud?
AISI on juba alustanud olemasolevate AI mudelite testimist, sealhulgas juurdepääs avaldamata mudelitele, nagu näiteks Google’i Gemini Ultra.

7. Millistele riskidele AI ohutustestid keskenduvad?
Nende testide keskmes on AI kuritarvitamisega seotud riskide leevendamine, eriti küberturvalisuse valdkonnas.

8. Kellega AISI koostööd teeb küberturvalisuse valdkonnas asjatundlikkuse tagamiseks?
AISI teeb koostööd Valitsuse Kommunikatsioonipeavalitsuse (GCHQ) Rahvusliku Küberturvalisuse Keskusega küberturvalisuse erialal.

9. Milliseid võimekusi AISI 1 miljoni naela eest hankib?
AISI on eraldanud 1 miljon naela võimekuste hankimiseks AI vestlusrobotite testideks, et vältida nende vastuvõtlikkust vangistamisele ja kaitsta nende eest püüde-õngitsemise rünnakuid.

10. Milliseid automatiseeritud süsteeme AISI arendab?
AISI arendab automatiseeritud süsteeme lähtekoodi taasinsenerimise hõlbustamiseks, võimaldades põhjalikku AI mudelite hindamist.

11. Kuidas on Google DeepMind väljendanud oma kohustust AISI-ga?
Google DeepMind on väljendanud oma kohustust teha AISI-ga koostööd AI mudelite hindamise ja ohutuspraktikate täiustamiseks.

12. Mis on valitsuse fookus AI tehnoloogia valdkonnas?
Valitsuse fookus on siduvate nõuete ja tööstuse koostöö tagamisel turvalisus ja vastutus kiiresti kasvavas AI tehnoloogia valdkonnas.

Mõisted:
– AI: Tehisintellekt
– AISI: AI Ohutusinstituut
– Generatiivsed AI mudelid: AI mudelid, mis suudavad luua uut sisu või genereerida uusi andmeid olemasolevate mustrite või teabe põhjal.
– Omaregulatsioon: Tööstuse või organisatsiooni võime reguleerida ennast ilma väliste valitsuse sekkumiseta.

Seotud lingid:
– OpenAI
– Google DeepMind
– Microsoft
– Meta
– Valitsuse Kommunikatsioonipeavalitsus (GCHQ)

The source of the article is from the blog cheap-sound.com

Privacy policy
Contact