Britanski tehnološki giganti pozivajo k testom varnosti umetne inteligence (UI)

Britanski tehnološki giganti, med njimi OpenAI, Google DeepMind, Microsoft in Meta, pozivajo britansko vlado k pospešitvi testov varnosti sistemov umetne inteligence (UI). Čeprav so podjetja obljubila, da bodo omogočila pregled njihovih najnovejših generativnih modelov UI s strani novo ustanovljenega Inštituta za varnost UI (AI Safety Institute, AISI), iščejo jasnost glede testov, rokov in postopka povratnih informacij.

V nasprotju z zavezujočimi pravnimi sporazumi te prostovoljne zaveze poudarjajo izzive, s katerimi se soočamo pri zanašanju na samoregulacijo industrije v hitro razvijajočem se področju UI. V odgovor na to vlada Združenega kraljestva poudarja potrebo po bodočih zavezujočih zahtevah, s katerimi bi razvijalce UI obravnavali kot odgovorne za varnost sistemov.

AISI, ki jo podpira vlada, igra ključno vlogo v viziji britanskega premierja Rishija Sunaka za Združeno kraljestvo kot vodilno na področju obravnave tveganj, ki jih prinaša UI. Ta že izvaja teste obstoječih modelov UI in ima dostop do neizdanih modelov, kot je na primer Gemini Ultra podjetja Google. Osredotoča se na obravnavo tveganj, povezanih z zlorabo UI, zlasti v kibernetski varnosti. Sodelovanje z Nacionalnim kibernetskim varnostnim centrom v okviru Uprave za komunikacijske napise vlade (Government Communications Headquarters, GCHQ) zagotavlja strokovnost na tem ključnem področju.

Nedavne vladne pogodbe razkrivajo, da je AISI namenil 1 milijon funtov za pridobitev zmogljivosti za testiranje ranljivosti UI klepetalnikov v primeru nepooblaščenega vdora ter za varovanje pred napadi prek elektronske pošte s prevaro. Poleg tega AISI razvija avtomatizirane sisteme za olajšanje vračanja inženirstva izvorne kode, kar omogoča temeljito evalvacijo modelov UI.

Google DeepMind je izrazil svojo zavezanost pri sodelovanju z AISI, s čimer želijo izboljšati evalvacijo in varnostne prakse modelov UI. Vendar OpenAI in Meta nista želela komentirati tega vprašanja.

Na splošno spodbujanje britanskih tehnoloških velikanov za teste varnosti UI odraža pomembnost odgovornega razvoja in regulacije, da bi učinkovito naslovili potencialna tveganja, povezana z napredkom na področju UI. Vlada se osredotoča na zavezujoče zahteve in sodelovanje industrije za zagotovitev varnosti in odgovornosti na hitro rastočem področju tehnologije umetne inteligence.

Pogosta vprašanja: Britanski tehnološki giganti pozivajo k testom varnosti UI

1. Kaj pozivajo britanski tehnološki giganti britansko vlado, da pospeši?
Britanski technološki giganti, vključno z OpenAI, Google DeepMind, Microsoft in Meta, pozivajo britansko vlado, naj pospeši teste varnosti sistemov umetne inteligence (UI).

2. Kakšne zaveze so te družbe dale?
Podjetja so se zavezala, da bodo odprla svoje najnovejše generativne modele UI za pregled s strani novo ustanovljenega Inštituta za varnost UI (AI Safety Institute, AISI).

3. Kateri izzivi so povezani s samoregulacijo industrije na področju UI?
Te prostovoljne zaveze poudarjajo izzive, s katerimi se soočamo pri zanašanju na samoregulacijo industrije v hitro razvijajočem se področju UI.

4. Kaj poudarja britanska vlada v odgovoru?
Britanska vlada poudarja potrebo po bodočih zavezujočih zahtevah, s katerimi bi razvijalce UI obravnavali kot odgovorne za varnost sistemov.

5. Kakšno vlogo ima AISI v viziji britanske vlade?
AISI, ki jo podpira vlada, igra ključno vlogo v viziji britanskega premierja Rishija Sunaka za Združeno kraljestvo kot vodilno na področju obravnave tveganj, ki jih prinaša UI.

6. Na čem osnovne teste že izvaja AISI?
AISI že izvaja teste obstoječih modelov UI, vključno z dostopom do neizdanih modelov, kot je na primer Gemini Ultra podjetja Google.

7. Na katere tveganja so osredotočeni testi varnosti UI?
Osredotočajo se na zmanjšanje tveganj, povezanih z zlorabo UI, zlasti na področju kibernetske varnosti.

8. S kom AISI sodeluje na področju kibernetske varnosti?
AISI sodeluje z Nacionalnim kibernetskim varnostnim centrom v okviru Uprave za komunikacijske napise vlade (Government Communications Headquarters, GCHQ), ki zagotavlja strokovnost na tem ključnem področju.

9. Katere zmogljivosti pridobiva AISI s 1 milijonom funtov?
AISI je namenil 1 milijon funtov za pridobitev zmogljivosti za testiranje ranljivosti UI klepetalnikov v primeru nepooblaščenega vdora ter za varovanje pred napadi prek elektronske pošte s prevaro.

10. Kakšne avtomatizirane sisteme razvija AISI?
AISI razvija avtomatizirane sisteme za olajšanje vračanja inženirstva izvorne kode, kar omogoča temeljito evalvacijo modelov UI.

11. Kako je Google DeepMind izrazil svojo zavezanost podjetju AISI?
Google DeepMind je izrazil svojo zavezanost k sodelovanju z AISI, s čimer želijo izboljšati evalvacijo in varnostne prakse modelov UI.

12. Na kaj se vlada osredotoča na področju tehnologije UI?
Vlada se osredotoča na zavezujoče zahteve in sodelovanje industrije za zagotovitev varnosti in odgovornosti na hitro rastočem področju tehnologije umetne inteligence.

The source of the article is from the blog meltyfan.es

Privacy policy
Contact