Tech-giganții din Marea Britanie cere teste de siguranță AI

Tech-giganții din Marea Britanie, inclusiv OpenAI, Google DeepMind, Microsoft și Meta, îndeamnă guvernul britanic să accelereze teste de siguranță pentru sistemele de inteligență artificială (AI). În timp ce companiile s-au angajat să ofere acces la cele mai recente modele AI generative pentru revizuirea de către Institutul AI pentru Siguranță (AISI), nou înființat, ele solicită clarificări cu privire la teste, termene și procesul de feedback implicat.

Spre deosebire de acordurile legal obligatorii, aceste angajamente voluntare evidențiază provocările în a se baza pe autoreglementarea industriei în domeniul în rapidă evoluție al AI. În răspuns, guvernul britanic a subliniat necesitatea unor cerințe obligatorii viitoare pentru a face ca dezvoltatorii de AI să fie responsabili pentru siguranța sistemului.

AISI, susținut de guvern, care joacă un rol cheie în viziunea prim-ministrului Rishi Sunak pentru Marea Britanie ca lider în abordarea riscurilor potențiale ale AI, a început deja testarea modelelor AI existente. De asemenea, are acces la modele neeliberate, cum ar fi Gemini Ultra de la Google. Aceste teste se concentrează pe reducerea riscurilor asociate cu utilizarea greșită a AI, în special în domeniul securității cibernetice. Colaborarea cu Centrul Național de Securitate Cibernetică din cadrul Sedii Comunicațiilor Guvernamentale (GCHQ) furnizează expertiză în această arie crucială.

Contractele guvernamentale recente relevă faptul că AISI a alocat 1 milion de lire pentru achiziționarea de capacități pentru testarea sensibilității AI chatbot-urilor la jailbreaking și pentru protejarea împotriva atacurilor de spear-phishing. În plus, AISI dezvoltă sisteme automate pentru facilitarea ingineriei inversate a codului sursă, permițând o evaluare amănunțită a modelelor AI.

Google DeepMind și-a exprimat angajamentul de a colabora cu AISI, având ca scop îmbunătățirea evaluării și a practicilor de siguranță ale modelelor AI. Cu toate acestea, OpenAI și Meta au refuzat să comenteze în această privință.

În ansamblu, presiunea exercitată de tech-giganții din Marea Britanie pentru teste de siguranță AI reflectă importanța dezvoltării și reglementării responsabile în scopul abordării riscurilor potențiale asociate cu progresele AI în mod eficient. Accentul guvernului pe cerințe obligatorii și colaborarea cu industria are ca scop asigurarea siguranței și a responsabilității în domeniul în plină creștere al tehnologiei AI.

Întrebări frecvente: Tech-giganții din Marea Britanie cer teste de siguranță AI

1. Ce îndeamnă tech-giganții din Marea Britanie guvernul britanic să accelereze?
Tech-giganții din Marea Britanie, inclusiv OpenAI, Google DeepMind, Microsoft și Meta, îndeamnă guvernul britanic să accelereze teste de siguranță pentru sistemele de inteligență artificială (AI).

2. Ce angajamente au făcut aceste companii?
Companiile s-au angajat să ofere acces la cele mai recente modele AI generative pentru revizuirea de către Institutul AI pentru Siguranță (AISI), nou înființat.

3. Care sunt provocările de a te baza pe autoreglementarea industriei în domeniul AI?
Angajamentele voluntare evidențiază provocările de a te baza pe autoreglementarea industriei în domeniul în rapidă evoluție al AI.

4. La ce a subliniat guvernul britanic în răspuns?
Guvernul britanic subliniază necesitatea unor cerințe obligatorii viitoare pentru a face ca dezvoltatorii de AI să fie responsabili pentru siguranța sistemului.

5. Care este rolul AISI în viziunea guvernului britanic?
AISI, susținut de guvern, joacă un rol cheie în viziunea prim-ministrului Rishi Sunak pentru Marea Britanie ca lider în abordarea riscurilor potențiale ale AI.

6. La ce au început deja să testeze AISI?
AISI a început deja testarea modelelor AI existente, inclusiv accesul la modele neeliberate, cum ar fi Gemini Ultra de la Google.

7. Pe ce riscuri se concentrează testele de siguranță AI?
Aceste teste se concentrează pe reducerea riscurilor asociate cu utilizarea greșită a AI, în special în domeniul securității cibernetice.

8. Cu cine colaborează AISI pentru a obține expertiză în securitatea cibernetică?
AISI colaborează cu Centrul Național de Securitate Cibernetică din cadrul Sedii Comunicațiilor Guvernamentale (GCHQ) pentru a obține expertiză în securitatea cibernetică.

9. Ce capacități achiziționează AISI cu 1 milion de lire?
AISI a alocat 1 milion de lire pentru achiziționarea de capacități pentru testarea sensibilității AI chatbot-urilor la jailbreaking și pentru protejarea împotriva atacurilor de spear-phishing.

10. Ce sisteme automate dezvoltă AISI?
AISI dezvoltă sisteme automate pentru facilitarea ingineriei inverse a codului sursă, permițând o evaluare amănunțită a modelelor AI.

11. Cum și-a exprimat Google DeepMind angajamentul față de AISI?
Google DeepMind și-a exprimat angajamentul de a colabora cu AISI în scopul îmbunătățirii evaluării și a practicilor de siguranță ale modelelor AI.

12. Care este focusul guvernului în domeniul tehnologiei AI?
Focusul guvernului este pe cerințe obligatorii și colaborare cu industria pentru a asigura siguranța și responsabilitatea în domeniul în plină creștere al tehnologiei AI.

Definiții:
– AI: Inteligență Artificială
– AISI: Institutul AI pentru Siguranță
– Modele AI generative: Modele AI care pot crea conținut nou sau genera noi date bazate pe modele sau informații existente.
– Autoreglementare: Capacitatea unei industrii sau organizații de a se reglementa singură fără intervenție guvernamentală externă.

Link-uri conexe:
– OpenAI
– Google DeepMind
– Microsoft
– Meta
– Sediile Comunicațiilor Guvernamentale (GCHQ)

The source of the article is from the blog smartphonemagazine.nl

Privacy policy
Contact