Companiile de IA îndeamnă Guvernul britanic să îmbunătățească testarea de siguranță

Mai multe companii de top în domeniul Inteligenței Artificiale (IA), inclusiv OpenAI, Google DeepMind, Microsoft și Meta, au solicitat Guvernului britanic să accelereze procedurile de testare a sistemelor de IA. Aceste companii au fost de acord să permită evaluarea modelelor lor de IA de către Institutul pentru Siguranța IA (AISI), nou înființat, dar au exprimat preocupări cu privire la ritmul actual și transparența procesului de evaluare. Deși companiile sunt dispuse să abordeze orice probleme identificate de către AISI, ele nu sunt obligate să amâne sau să modifice lansarea tehnologiilor lor în funcție de rezultatele evaluării.

Unul dintre principalele puncte de dispută pentru furnizorii de IA este lipsa clarității cu privire la protocoalele de testare. Aceștia doresc mai multe informații detaliate despre teste, durata evaluării și mecanismele de feedback. Există și incertitudine cu privire la necesitatea repetării testării de fiecare dată când există o actualizare minoră a modelului de IA, o cerință pe care dezvoltatorii de IA o pot considera impovărătoare.

Rezervele exprimate de aceste companii sunt valide ținând cont de ambiguitatea care înconjoară procesul de evaluare. Cu alte guverne care iau în considerare evaluări similare ale siguranței IA, orice confuzie actuală în procedurile din Marea Britanie va deveni și mai intensă pe măsură ce mai multe autorități încep să formuleze cerințe comparabile pentru dezvoltatorii de IA.

Potrivit Financial Times, Guvernul britanic a început deja testarea modelelor de IA prin colaborarea cu dezvoltatorii respective. Testarea include accesul la modele avansate de IA pentru teste pre-deploy, chiar și pentru modele nelansate precum Gemini Ultra de la Google. Această inițiativă a fost una dintre acordurile cheie semnate de companii în cadrul Summit-ului pentru Siguranța IA al Marii Britanii, care a avut loc în noiembrie.

Este imperativ ca Guvernul britanic și alte instituții guvernamentale să colaboreze îndeaproape cu companiile de IA pentru a stabili proceduri clare și standardizate de testare a siguranței. Evaluările transparente și eficiente vor nu doar spori încrederea în tehnologiile de IA, ci și vor asigura implementarea responsabilă a acestor sisteme în diverse sectoare.

Secțiunea de Întrebări Frecvente (FAQ)

1. Ce companii au solicitat Guvernului britanic să accelereze procedurile de testare a siguranței sistemelor de IA?
Mai multe companii de top în domeniul IA, inclusiv OpenAI, Google DeepMind, Microsoft și Meta, au făcut acest apel.

2. Care este rolul Institutului pentru Siguranța IA (AISI), nou înființat?
Companiile s-au angajat să permită evaluarea modelelor lor de IA de către AISI.

3. Companiile vor amâna sau modifica lansarea tehnologiilor lor în funcție de rezultatele evaluării?
Nu, companiile nu sunt obligate să amâne sau să modifice lansarea tehnologiilor lor în funcție de rezultatele evaluării.

4. Ce preocupări au exprimat aceste companii cu privire la procesul de evaluare?
Companiile au exprimat preocupări cu privire la ritmul actual, transparență și lipsa clarității cu privire la protocoalele de testare. Acestea doresc informații mai detaliate despre teste, durata evaluării și mecanismul de feedback.

5. Există incertitudine cu privire la necesitatea repetării testării pentru actualizări minore ale modelelor de IA?
Da, există incertitudine cu privire la necesitatea repetării testării de fiecare dată când există o actualizare minoră a modelului de IA, ceea ce dezvoltatorii de IA o pot considera impovărătoare.

Termeni-cheie/Jargon

– IA: Prescurtarea de la Inteligență Artificială.
– Institutul pentru Siguranța IA (AISI): Un institut nou înființat care are rolul de a evalua modelele de IA în ceea ce privește siguranța.
– Model de IA: Se referă la sistemul sau algoritmul de inteligență artificială dezvoltat de companii.
– Protocoale de testare: Procedurile și ghidurile urmate pentru evaluarea și testarea modelelor de IA.
– Testare pre-deploy: Testarea efectuată înainte ca modelul de IA să fie oficial implementat sau lansat.

Link-uri relevante

– OpenAI
– Google DeepMind
– Microsoft
– Meta
– Financial Times

The source of the article is from the blog japan-pc.jp

Privacy policy
Contact