Reglementările Noi Privind Inteligența Artificială Implementate de Guvernul SUA

Guvernul Statelor Unite ale Americii a anunțat în mod recent trei politici noi pentru reglementarea utilizării inteligenței artificiale (IA) de către guvernul federal. Aceste politici, considerate un punct de referință pentru acțiunea globală, își propun să abordeze preocupările referitoare la impactul IA asupra forței de muncă din SUA, confidențialitate, securitate națională și potențialul de luare a deciziilor discriminatorii.

Pentru a asigura siguranța și drepturile americanilor, Biroul de Management și Buget a impus agențiilor federale utilizarea IA într-un mod care să nu pericliteze „drepturile și siguranța” cetățenilor. În plus, agențiile federale vor trebui să publice online o listă a sistemelor de IA pe care le folosesc, împreună cu o evaluare a riscurilor asociate acelor sisteme și modul în care acestea sunt gestionate.

În plus, Casa Albă direcționează toate agențiile federale să numească un șef al IA cu o experiență solidă în domeniu. Acest individ va avea responsabilitatea supervizării utilizării tehnologiilor IA în cadrul agenției, asigurându-se că acestea sunt folosite etic și eficient.

Vicepreședintele Kamala Harris, care a fost o forță principală în modelarea politicilor de IA ale administrației, a subliniat importanța acestor reglementări la nivel global. Ea consideră că toți liderii, indiferent de sector, au responsabilitatea de a asigura adoptarea și avansul responsabile ale IA pentru a proteja publicul de eventuale prejudicii, maximizând în același timp beneficiile acesteia.

Guvernul a dezvăluit deja peste 700 de cazuri de utilizare curentă și planificată a IA în diverse agenții. Exemplele variază de la detectarea COVID-19 prin analiza tusei de pe smartphone-uri până la identificarea presupuselor crime de război și prevenirea traficului ilegal de mărfuri. Cu toate acestea, pentru a reduce riscurile potențiale, agențiile federale vor trebui acum să implementeze măsuri de protecție care să evalueze, testeze și monitorizeze în mod fiabil impactul IA asupra publicului. Acest lucru include eforturi de prevenire a discriminării algoritmice și asigurarea transparenței și responsabilității în utilizarea de către guvern a IA.

Un exemplu ilustrativ oferit de vicepreședintele Harris implică utilizarea IA în diagnosticarea pacienților din cadrul Administrației Veteranilor. În acest scenariu, este crucial ca sistemul de IA să demonstreze că diagnosticul său nu are biasuri rasiale.

Ordinul executiv al președintelui Biden privind IA, care folosește Legea privind Producția de Apărare, impune companiilor care dezvoltă platforme avansate de IA să notifice și să împărtășească rezultatele testelor de siguranță cu guvernul. Aceste teste, realizate printr-un proces cunoscut sub numele de „red-teaming”, implică o evaluare riguroasă a riscurilor. Institutul Național de Standarde și Tehnologie lucrează și la stabilirea standardelor pentru testarea „red-team” pentru a asigura siguranța și implementarea responsabilă a tehnologiilor de IA către public.

Aceste politici noi reprezintă un pas semnificativ înainte în reglementarea și guvernarea IA în Statele Unite. Prin prioritizarea transparenței, responsabilității și protejarea cetățenilor, guvernul federal își propune să stabilească un cadru robust care să poată servi ca model pentru reglementările globale privind IA.

Întrebări frecvente (FAQ)

Care sunt principalele obiective ale noilor politici de IA anunțate de administrația Biden?

Principalele obiective ale noilor politici de IA sunt de a asigura siguranța, drepturile și confidențialitatea cetățenilor americani, abordând în același timp preocupările referitoare la discriminare potențială și riscurile asociate tehnologiei IA. Politicile își propun să stabilească un cadru pentru responsabilitate, transparență și utilizare responsabilă a IA în cadrul guvernului federal.

Ce măsuri vor trebui să ia agențiile federale în conformitate cu noile politici?

Potrivit noilor politici, agențiile federale vor trebui să publice o listă a sistemelor de IA pe care le utilizează, împreună cu o evaluare a riscurilor implicate și modul în care aceste riscuri sunt gestionate. În plus, fiecare agenție va numi un șef al IA pentru a supraveghea implementarea tehnologiilor de IA și a asigura utilizarea lor etică și eficientă.

Cum va evalua guvernul riscurile de siguranță ale IA?

Pentru a evalua riscurile de siguranță ale IA, agențiile federale vor fi obligate să implementeze măsuri de protecție care să permită evaluarea, testarea și monitorizarea în mod fiabil a impactului IA asupra publicului. Acest lucru include măsuri pentru a preveni discriminarea algoritmica și publicarea informațiilor care detaliază modul în care guvernul utilizează IA.

Ce rol va avea Institutul Național de Standarde și Tehnologie în reglementarea IA?

Institutul Național de Standarde și Tehnologie va stabili standarde pentru testarea „red-team” a tehnologiilor de IA. Testarea „red-team” implică efectuarea unor evaluări riguroase ale riscurilor pentru a asigura siguranța și implementarea responsabilă a platformelor de IA înainte de lansarea lor către public. Aceste standarde vor contribui la cadru general pentru reglementarea și guvernarea IA.

Politica nouă anunțată de administrația Biden cu privire la utilizarea inteligenței artificiale (IA) în cadrul guvernului federal face parte dintr-un efort mai amplu de a reglementa tehnologia IA și de a aborda preocupările conexe. Aceste politici au o semnificație globală și servesc pentru a proteja forța de muncă din SUA, confidențialitatea, securitatea națională și pentru a preveni luarea deciziilor discriminatorii.

Industria de IA cunoaște o creștere rapidă, cu tehnologiile de IA fiind utilizate în diferite sectoare precum sănătatea, aplicarea legii și finanțele. Prognozele de piață indică faptul că piața globală de IA este așteptată să atingă 190 miliarde de dolari până în 2025, cu o rată anuală compusă de creștere de peste 33% de la 2020 până în 2025. Acest lucru evidențiază importanța tot mai mare a reglementărilor pentru a asigura o utilizare responsabilă și etică a IA.

Unul dintre principalele obiective ale noilor politici de IA este de a asigura siguranța și drepturile americanilor. Agențiile federale vor trebui să utilizeze IA într-un mod care să nu pună în pericol „drepturile și siguranța” cetățenilor. Acest lucru va implica implementarea unor măsuri de protecție care să evalueze, testeze și monitorizeze în mod fiabil impactul IA asupra publicului. Guvernul își propune să prevină discriminarea algoritmică și să asigure transparență și responsabilitate în utilizarea de către guvern a IA.

Pe lângă preocupările legate de siguranță, confidențialitatea este o problemă semnificativă în industria de IA. Politicile impun ca agențiile federale să publice o listă a sistemelor de IA pe care le folosesc, împreună cu o evaluare a riscurilor asociate acestor sisteme și modul în care acestea sunt gestionate. Această transparență oferă asigurări publicului cu privire la utilizarea IA și încurajează practici responsabile.

Pentru a supraveghea utilizarea tehnologiilor de IA în cadrul agențiilor federale, Casa Albă direcționează toate agențiile să numească un șef al IA cu o experiență solidă în domeniu. Acest individ va fi responsabil pentru asigurarea că tehnologiile de IA sunt utilizate

The source of the article is from the blog reporterosdelsur.com.mx

Privacy policy
Contact