Foști și actuali angajați evidențiază riscurile AI și cer o supraveghere mai mare a companiei

Specialiștii din Industrie trag un semnal de alarmă cu privire la pericolele învățării automate

Un grup de indivizi care în prezent și anterior au fost angajați la organizațiile AI de frunte OpenAI, DeepMind de la Google și Anthropic au transmis colectiv un avertisment sever referitor la pericolele asociate inteligenței artificiale. Citând riscurile considerabile asociate dezvoltării AI, ei fac un apel la firmele de tehnologie să investească semnificativ mai mult în monitorizarea și gestionarea acestor instrumente, o preocupare evidențiată de The Washington Post.

Acești angajați susțin beneficiile incredibile pe care AI le poate aduce umanității, dar recunosc și că există riscuri grele, cum ar fi creșterea inegalității, dezinformarea și posibilitatea ca sistemele autonome să depășească limita, ceea ce ar putea duce la repercusiuni severe pentru omenire.

Companiile recunosc riscurile, dar supravegherea este insuficientă

Profesioniștii exprimă nemulțumire față de insuficiența eforturilor de a aborda aceste pericole, în ciuda faptului că companiile recunosc existența acestora. Așa cum ei o văd, companiile AI sunt conduse de interese financiare care ar putea descuraja supravegherea eficientă, captivându-le astfel într-un conflict în care câștigurile economice trec cu mult peste siguranță și integritate.

Apel pentru Principii pentru a Asigura Dezvoltarea AI Responsabile

Lucrătorii susțin adoptarea a patru principii de bază de către companiile AI. În primul rând, ei sugerează că o companie nu ar trebui să impună măsuri de restricționare a criticii angajaților, nici să blocheze dialogul în beneficiul economic. În continuare, un sistem de raportare anonim care facilitează comunicarea riscurilor către conducere și organizații nepărtinitoare ar trebui să fie implementat.

A treia principiu recomandă consolidarea unei culturi receptive la critică deschisă, care să nu compromită în mod nedrept secretele comerciale sau proprietatea intelectuală. În cele din urmă, prevederea specifică că companiile ar trebui să se abțină de la măsuri punitive împotriva angajaților care dezvăluie informații, în anumite condiții stricte, menite să reducă riscul.

În recunoașterea acestor propuneri, un purtător de cuvânt de la OpenAI a relatat pentru CNBC despre colaborarea lor în curs cu guvernele globale, societățile civile și diverse comunități pentru a menține un dialog critic în inovația AI, dezvăluind procedurile lor pentru raportarea anonimă a riscurilor și o comisie de siguranță de curând formată.

Întrebări cheie și Răspunsuri:

1. Ce riscuri sunt asociate cu dezvoltarea AI?

Riscurile includ escaladarea inegalității, răspândirea dezinformării, posibila depășire a limitelor de către sistemele autonome AI, invazia intimității și posibile repercusiuni severe pentru umanitate precum pierderea locurilor de muncă sau consecințele nedorite ale acțiunilor puternice ale AI.

2. De ce companiile ar putea să nu priorizeze supravegherea adecvată?

Companiile AI pot prioritiza incentivelor financiare și progresul tehnologic în fața monitorizării și gestionării instrumentelor AI. Câștigurile economice ar putea eclipsa investiția în siguranță și dezvoltarea etică a AI, ducând la un accent insuficient pe supraveghere.

3. Care sunt cele patru principii sugerate de profesioniștii AI?

Principiile includ (a) absența ordinelor de limitare a criticilor, (b) un sistem de raportare anonim pentru riscuri, (c) o cultură deschisă la critică menținând în același timp secrete comerciale și (d) protecția pentru cei care semnalează nereguli.

Provocări și Controverse cheie:

Echilibrul între Inovație și Siguranță: Cursa pentru dezvoltarea AI avansate poate duce la neglijarea protocolului de siguranță, ridicând provocări în asigurarea dezvoltării responsabile a AI.

Designul Etic al AI: Există controverse legate de ce constituie o AI etică, cum se pot implementa normele și cine decide standardele pentru dezvoltarea responsabilă, inclusiv abordând bias-ul și echitatea.

Conformitate și Reglementare: Problema modului de a reglementa AI eficient și ce fel de legi și standarde sunt necesare pentru a gestiona impactul tot mai mare al AI asupra societății.

Transparența: Companiile s-ar putea confrunta cu provocări în a fi transparenți cu privire la operațiunile AI fără a compromite informațiile deținute, avantajul competitiv sau intimitatea utilizatorilor.

Avantaje și Dezavantaje:

Avantaje:

– Dezvoltarea AI responsabilă poate crea sisteme care acționează în interesul societății, îmbunătățind eficiența, productivitatea și avansând diferite domenii precum sănătatea și educația.
– Consolidarea supravegherii poate reduce riscurile utilizării neadecvate a AI, impactul negativ asupra societății și creșterea încrederii publice în tehnologiile AI.

Dezavantaje:

– Supravegherea sporită ar putea restricționa inovația și încetini progresul tehnologiilor AI benefice, punând companiile în dezavantaj competitiv.
– Implementarea principiilor sugerate ar putea necesita resurse semnificative, modificarea modelelor de afaceri și ar putea fi întâmpinată cu rezistență din partea părților interesate din cadrul companiilor.

Pentru mai multe informații generale despre inteligența artificială și implicatiile sale, puteți vizita site-urile organizațiilor care se concentrează pe cercetarea și politica AI, cum ar fi OpenAI la OpenAI și DeepMind la DeepMind. Este important să vă asigurați că URL-urile sunt corecte înainte de a vizita, deoarece URL-urile incorecte pot duce la surse diferite, potențial nesigure.

The source of the article is from the blog combopop.com.br

Privacy policy
Contact