AI szakértők arra ösztönzik a technológiai cégeket, hogy fogadják el a nyitottságot és a felelősségteljes viselkedést.

Az AI-technológia komoly kockázatokat jelent, állítják kulcsfontosságú AI-cégek alkalmazottai csoportjai

Néhány vezető mesterséges intelligencia (AI) vállalat jelenlegi és korábbi alkalmazottainak kollektívája riadóztatott a potenciális veszélyekről, amelyeket az AI jelent a társadalomra. Kapcsolatba léptek technológiai vállalatokkal, és azt kérték, hogy vállaljanak elkötelezettséget a nagyobb átláthatóság és a kritikai kultúra elősegítése mellett az elszámoltathatóság fokozása érdekében.

A felelős AI-gyakorlatért folyamodó felhívásban, amelyet 13 aláíró – többek között az OpenAI, az Anthropic, és a Google DeepMind szakemberei – támogattak, kiemelik a kockázatok enyhítésének sürgősségét, mint például az egyenlőtlenség súlyosbítása, a félrevezető információk terjesztése és a lehetőségeket arra, hogy az AI-rendszerek önállóan működjenek, ami jelentős emberélet-veszteséghez vezethet. Az aláírók megjegyezték, hogy habár ezeket a veszélyeket korlátozni lehet, a vállalatoknak jelentős pénzügyi ösztönzőik vannak az ellenőrzés korlátozására.

Belső feszültség az OpenAI-nál – Szélesebb aggodalmak jelentkeznek

Az OpenAI, amely az utóbbi időben olyan alkalmazottak távozásával szembesült, mint a társalapító Ilya Sutskever és a vezető kutató Jan Leike. Az elmozdulások egyúttal finom bírálatként szolgálnak a cég irányára, ahol egyesek szerint a nyereség megszerzése elfedte a biztonságos technológiai bevezetés szükségességét.

Daniel Kokotajlo, egy volt OpenAI alkalmazott kétségbeesését fejezte ki a cég közönyével kapcsolatban az AI-veszélyekkel szemben. Állítása egy közös aggodalmat tükrözött, miszerint a cég a sietős fejlesztésre összpontosít, ami ellentétes a ilyen erős és bonyolult technológiához szükséges óvatos előrelépéssel.

Ezen aggodalmak ellenére Liz Bourgeois, az OpenAI szóvivője elismerte a kritikus szükségét a vita erősítésének az AI fejlesztése során.

AI-munkások a kijelentő- és etikai alapelvek védelmét szorgalmazzák

Mivel jelenleg hiányzik a kormányzati ellenőrzés, az AI-munkások úgy érzik, hogy ők az egyik kevés csoport, amely követelheti a vállalatok elszámoltathatóságát. A bizalmas megállapodások és elégtelen kijelentővédelmek korlátozzák a képességüket, hogy riaszthassanak.

A levél arra kéri a technológiai vállalatokat, hogy tartsák be a négy elvet, beleértve az ellenőrző jelzésű személyek elleni nemretorziós ígéretet, a kritika és vita kultúrájának elősegítését, folyamatokat az anonim aggodalomkifejezéshez és azoknak a megállapodásoknak az elutasítását, amelyek gátolják a kockázatok megvitatását.

Ezen kérések az OpenAI-n belüli belső problémák közepette érkeznek, amelyek a vezérigazgató Sam Altman rövid távú elmozdításához vezettek, amit a vállalat biztonsági gyakorlataival kapcsolatos rossz kommunikáció még tovább fokozott.

AI-kiválóságok, mint Yoshua Bengio, Geoffrey Hinton, és a számítástudományi szakember Stuart Russell támogatták a tennivalóra való felszólítást, ezzel aláhúzva a helyzet súlyosságát.

Kulcsfontosságú kérdések és válaszok

1. Miért sürgetik az AI-szakértők a technológiai vállalatokat az átláthatóság és az elszámoltathatóság felvállalására?
Az AI-szakértők az átláthatóság és az elszámoltathatóság sürgetését az AI-technológia potenciális kockázatai miatt kérik, amelyek magukban foglalják az egyenlőtlenség súlyosbítását, a félrevezető információk terjesztését és annak a lehetőségét, hogy az AI-rendszerek önálló módon működjenek, életveszélyes következményekkel. Úgy vélik, hogy ezek nélkül az intézkedések nélkül az innováció és a nyereség iránti törekvés elnyomhatja a biztonság és az etikai szempontok fontosságát.

2. Mely négy elvet kérnek az AI-munkások a technológiai vállalatoktól, hogy betartsanak?
– Egy nem-visszavágási ígéret a kijelentők ellen.
– Olyan kultúra elősegítése, ami bátorítja a kritikát és a vitát.
– Folyamatok biztosítása az aggodalmak névtelen kifejezésére.
– A kockázatok megvitatását gátló megállapodások elvetése.

3. Mi okoz belső feszültséget az OpenAI-nál?
Az OpenAI-n belül belső feszültség keletkezett azon érzékelése miatt, hogy a gyors fejlesztés és a nyereség érdekében fennálló hangsúly túltette magát a biztonságos és etikai megfontolásokon, ami alkalmazottak sorozatának távozásához vezetett, és vizsgálatot indított a cég irányultsága felől is.

Kulcsfontosságú kihívások vagy viták

Mérnöködés és biztonság egyensúlya: A vállalatok gyakran néznek szembe azzal a kihívással, hogy a gyors előrejutást és a szigorú biztonsági és etikai normák fenntartását összeegyeztessék.

Átláthatatlan AI-rendszerek: Az AI-rendszerek bonyolultsága vezethet ahhoz, hogy ne legyen megértésük vagy átláthatóságuk arról, hogyan hoznak döntéseket, ami megnehezíti az ellenőrzést.

Kijelentővédelmi intézkedések: Azoknak a védelme nem megfelelő, akik aggályokat vetítenek fel, eltántoríthatja az egyéneket a nemetikus gyakorlatok elleni fellépéstől.

Visszaélés lehetősége: Az AI-technológiát káros célokra ki lehet használni, amely hangsúlyozza a szigorú elszámoltathatóság szükségességét.

Előnyök és hátrányok

Előnyök:
Javított biztonság: A transzparencia és elszámoltathatóság hangsúlyozása biztonságosabb AI-rendszerekhez vezethet.
Etikus fejlesztés: A felelős gyakorlatok biztosítják, hogy az AI-technológia összhangban álljon a társadalmi értékekkel és etikával.
Felhasználói bizalom: A transzparencia növelheti a közönség bizalmát az AI-technológiák és vállalatok iránt.

Hátrányok:
Lassabb innováció: A fokozott ellenőrzés késleltetheti az új technológiák piacra dobását.
Költségek: A szigorú ellenőrzési mechanizmusok bevezetése erőforrásigényes lehet a vállalatok számára.

További információkért az AI-val és az ehhez kapcsolódó irányelvekkel kapcsolatban, kérem, olvassa el az alábbi linkeket:
OpenAI
Anthropic
DeepMind

Kérjük, vegye figyelembe, hogy ezek a linkek az említett szervezetek fő domainjeire kell, hogy irányítsanak. Segítségül szolgálnak több információ megszerzéséhez az alapelveikről és az AI-technológiákról, valamint mindegyik linket ellenőrizték annak érdekében, hogy az utolsó ismert frissítés óta érvényes legyen.

The source of the article is from the blog myshopsguide.com

Privacy policy
Contact