Az AI-technológia komoly kockázatokat jelent, állítják kulcsfontosságú AI-cégek alkalmazottai csoportjai
Néhány vezető mesterséges intelligencia (AI) vállalat jelenlegi és korábbi alkalmazottainak kollektívája riadóztatott a potenciális veszélyekről, amelyeket az AI jelent a társadalomra. Kapcsolatba léptek technológiai vállalatokkal, és azt kérték, hogy vállaljanak elkötelezettséget a nagyobb átláthatóság és a kritikai kultúra elősegítése mellett az elszámoltathatóság fokozása érdekében.
A felelős AI-gyakorlatért folyamodó felhívásban, amelyet 13 aláíró – többek között az OpenAI, az Anthropic, és a Google DeepMind szakemberei – támogattak, kiemelik a kockázatok enyhítésének sürgősségét, mint például az egyenlőtlenség súlyosbítása, a félrevezető információk terjesztése és a lehetőségeket arra, hogy az AI-rendszerek önállóan működjenek, ami jelentős emberélet-veszteséghez vezethet. Az aláírók megjegyezték, hogy habár ezeket a veszélyeket korlátozni lehet, a vállalatoknak jelentős pénzügyi ösztönzőik vannak az ellenőrzés korlátozására.
Belső feszültség az OpenAI-nál – Szélesebb aggodalmak jelentkeznek
Az OpenAI, amely az utóbbi időben olyan alkalmazottak távozásával szembesült, mint a társalapító Ilya Sutskever és a vezető kutató Jan Leike. Az elmozdulások egyúttal finom bírálatként szolgálnak a cég irányára, ahol egyesek szerint a nyereség megszerzése elfedte a biztonságos technológiai bevezetés szükségességét.
Daniel Kokotajlo, egy volt OpenAI alkalmazott kétségbeesését fejezte ki a cég közönyével kapcsolatban az AI-veszélyekkel szemben. Állítása egy közös aggodalmat tükrözött, miszerint a cég a sietős fejlesztésre összpontosít, ami ellentétes a ilyen erős és bonyolult technológiához szükséges óvatos előrelépéssel.
Ezen aggodalmak ellenére Liz Bourgeois, az OpenAI szóvivője elismerte a kritikus szükségét a vita erősítésének az AI fejlesztése során.
AI-munkások a kijelentő- és etikai alapelvek védelmét szorgalmazzák
Mivel jelenleg hiányzik a kormányzati ellenőrzés, az AI-munkások úgy érzik, hogy ők az egyik kevés csoport, amely követelheti a vállalatok elszámoltathatóságát. A bizalmas megállapodások és elégtelen kijelentővédelmek korlátozzák a képességüket, hogy riaszthassanak.
A levél arra kéri a technológiai vállalatokat, hogy tartsák be a négy elvet, beleértve az ellenőrző jelzésű személyek elleni nemretorziós ígéretet, a kritika és vita kultúrájának elősegítését, folyamatokat az anonim aggodalomkifejezéshez és azoknak a megállapodásoknak az elutasítását, amelyek gátolják a kockázatok megvitatását.
Ezen kérések az OpenAI-n belüli belső problémák közepette érkeznek, amelyek a vezérigazgató Sam Altman rövid távú elmozdításához vezettek, amit a vállalat biztonsági gyakorlataival kapcsolatos rossz kommunikáció még tovább fokozott.
AI-kiválóságok, mint Yoshua Bengio, Geoffrey Hinton, és a számítástudományi szakember Stuart Russell támogatták a tennivalóra való felszólítást, ezzel aláhúzva a helyzet súlyosságát.
Kulcsfontosságú kérdések és válaszok
1. Miért sürgetik az AI-szakértők a technológiai vállalatokat az átláthatóság és az elszámoltathatóság felvállalására?
Az AI-szakértők az átláthatóság és az elszámoltathatóság sürgetését az AI-technológia potenciális kockázatai miatt kérik, amelyek magukban foglalják az egyenlőtlenség súlyosbítását, a félrevezető információk terjesztését és annak a lehetőségét, hogy az AI-rendszerek önálló módon működjenek, életveszélyes következményekkel. Úgy vélik, hogy ezek nélkül az intézkedések nélkül az innováció és a nyereség iránti törekvés elnyomhatja a biztonság és az etikai szempontok fontosságát.
2. Mely négy elvet kérnek az AI-munkások a technológiai vállalatoktól, hogy betartsanak?
– Egy nem-visszavágási ígéret a kijelentők ellen.
– Olyan kultúra elősegítése, ami bátorítja a kritikát és a vitát.
– Folyamatok biztosítása az aggodalmak névtelen kifejezésére.
– A kockázatok megvitatását gátló megállapodások elvetése.
3. Mi okoz belső feszültséget az OpenAI-nál?
Az OpenAI-n belül belső feszültség keletkezett azon érzékelése miatt, hogy a gyors fejlesztés és a nyereség érdekében fennálló hangsúly túltette magát a biztonságos és etikai megfontolásokon, ami alkalmazottak sorozatának távozásához vezetett, és vizsgálatot indított a cég irányultsága felől is.
Kulcsfontosságú kihívások vagy viták
– Mérnöködés és biztonság egyensúlya: A vállalatok gyakran néznek szembe azzal a kihívással, hogy a gyors előrejutást és a szigorú biztonsági és etikai normák fenntartását összeegyeztessék.
– Átláthatatlan AI-rendszerek: Az AI-rendszerek bonyolultsága vezethet ahhoz, hogy ne legyen megértésük vagy átláthatóságuk arról, hogyan hoznak döntéseket, ami megnehezíti az ellenőrzést.
– Kijelentővédelmi intézkedések: Azoknak a védelme nem megfelelő, akik aggályokat vetítenek fel, eltántoríthatja az egyéneket a nemetikus gyakorlatok elleni fellépéstől.
– Visszaélés lehetősége: Az AI-technológiát káros célokra ki lehet használni, amely hangsúlyozza a szigorú elszámoltathatóság szükségességét.
Előnyök és hátrányok
Előnyök:
– Javított biztonság: A transzparencia és elszámoltathatóság hangsúlyozása biztonságosabb AI-rendszerekhez vezethet.
– Etikus fejlesztés: A felelős gyakorlatok biztosítják, hogy az AI-technológia összhangban álljon a társadalmi értékekkel és etikával.
– Felhasználói bizalom: A transzparencia növelheti a közönség bizalmát az AI-technológiák és vállalatok iránt.
Hátrányok:
– Lassabb innováció: A fokozott ellenőrzés késleltetheti az új technológiák piacra dobását.
– Költségek: A szigorú ellenőrzési mechanizmusok bevezetése erőforrásigényes lehet a vállalatok számára.
További információkért az AI-val és az ehhez kapcsolódó irányelvekkel kapcsolatban, kérem, olvassa el az alábbi linkeket:
– OpenAI
– Anthropic
– DeepMind
Kérjük, vegye figyelembe, hogy ezek a linkek az említett szervezetek fő domainjeire kell, hogy irányítsanak. Segítségül szolgálnak több információ megszerzéséhez az alapelveikről és az AI-technológiákról, valamint mindegyik linket ellenőrizték annak érdekében, hogy az utolsó ismert frissítés óta érvényes legyen.
The source of the article is from the blog myshopsguide.com