Volt OpenAI munkatársaiból álló konzorcium és névtelen munkavállalók egy nyílt levelet tettek közzé, amelyben felhívják a figyelmet aggodalmaikra az mesterséges intelligencia (MI) rendszerek gyors fejlődése miatt. Arra az álláspontra helyezkednek, hogy a kereskedelmi haszonért folytatott törekvések megelőzik a biztonsági és etikai fejlesztések figyelembevételét. A levél aláírói kifejezik szorongásaikat a cég titokzatosságával kapcsolatban, amely magában foglalja az olyan korlátozó egyezményeket, amelyek büntetik a volt alkalmazottakat pénzügyileg, ha az OpenAI-vel kapcsolatos bármely nyilvános kritikával élnek.
Daniel Kokotajlo, egy korábbi OpenAI Gondnoksági csapatának tagja, feladta az esetleges 1,6 millió eurót érő részvényopcióit, azáltal, hogy lehetőséget kapott az aggályainak szabad megosztására, az anyagi érdek megőrzése helyett a cégben. Döntése hangsúlyozza ezeknek az egyéneknek a nagy értékét, amelyet az MI fejlesztésével kapcsolatos nyílt párbeszédnek tulajdonítanak, a pénzügyi érdekek helyett.
Hasonlóan William Saunders fejezte ki aggodalmát, azaz az egyének nyilvános kritikájának anyagi következményeiről beszélt, utalva arra, hogy a párbeszéd az MI pályája vonzóbb, mint egy jövedelmező részvényportfólió. Az általuk közzétett „A Haladó MI Megriasztásának Joga” című levél támogatást élvez olyan elismert MI kutatóktól, mint a Turing-díjas Geoffrey Hinton és Yoshua Bengio. Ezenkívül jelenlegi és volt Google DeepMind alkalmazottak is az iromány érzéseivel azonosulnak.
Az elégedetlenség az OpenAI veteránjai körében az intern feszültség klímájában jelenik meg, olyan jelentős távozatokkal, mint Ilya Sutskever társ-alapító vagy a kutató Jan Leike, akik májusban távoztak azért kritizálva a cég az „izgalmas termékek” felé való törekvését. A közelmúltban Leopold Aschenbrenner kirúgásának nyilvánosságra kerülése, miután kutatási dokumentumokat osztott meg az MI biztonságáról, tovább növeli a feszültséget. Aschenbrenner, a Columbia Egyetem kitüntetettje, jelenleg egy befektetési alapot vezet, amely általános MI projektekre fókuszál, miután részletes elemzést tett közzé az elkövetkező évtized MI kockázatairól.
Fontos Kérdések és Válaszok:
1. Miért fogalmaznak aggályokat az volt OpenAI alkalmazottak?
Az volt OpenAI alkalmazottak azért fogalmaznak aggályokat, mert úgy tartják, hogy a kereskedelmi sikerért folytatott versenyfelügyelés magasabb prioritást élvez a biztonsági és etikai kérdések figyelembevételénél az MI fejlesztésnél. Aggodalmuk van a szervezet titoktartását és a kritikus kérdések nyilvános megbeszélését akadályozó korlátozó megállapodások miatt.
2. Mit tett Daniel Kokotajlo?
Daniel Kokotajlo, az OpenAI Gondnoksági csapatának volt tagja, lemondott részvényopcióiról, amelyek értéke körülbelül 1,6 millió euró volt, hogy szabadon kifejezhesse MI fejlesztéssel kapcsolatos aggodalmait, azért, hogy prioritásként kezeltse a nyílt megbeszéléseket a személyes pénzügyi haszon helyett.
3. Mire szólít fel az nyílt levél?
Az nyílt levél az haladó MI potenciális veszélyeiről történő figyelmeztetés joga mellett szól, rámutatva az örvendetes jelentőségére az MI területén a nyílt megbeszélés és átláthatóság. Az elismert MI kutatók támogatását élvezi és egybeesik a néhány Google DeepMind alkalmazott aggodalmaival.
Kulcskérdések és viták:
– Biztosítani az MI fejlesztésének biztonságát és etikáját a kereskedelmi érdekek kiegyensúlyozásával.
– Kezelni a titoktartás kultúráját és a titkos nem hozzájárulási megállapodásokat, amelyek akadályozhatják az intézkedést vagy fontos biztonsági információk megosztását.
– Kezelni a nyilvános bizalmat az MI technológiában és azokban a vállalatokban, amelyek részt vesznek a fejlesztésben.
– Az MI fejlesztés összhangba hozása a társadalmi értékekkel és az hosszú távú emberi jólétével.
Nyilvános MI fejlesztés előnyei:
– Biztonságosabb és etikusabb MI rendszerek kialakításához vezethet.
– Ösztönözheti a nyilvánosság bizalmát az MI technológiákba és azon vállalkozásokba, amelyek azokat fejlesztik.
– További együttműködést és tudásmegosztást ösztönözhet az MI kutatók között.
Nyilvános MI fejlesztés hátrányai:
– Növelheti a fejlesztési folyamat lassulását a növekvő ellenőrzés és szabályozás miatt.
– Potenciálisan kiszivároghatnak versenyinformációk, kárt okozva egy cég piaci pozíciójában.
– Lehetőséget teremthet az MI technológia félreértelmezésére, ami igazságtalan félelmekhez vagy ellenérzésekhez vezethet.
A témával kapcsolatosan tájékozódhat az egyes szervezetek és kutatók hivatalos oldalain, akik részt vesznek az etikai MI vitákban:
– OpenAI
– Google DeepMind
– Az AI etikáról kutatók, mint Geoffrey Hinton és Yoshua Bengio gyakran rendelkeznek egyetemi oldalakkal vagy személyes weboldalakkal, amelyek betekintést nyújthatnak aktuális véleményeikbe és kutatási irányaikba az MI területén.
Kérjük, győződjön meg róla, hogy ezek az url linkek a fő domainre mutatnak, és nem az alkönyvtárakra, hogy megbízható források legyenek az MI fejlesztésével és az azt körülvevő etikai aggályokkal kapcsolatban.