Új Szemléleten keresztül: Az MI Kockázatai és Lényeges Világnézeti Különbségek

Az mesterséges intelligencia (MI) képessége, hogy vagy katasztrófát idézzen elő, vagy „visszafordíthatatlan összeomlást” okozzon, sok vitatott téma volt. De miért mutatnak az elemzők és szuper-előrejelzők ilyen eltérő nézeteket? Egy úttörő tanulmány igyekezett felderíteni ennek a szakadéknak az okait.

A tanulmány, melyet az Előrejelző Kutatóintézet végzett, szakértőket foglalt magában az MI és más létfontosságú kockázatok területéről, valamint „szuper-előrejelzőket” is, akiknek bizonyítottan jó a világesemények pontos megjósolásában. A kutatók mindkét csoportot arra kérték, értékeljék az MI által meghozott veszélyeket.

Érdekes módon az eredmények jelentős különbséget mutattak a két csoport között. A szakértők sokkal magasabb szintű aggodalmat mutattak és lényegesen magasabb valószínűséget tulajdonítottak a katasztrófa lehetőségének, mint amit a szuper-előrejelzők tettek.

Hogy mélyebbre ássanak a meghatározó nézeteltérések okai iránt, a szerzők egy „ellenséges együttműködés” keretében szerveztek meg. Szakértőket és szuper-előrejelzőket kérték fel, hogy hosszú időt töltsenek az új anyagok tanulmásval és vitákban vegyenek részt az ellenkező nézeteket valló személyekkel, moderátor segítségével. A cél az volt, hogy kiderítsék, az új információk és ellenérvek hatással vannak-e bármelyik csoport hitére.

Továbbá, a kutatók arra törekedtek, hogy azonosítsák a lényeges kérdéseket, amelyek esetleg megváltoztathatnák az emberek véleményét. Egyik ilyen kritikus pont a következő kérdés körül forgott: vajon egy MI-értékelő találna-e bizonyítékot arra, hogy az MI képes autonóm módon másolni, erőforrásokat szerezni és kibújni a leállítás előtt 2030-ig. A szkeptikusok azt állították, hogy ennek a kérdésnek pozitív válasz még inkább felerősítené az aggodalmaikat, míg az MI-pesszimisták azt tartották, hogy egy negatív válasz kevésbé tenné őket nyugtalanabbá.

Vezetett ez a közös erőfeszítés az egyezséghez az álláspontokban? A válasz: nem. Mindkét csoport viszonylag változatlan maradt a katasztrófa valószínűségek felmérésében. Az MI-pesszimisták enyhén csökkentették a valószínűségeiket, míg az optimisták minimális emelkedést mutattak. Azonban a tanulmány lenyűgöző bepillantást nyújtott ezeknek a divergens nézetek eredetébe.

A kutatás főként azon nézeteltérések körül összpontosított, amelyek az MI potenciáljára irányultak, hogy vagy az emberiség kihalását vagy társadalom visszafordíthatatlan összeomlását idézzék elő, amikor a globális GDP 1 billió dollár alá esne vagy a globális népesség hosszú időre kevesebb mint 1 millió alá csökkenne. Míg számos más kockázat is társul az MI-hoz, a tanulmány ezekre az extrém, létezésünket veszélyeztető forgatókönyvekre összpontosított.

Érdekes módon, a különböző vélemények nem fakadtak információhoz való hozzáférés vagy ellentétes személyekkel való találkozás változatosságából. Az ellenséges együttműködés magában foglalta az új információk és ellentétes nézetek széles körű megismerését, mégis a résztvevők álláspontjai nagyrészt változatlanok maradtak.

Továbbá a különbségeket nem elsősorban befolyásolta rövid távú előrejelzések az MI fejlesztéséről. A kutatók megfigyelték, hogy a legfontosabb kritikus pont, egy MI-értékelő felfedezése nagyon veszélyes képességekkel 2030 előtt, mindössze kicsiny mértékben csökkentette az optimisták és a pesszimisták közötti átlagos szakadékot.

A tanulmány inkább arra a megállapításra jutott, hogy a különböző nézetek a hosszú távú jövővel kapcsolatos szerepelt a döntő szerepet az álláspontok formálásában. Az optimisták általában úgy vélték, hogy az emberi szintű MI eléréséhez több idő szükséges, mint amire a pesszimisták számítottak. Arra állítottak, hogy a gépi tanulási módszerek alapvető áttörései szükségesek a humán szintű intelligencia eléréséhez, ideértve a robotika fejlesztéseket is. Míg a szoftver alapú MI képes lehet nyelvre másolni, az optimisták azt állították, hogy a gépek számára a humán képességeket igénylő fizikai feladatok komoly kihívást jelentenek.

A tanulmány egyik legérdekesebb megállapítása az volt, hogy a „lényeges világnézeti nézeteltérések” az eltérő nézetek jelentős forrásaként szolgáltak az ütköző véleményekben. Ezek a nézeteltérések arról szólnak, hogy hol húzódik meg a bizonyítás terhe az AI vitában. Habár mindkét csoport egyetértett abban, hogy a rendkívüli állítások komoly bizonyítékokat igényelnek, mégis nem értettek egyet abban, hogy mely állítások tekintendők rendkívülinek. A kutatók rámutattak, hogy az MI azzal kapcsolatos hit, hogy az emberiség kihalásához vezethet, rendkívülinek tűnik, ha figyelembe vesszük az emberiség tartós fennmaradását több százezer év során.

Összefoglalva, a tanulmány fényt derített az MI által jelentett veszélyekről szóló véleménykülönbségek mélyen gyökerező okaira. Kiemelte a létfontosságú világnézeti különbségek, a hosszú távú perspektívák fontosságát és a rendkívüli állítások meghatározásának kihívásait. Habár a tanulmány nem hidalta át az álláspontok közötti szakadékot, mégis értékes bepillantást nyújtott a vitatott tárgy forrásaiba.

GYIK

The source of the article is from the blog lanoticiadigital.com.ar

Privacy policy
Contact