A világ technológiai óriásai egyetértenek az AI vészhelyzeti leállítási stratégiájában

A technológiai óriások és a kormányok összefognak az AI biztonsági intézkedések kialakítása érdekében. A tech ipar nagyvállalatai, például a Microsoft, az OpenAI, az Anthropic, és további tizenhárom cég egyetértett egy úttörő politikai keret kidolgozásában. Amennyiben az új AI modellek fejlesztése során egy elfajult helyzet keletkezik, kötelezettséget vállaltak annak megszakítására annak érdekében, hogy megelőzzék potenciális katasztrofális helyzetek kialakulását, olyanokat mint egy valós életben tapasztalható ‘Terminátor’ esemény.

Összehangolt erőfeszítések az AI kockázatok enyhítésére. Ennek az egyezménynek Seulban sikerült megállapodásra jutnia, ahol szervezetek és kormányképviselők gyűltek össze, hogy meghatározzák a mesterséges intelligencia fejlesztéseivel kapcsolatos irányvonalukat. Az egyetértés középpontjában egy „kapcsoló” áll, azaz a kötelezettségvállalás a legújabb, legkorszerűbb AI modellek fejlesztésének beszüntetésére, ha azok elérnék a előre meghatározott kockázati küszöbértékeket.

Hiányzik a konkrét cselekvés és tisztaság. Az egyezmény ellenére jelentős hiányosság van a konkrét cselekvésben vagy az „veszélyes” küszöbérték meghatározásában, amely aktiválja a kapcsolót. Ez felveti a politika érvényesítésének és hatékonyságának kérdését.

A Yahoo Hírek által összegyűjtött jelentések szerint extrém esetek arra késztetik majd a szervezeteket, hogy ne bocsássanak ki új AI modelleket, ha a kontroll intézkedések nem elegendőek. Olyan nagy szereplők, mint az Amazon, a Google és a Samsung is támogatták az kezdeményezést, jelezve ezzel a széles körű iparági egyetértést.

Az AI szakértőkkel folytatott beszélgetések, amint azt az Unboxholics is jelentette, hangsúlyozzák a jelentős kockázatokat, ami ez egységes döntést inspirálta. Ez a lépés tükrözi a neves akadémikus, Geoffrey Hinton jóslatait, aki figyelmeztetett az AI lehetséges képességére, hogy az emberiséget különböző munkaerő-szektorokban váltja fel, jelezve ezáltal egy mély átalakulást a munkaerő dinamikájában.

Fontos aggodalmak és kihívások az AI vészleállási stratégiák körül:

1. A „veszélyes” küszöbértékek meghatározása: Egy kulcsfontosságú kihívás az exact paraméterek megállapítása, melyek meghatározzák, mikor válik egy AI túlságosan kockázatosá fejleszteni. Világos meghatározások nélkül az állomány megállapodás subjektív lehet, és az értelmezésnek alávetve lehet.

2. Érvényesíthetőség: Biztosítani, hogy minden fél betartsa a leállási megállapodást problémás, különösen a globális szabályozó keretek hiánya miatt, különösen az AI számára.

3. Tech

4.

The source of the article is from the blog radardovalemg.com

Privacy policy
Contact