Cím

Az AI lehetőségeinek feloldása: Új megközelítés a biztonság biztosításához

Egy forradalmian új lépéssel az Egyesült Királyságban egy kutatási és fejlesztési egység bemutatott egy innovatív víziót a „kvantitatív biztonsági garanciákhoz” az mesterséges intelligencia (AI) területén. Az Advanced Research and Invention Agency (ARIA) irányt mutat a magas biztonsági sztenderdek felé az AI területén, párhuzamba állítva a szigorú biztonsági intézkedésekkel a nukleáris energia és az utasrepülés területén.

Az ARIA tervének középpontjában a „kapuvédő” AI rendszer bevezetése áll. Ez a digitális őr biztosítja, hogy más AI ügynökök meghatározott határok között működjenek a konkrét alkalmazásokra. Az ARIA e kapuvédő AI fejlesztésével szándékozik megvalósítani azt a valószínűségi garanciát, hogy az AI műveletekből nem származik kár.

Az ARIA 59 millió fontot kötelezett el a projektbe, azzal a céllal, hogy bemutasson egy skálázható proof-of-concept-et egy meghatározott területen. A potenciális alkalmazások az áramhálózat egyensúlyozásától a ellátási lánc menedzsmentig terjednek, a végső cél pedig a kritikus infrastruktúra fejlesztésének vagy az orvosi kísérletek optimalizálásának biztosítása.

Ennek a forradalmian új kezdeményezésnek a megálmodója David ‘davidad’ Dalrymple, a népszerű kriptovaluta, a Filecoin közös feltalálója. Dalrymple részletes kutatásai a műszaki AI biztonság területén motiválták őt az őr megközelítés felfedezésére. Most, mint az ARIA programigazgatója, lehetősége nyílik megvalósítani elméleteit konkrét megoldásokra.

Az őr garanciája:
Az ARIA által fejlesztett őrök tudományos világmodelleken és matematikai bizonyítékokon alapulnak a biztonság garantálása érdekében. Dalrymple hangsúlyozza, hogy ez a megközelítés ötvözi a kereskedelmi és az akadémiai fogalmakat. Szemben a nagy AI vállalatok által alkalmazott jelenlegi módszerekkel, amelyek véges mintákon alapulnak biztosítékok nélkül, az ARIA kapuvédő megközelítése ötvözi a határvonalas képességeket a matematikai érveléssel.

Ennek az összefonásnak mély interdiszciplináris együttműködést igényel, és itt válik kulcsfontosságúvá az ARIA szerepe. Az ARIA tavaly alakult és „magas kockázatot, magas jutalmat” finanszírozó kutatásokra összpontosít, és párhuzamot vonhatunk az ismert Pentagon-kutatási egység, a DARPA között.

Dalrymple párhuzamot von ARIA új projektje és a DARPA HACMS programja között, amely sikeresen hozott létre egy feltörhetetlen quadcoptert formális ellenőrzéssel. Hasonló elvek alkalmazásával Dalrymple tervének célja a „kvantitatív biztonsági garanciák” ígéretének teljesítése. Különösen a neves számítástudós, Yoshua Bengio csalódottságát fejezte ki a területen történt haladás hiánya miatt, ami Dalrymple kezdeményezését potenciális korzózássá teszi.

Bár az ARIA büdzséje kritikák célpontjává vált a politikusok részéről, néhány törvényhozó kétségbe vonva azt a méretét más kormányzati kutatóintézetekhez viszonyítva, az ügynökség potenciális költségmegtakarításokat tud felmutatni. Egyik nemrég elindított programja például arra törekszik, hogy az AI rendszerek képzését mindössze az aktuális költség 0,1%-ával végezze el.

Ahogy a közelgő TNW Konferencia a „Ren-AI-ssance: Az AI által hajtott újjászületés” témája köré szerveződik, ez a forradalmian új megközelítés az AI biztonságához kétségkívül további vitákat fog kiváltani. Az őr rendszer bevezetésével és a kvantitatív biztonsági garanciákra összpontosítva az ARIA és az előrelátó vezetője, David Dalrymple potenciált hordoz az AI új határainak feloldására, biztosítva a transzformációs technológia biztonságos és felelős bevezetését.

Gyakran Ismételt Kérdések:

Mi az őr megközelítés az AI biztonságában?
Az őr megközelítés az AI biztonságában azt jelenti, hogy egy digitális őr bevezetésével szabályozza és biztosítja más AI ügynökök biztonságos működését meghatározott határok között konkrét alkalmazásokra. Célja, hogy valószínűségi garanciát nyújtson arra, hogy az AI műveletekből ne származzon kár.

Hogyan tervezi az ARIA a kvantitatív biztonsági garanciák elérését az AI területen?
Az ARIA célja a kvantitatív biztonsági garanciák elérése az AI területen az átjáró őr AI rendszerek fejlesztésével. Ezek az őrök tudományos világmodelleken és matematikai bizonyítékokon alapulnak a biztonság garantálása érdekében. Az ARIA azt reméli, hogy a határvonalas képességek ötvözésével a matematikai érveléssel egy erős keretrendszert hoz létre az AI biztonságos bevezetéséhez.

Milyen potenciális alkalmazásai vannak az ARIA őr megközelítésének?
Az ARIA őr megközelítésének néhány potenciális alkalmazása a kritikus infrastruktúra fejlesztése, az orvosi kísérletek optimalizálása, az áramhálózat egyensúlyozása és a ellátási lánc menedzsment. A magas kockázatú AI implementációk védelmével az ARIA célja, hogy növelje ezeknek az alkalmazásoknak a biztonságát és hatékonyságát.

Hogyan különbözik az ARIA megközelítése a nagy AI cégek által alkalmazott jelenlegi módszerektől?
A nagy AI cégek által alkalmazott jelenlegi módszerekkel ellentétben, amelyek véges mintákon alapulnak biztosítékok nélkül, az ARIA őr megközelítése ötvözi a határvonalas képességeket a matematikai érveléssel. Ez az összefonás lehetőséget biztosít a sebességre és a biztonságra, egy átfogóbb megközelítést nyújtva az AI bevezetéséhez.

Mi az a DARPA, és miért hasonlítják az ARIÁ-hoz?
A DARPA a Védelmi Haladó Kutatási Projektek Ügynökségét jelenti, egy kutatóegység a Pentagonon belül, amelyet nagy határvonalas és magas kockázatú projektekéről ismertek. Az ARIA-t az ARIÁ-hoz hasonlították a „magas kockázatú, magas jutalom” kutatásokra összpontosítva, és ambícióját arra, hogy a technológiai innováció határait tolja, éppúgy, mint a DARPA.

Források:
– TNW (https://tnw.com)

Az AI iparág gyors növekedésen van átesve, és várhatóan tovább fog bővülni a következő években. Egy Grand View Research jelentés szerint a globális AI piac mérete 2019-ben 39,9 milliárd USD volt, és 2027-ig várhatóan el fog érni az 733,7 milliárd USD-t, 42,2%-os CAGR mellett a prognózis időszakban. Ennek a növekedésnek a hajtóereje az AI egyre szélesebb körű alkalmazása a különböző szektorokban, mint az egészségügy, pénzügy, kiskereskedelem és gyártás.

Az AI iparág egyik kihívása a robust biztonsági intézkedésekre való szükség. Ahogy az AI rendszerek egyre fejlettebbé és autonómabbá válnak, annál fontosabbá válik azok biztonságos és felelős bevezetése. Az olyan problémák, mint az AI algoritmusok előítélete, átláthatatlanság hiánya és potenciális kockázatok az AI döntéshozatalával kapcsolatban, aggodalmakat váltottak ki a kutatók, a döntéshozók és a nagyközönség körében.

Egy másik kihívás az AI szakmában az AI-re vonatkozó szabványosított szabályozások és irányelvek hiánya. Az AI technológiák gyors fejlődése és bevezetése mellett szükség van világos etikai és jogi keretrendszerek kidolgozására annak érdekében, hogy biztosítsuk az AI felelős és tisztességes felhasználását. A kormányok és a szabályozó szervek azon dolgoznak, hogy irányelveket és politikákat fejlesszenek ki ezeknek az aggályoknak az kezelésére, azonban még hosszú út áll előttük.

Az AI iparágban működő cégek jelentős összegeket fektetnek kutatásba és fejlesztésbe az AI biztonságának javítása érdekében, valamint a fent említett kihívások kezelésére. Az iparágban az egyetemi, ipari és kormányzati szervezetek közötti együttműködő erőfeszítések történnek az interdiszciplináris kutatás és innováció ösztönzése érdekében az AI biztonságában.

További információk az AI iparágáról, piaci előrejelzésekről…

The source of the article is from the blog radiohotmusic.it

Privacy policy
Contact