Odomykanie potenciálu umelej inteligencie: Nový prístup k zabezpečeniu bezpečnosti

V revolučnom kroku odhalil výskumný a vývojový oddiel vo Veľkej Británii inovatívnu víziu „kvantitatívnych záruk pre bezpečnosť“ v oblasti umelej inteligencie (AI). Agentúra pre pokročilý výskum a vynálezy (ARIA) otvára cestu k vysokým štandardom bezpečnosti v oblasti umelej inteligencie, pričom paralely ťahuje s prísnu bezpečnostnými opatreniami v jadrovej energetike a cestnej leteckej doprave.

V jadre plánu ARIA je implementácia „opekársky“ AI systém. Tento digitálny strážca bude slúžiť ako ochrana, zabezpečujúca, že ostatné AI agenty budú fungovať v určených hraniciach pre špecifické aplikácie. Vyvíjaním tohto opekarovského AI, si ARIA dáva za cieľ implantovať pravdepodobnú záruku, že z akcií AI nevznikne žiadna škoda.

ARIA sa zaviazala k financovaniu 59 miliónov libier do projektu s cieľom demonštrovať mieriteľný dôkaz koncepčného rozsahu v určenej oblasti. Potenciálne aplikácie sa pohybujú od vyvažovania rozvodnej siete elektriny po riadenie dodávateľského reťazca, s konečným cieľom zabezpečiť vysoko rizikové implementácie AI, ako je zlepšenie kritických infraštruktúr alebo optimalizácia klinických skúšok.

Geniálny mozog za touto revolučnou iniciatívou je David ‚davidad‘ Dalrymple, spoluautor populárnej kryptomeny Filecoin. Dalrympleho rozsiahle výskumy v oblasti technickej bezpečnosti AI ho motivujú preskúmať prístup opekarov. Teraz, ako riaditeľ programu v agentúre ARIA, má príležitosť zmeniť svoje teórie na konkrétne riešenia.

Garancia opekarov:
Opekáre vyvíjané ARIA budú spoľahlivo na vedľajšie svetové modely a matematické dôkazy na zabezpečenie bezpečnosti. Dalrymple zdôrazňuje, že tento prístup kombinuje obchodné aj akademické koncepty. Na rozdiel od existujúcich metód využívaných veľkými AI spoločnosťami, ktoré sa spoliehajú na konečné vzorky bez záruk, prístup opekarov ARIA mieša pohraničné schopnosti s matematickým úsudkom.

Na dosiahnutie tohto zlúčenia je potrebná hlboká medziodborová spolupráca, a tu sa stáva ARIA kľúčovým. Založená minulý rok, ARIA financuje „vysoké riziko, vysoká odmena“ výskum a privádza na scénu porovnania s DARPA, známou pentagónovou výskumnou jednotkou známou svojimi hranicami presahujúcimi projektmi.

Dalrymple ťahuje paralely medzi novým projektom ARIA a programom HACMS DARPA, ktorý úspešne vytvoril nehacknutelný kvadrikoptér pomocou formálnej verifikácie. Aplikovaním podobných princípov sa Dalrympleho plán snaží splniť sľub „kvantitatívnych záruk pre bezpečnosť“. Priznane, renomovaný počítačový vedec Yoshua Bengio vyjadril sklamanie nad nedostatkom pokroku v tejto oblasti, čím sa iniciatíva Dalrympleho môže stať hrou o zmenu.

Zatiaľ čo rozpočet ARIA čelil kritike politikov, s niektorými zákonodarcami kladúcimi otázky týkajúce sa jeho veľkosti v porovnaní s inými vládnymi výskumnými agentúrami, agentúra môže predviesť potenciálne úspory nákladov. Jedna z jej nedávno spustených programov, napríklad, sleduje tréning AI systémov len 0,1% súčasných nákladov.

Ako sa nadchádzajúca konferencia TNW zameriava na tému „Ren-AI-ssance: Oživenie poháňané AI“, tento nový prístup k bezpečnosti AI určite vyvolá ďalšie diskusie. S implementáciou systému opekarov a zameraním sa na kvantitatívne záruky bezpečnosti, ARIA a jej vizionársky líder David Dalrymple majú potenciál odomykať nové hranice v oblasti AI, zabezpečujúc bezpečnú a zodpovednú implementáciu tejto transformačnej technológie.

The source of the article is from the blog publicsectortravel.org.uk

Privacy policy
Contact