Aasta AI potentsiaali avamine: Uus lähenemine turvalisuse tagamiseks

Revolutionaarse sammuna on Ühendkuningriigis asuv uurimis- ja arendusüksus paljastanud uuendusliku visiooni “kvantitatiivsetest turvalisuse tagatistest” kunstliku intellekti (AI) valdkonnas. Täiustatud uuringute ja leiutiste agentuur (ARIA) sillutab teed kõrgetele ohutusstandarditele AI-s, tõmmates paralleele rangelt ohutusmeetmetega tuumaelektrijaamades ja reisilennunduses.

ARIA plaani südames on rakenduslik “väravahoidja” AI süsteem. See digitaalne valvepost tagab, et teised AI agendid toimiksid etteantud piirides konkreetsete rakenduste jaoks. Arendades seda väravahoidja AI-d, soovib ARIA anda tõenäosusliku garantiiga, et AI tegevustest ei saa kahju tekkida.

ARIA on eraldanud projekti jaoks 59 miljonit naela eesmärgiga näidata skaalatõestuse kontseptsioon määratletud domeenis. Potentsiaalsed rakendused ulatuvad elektrivõrgu tasakaalustamisest tarneahela haldamiseni, eesmärgiga tagada kõrgete panustega AI rakenduste nagu kriitilise infrastruktuuri parandamine või kliiniliste uuringute optimeerimine.

Selle revolutsioonilise algatuse ajendajaks on David ’davidad’ Dalrymple, populaarse krüptoraha Filecoin kaasautor. Dalrymple’i ulatuslik uurimistöö tehnilises AI ohutuses motiveeris teda uurima väravahoidja lähenemist. Nüüd, olles ARIA programmi direktor, on tal võimalus muuta oma teooriad käegakatsutavateks lahendusteks.

Väravahoidja garantii:
ARIA poolt välja töötatud väravahoidjad tuginevad teaduslikele maailmamudelitele ja matemaatilistele tõenditele, et tagada turvalisus. Dalrymple rõhutab, et see lähenemine ühendab nii äri- kui ka akadeemilised kontseptsioonid. Erinevalt suurte AI ettevõtete kasutatavatest olemasolevatest meetoditest, mis tuginevad lõplikele valimitele ilma tagatisteta, segab ARIA väravahoidja lähenemine piirikapatsiteete matemaatilise mõtlemisega.

Selle ühendamise saavutamiseks on vaja sügavat interdistsiplinaarset koostööd ja siin saab ARIA rollist määrava tähtsuse. Möödunud aastal asutatud ARIA rahastab “kõrge riskiga, suure tasuvusega” uuringuid ja on tõmmatud paralleele DARPA-ga, kuulsust kogunud Pentagoni uurimisüksusega, mida tuntakse piire nihutavate projektide poolest.

Dalrymple tõmbab paralleele ARIA uue projekti ja DARPA HACMS programmi vahel, mis lõi edukalt läbi ametliku kontrolliga häkitamatu kvadrokopteri. Samasuguste põhimõtete rakendamisega püüab Dalrymple’i plaan täita „kvantitatiivsete turvalisuse tagatiste“ lubadust. Märgatavalt on tuntud arvutiteadlane Yoshua Bengio avaldanud pettumust selle piirkonna puuduse osas, muutes Dalrymple’i algatuse võimaliku mängumuutjaks.

Kuigi ARIA eelarvet on poliitikute poolt kritiseeritud, kus mõned seadusandjad küsivad selle suuruse kohta võrreldes teiste valitsuse uurimisasutustega, saab agentuur näidata võimalikke kulude kokkuhoiuvõimalusi. Näiteks on üks selle hiljuti käivitatud programm, mille eesmärk on koolitada AI süsteeme vaid 0,1% praegusest maksumusest.

Järgmise TNW konverentsi keskmes on teema „RenAIssance: AI-ga varustatud taassünd“, see revolutsiooniline lähenemine AI ohutusele sütitab kahtlemata edasisi arutelusid. Väravahoidja süsteemi rakendamise ja kvantitatiivsete turvalisuse tagatiste rõhuasetusega võivad ARIA ja selle visiooniline juht David Dalrymple avada uusi piire AI-s, tagades selle muunduva tehnoloogia turvalise ja vastutustundliku kasutuse.

KKK

Mis on väravahoidja lähenemine AI ohutusele?
Väravahoidja lähenemine AI ohutusele hõlmab digitaalse valveposti rakendamist, mis reguleerib ja tagab teiste AI agentide turvalise toimimise määratletud piirides konkreetsetel rakendustel. Selle eesmärk on pakkuda tõenäosuslikke garantiisid, et AI tegevustest ei teki kahju.

Kuidas kavatseb ARIA saavutada kvantitatiivseid turvalisuse tagatisi AI-s?
ARIA eesmärk on saavutada kvantitatiivsed turvalisuse tagatised AI-s, arendades väravahoidja AI süsteeme. Need väravahoidjad tuginevad teaduslikele maailmamudelitele ja matemaatilistele tõenditele turvalisuse tagamiseks. Segades piirikapatsiteete matemaatilise mõtlemisega, loodab ARIA luua tugeva raamistiku turvaliseks AI kasutuselevõtuks.

Millised on ARIA väravahoidja lähenemise potentsiaalsed rakendused?
Mõned ARIA väravahoidja lähenemise potentsiaalsed rakendused hõlmavad kriitilise infrastruktuuri parandamist, kliiniliste uuringute optimeerimist, elektrivõrgu tasakaalustamist ja tarneahela haldamist. Kõrgete panustega AI rakendusi turvistades loodab ARIA suurendada nende rakenduste ohutust ja tõhusust.

Kuidas erineb ARIA lähenemine olemasolevatest meetoditest, mida kasutavad suured AI ettevõtted?
Erinevalt olemasolevatest meetoditest, mida kasutavad suured AI ettevõtted, mis tuginevad lõplikele valimitele ilma tagatisteta, ühendab ARIA väravahoidja lähenemine piirikapatsiteete matemaatilise mõtlemisega. See ühendus võimaldab nii kiirust kui ka turvalisust, pakkudes AI kasutuselevõtuks põhjalikumat lähenemist.

Mis on DARPA ja miks on ARIAt võrreldud selle organisatsiooniga?
DARPA tähistab Kaitse Täiustatud Uurimisprojektide Agentuuri, uurimisüksust Pentagonis, mis on tuntud oma läbimurdeprojektide ja kõrge riskiga projektide poolest. ARIA on võrreldud DARPA-ga oma keskenduse tõttu “kõrge riskiga, suure tasuvusega” uuringutele ja oma ambitsiooniga suruda tehnilise innovatsiooni piire, nagu DARPA.

Allikad:
– TNW (https://tnw.com)

Lisaks artiklis esitatud teabele, siin on mõned täiendavad detailid tööstuse, turu prognooside ja probleemide kohta seotud AI tööstusega:

AI tööstus kogeb kiiret kasvu ja eeldatakse, et see jätkub ka tulevikus. Grand View Researchi aruande kohaselt oli globaalne AI turu suurus 2019. aastal 39,9 miljardit dollarit ja prognoositakse, et see jõuab 2027. aastaks 733,7 miljardi dollarini, CAGR-iga 42,2% prognoosiperioodi jooksul. Seda kasvu toetab AI kasutamise suurenemine erinevates sektorites, nagu tervishoid, finants, jaemüük ja tootmine.

Üheks AI tööstuse väljakutseks on vajadus tugevate ohutusmeetmete järele. Kuna AI süsteemid muutuvad järjest täpsemaks ja autonoomsemaks, muutub nende turvalise ja vastutustundliku kasutuselevõtu tagamine oluliseks. Probleemid nagu erapoolikus AI algoritmides, läbipaistvuse puudumine ja võimalikud riskid seotud AI otsustusprotsessidega on tõstatanud murekohti teadlaste, poliitikakujundajate ja üldsuse hulgas.

Teine väljakutse on standardiseeritud eeskirjade ja juhiste puudumine AI jaoks. Koos AI tehnoloogiate kiire arengu ja kasutuselevõtuga on vaja selgeid eetilisi ja õiguslikke raamistikke, et tagada AI vastutustundlik ja õiglane kasutamine. Valitsused ja reguleerivad asutused töötavad välja juhiseid ja poliitikaid nende murede lahendamiseks, kuid on veel pikk tee minna.

Ettevõtted AI tööstuses investeerivad raskelt uurimis- ja arendustegevusse AI ohutuse parandamiseks ja eespool nimetatud väljakutsetega tegelemiseks. Toimuvad koostöised jõupingutused akadeemia, tööstuse ja valitsusorganisatsioonide vahel interdistsiplinaarse uurimise ja innovatsiooni edendamiseks AI ohutuses.

Lisainfo saamiseks AI tööstuse, turuprognooside kohta…

The source of the article is from the blog jomfruland.net

Privacy policy
Contact