Ny tilgang til AI-sikkerhed: Bygger bro mellem innovation og tryghed

I en nyskabende bevægelse har et forsknings- og udviklingsafdeling i Storbritannien afsløret en innovativ vision for “kvantitative sikkerhedsgarantier” inden for kunstig intelligens (AI). Det Advanced Research and Invention Agency (ARIA) baner vejen for høje sikkerhedsstandarder inden for AI, mens de trækker parallel til de strenge sikkerhedsforanstaltninger i atomkraft og passagerflyvning.

I hjertet af ARIA’s plan er implementeringen af et “vogter” AI-system. Denne digitale vogter vil fungere som en sikring og sikre, at andre AI-agenter opererer inden for foruddefinerede grænser for specifikke anvendelser. Ved at udvikle dette vogter-AI sigter ARIA mod at indprente en probabilistisk garanti for, at ingen skade vil resultere fra AI-handlinger.

ARIA har afsat £59 millioner til projektet med målet om at demonstrere et skalerbart konceptbevis på et udpeget område. Potentielle anvendelser spænder fra balancering af elnettet til forsyningskædestyring, med det ultimative mål om at sikre højrisiko AI-implementeringer såsom forbedring af kritisk infrastruktur eller optimering af kliniske forsøg.

Initiativtageren bag dette banebrydende tiltag er David ‘davidad’ Dalrymple, medopfinder af den populære kryptovaluta Filecoin. Dalrymples omfattende forskning inden for teknisk AI-sikkerhed motiverede ham til at udforske vogtertilgangen. Nu, som programdirektør for ARIA, får han muligheden for at omsætte sine teorier til håndgribelige løsninger.

Vogtergarantien:
Vogterne udviklet af ARIA vil stole på videnskabelige verdensmodeller og matematiske beviser for at sikre sikkerheden. Dalrymple understreger, at denne tilgang kombinerer både kommercielle og akademiske begreber. I modsætning til eksisterende metoder, som store AI-virksomheder anvender, der bygger på endelige prøver uden at give garantier, blander ARIA’s vogtertilgang fremtrædende evner med matematisk resonnering.

For at opnå denne fusion kræves der dyb tværfagligt samarbejde, og det er her, ARIA’s rolle bliver afgørende. Etableret sidste år finansierer ARIA “højrisiko, højbelønnings” forskning og er blevet sammenlignet med DARPA, det anerkendte Pentagons forskningsenhed kendt for sine grænseoverskridende projekter.

Dalrymple drager paralleller mellem ARIA’s nye projekt og DARPA’s HACMS-program, der med succes skabte en uindtagelig quadcopter gennem formel verifikation. Ved at anvende lignende principper sigter Dalrymple’s plan mod at levere løftet om “kvantitative sikkerhedsgarantier”. Bemærkelsesværdigt har den anerkendte datalog Yoshua Bengio givet udtryk for skuffelse over manglen på fremskridt på dette område, hvilket gør Dalrymples initiativ til en potentiel spilændrer.

Mens ARIA’s budget har været genstand for kritik fra politikere, hvor nogle lovgivere har sat spørgsmålstegn ved dets størrelse i forhold til andre statslige forskningsorganer, kan agenturet fremvise potentielle omkostningsbesparelser. Et af deres nyligt lancerede programmer sigter f.eks. mod at træne AI-systemer til kun 0,1% af den nuværende omkostning.

Som den forestående TNW-konference drejer sig om temaet “Ren-AI-ssance: Den AI-drevne genfødsel,” vil denne banebrydende tilgang til AI-sikkerhed utvivlsomt fremkalde yderligere diskussioner. Med implementeringen af vogtersystemet og fokus på kvantitative sikkerhedsgarantier har ARIA og dens visionære leder David Dalrymple potentiale til at åbne nye grænser inden for AI og sikre den sikre og ansvarlige implementering af denne transformative teknologi.

FAQ

Hvad er vogtertilgangen inden for AI-sikkerhed?
Vogtertilgangen inden for AI-sikkerhed indebærer implementeringen af en digital vogter, der regulerer og sikrer den sikre drift af andre AI-agenter inden for definerede grænser for specifikke anvendelser. Formålet er at yde probabilistiske garantier for, at ingen skade vil resultere fra AI-handlinger.

Hvordan har ARIA planlagt at opnå kvantitative sikkerhedsgarantier inden for AI?
ARIA sigter mod at opnå kvantitative sikkerhedsgarantier inden for AI gennem udviklingen af vogter-AI-systemer. Disse vogtere vil stole på videnskabelige verdensmodeller og matematiske beviser for at sikre sikkerheden. Ved at blande frontkapaciteter med matematisk resonnering håber ARIA at skabe et robust rammeværk for sikker AI-implementering.

Hvad er de potentielle anvendelser af ARIA’s vogtertilgang?
Nogle potentielle anvendelser af ARIA’s vogtertilgang omfatter forbedring af kritisk infrastruktur, optimering af kliniske forsøg, balancering af elnettet og styring af forsyningskæden. Ved at sikre højrisiko AI-implementeringer sigter ARIA mod at forbedre sikkerheden og effektiviteten af disse applikationer.

Hvordan adskiller ARIA’s tilgang sig fra eksisterende metoder, som store AI-virksomheder bruger?
I modsætning til eksisterende metoder, som store AI-virksomheder anvender, der bygger på endelige prøver uden at give garantier, kombinerer ARIA’s vogtertilgang frontkapaciteter med matematisk resonnering. Denne fusion tillader både hastighed og sikkerhed og giver en mere omfattende tilgang til AI-implementering.

Hvad er DARPA, og hvorfor er ARIA blevet sammenlignet med det?
DARPA står for Defense Advanced Research Projects Agency, en forskningsenhed inden for Pentagon, kendt for sine banebrydende og højrisiko projekter. ARIA er blevet sammenlignet med DARPA på grund af dets fokus på “højrisiko, højbelønnings” forskning og dets ambition om at udfordre grænserne for teknologisk innovation, ligesom DARPA.

Kilder:
– TNW (https://tnw.com)

The source of the article is from the blog kunsthuisoaleer.nl

Privacy policy
Contact