Att Utveckla Potentialen av AI: En Ny Ansats för Att Säkerställa Säkerhet

I en banbrytande åtgärd har en forsknings- och utvecklingsenhet i Storbritannien avslöjat en innovativ vision för ”kvantitativa säkerhetsgarantier” inom området artificiell intelligens (AI). Det avancerade forsknings- och uppfinnarbyrån (ARIA) banar väg för höga säkerhetsstandarder inom AI, och drar paralleller till de rigorösa säkerhetsåtgärderna inom kärnkraft och passagerarflyg.

I hjärtat av ARIAs plan ligger implementeringen av ett ”gatekeeper” AI-system. Denna digitala väktare kommer att fungera som en skyddsräcka och säkerställa att andra AI-agenter verkar inom fördefinierade gränser för specifika tillämpningar. Genom att utveckla denna gatekeeper AI, strävar ARIA efter att inpränta en probabilistisk garanti om att ingen skada kommer att uppstå till följd av AI-handlingar.

ARIA har avsatt 59 miljoner pund till projektet, med målet att demonstrera en skalerbar proof-of-concept inom en given domän. Potentiella tillämpningar sträcker sig från balansering av elnät till hantering av leveranskedjan, med det ultimata målet att säkra höginsatstillämpningar av AI, såsom förbättring av kritisk infrastruktur eller optimering av kliniska prövningar.

Uppfinnaren bakom detta banbrytande initiativ är David ’davidad’ Dalrymple, meduppfinnare till den populära kryptovalutan Filecoin. Dalrymples omfattande forskning inom teknisk AI-säkerhet motiverade honom att utforska gatekeeper-ansatsen. Nu, som programdirektör för ARIA, har han möjlighet att förvandla sina teorier till konkreta lösningar.

Gatekeeper Garanti:
Gatekeepers utvecklade av ARIA kommer att förlita sig på vetenskapliga världsmodeller och matematiska bevis för att säkerställa säkerhet. Dalrymple betonar att denna ansats kombinerar både kommersiella och akademiska koncept. Till skillnad från befintliga metoder som används av stora AI-företag, som förlitar sig på begränsade prov utan att erbjuda garantier, blandar ARIAs gatekeeper-ansats framkantsförmågor med matematiskt resonemang.

För att uppnå denna fusion krävs djup tvärvetenskaplig samverkan, och här blir ARIAs roll avgörande. Etablerad förra året, finansierar ARIA ”högrisk, högavkastning” forskning och har jämförts med DARPA, den berömda forskningsenheten vid Pentagon känd för sina gränspusherande projekt.

Dalrymple drar en parallell mellan ARIAs nya projekt och DARPA’s HACMS-program, som framgångsrikt skapade en oförstörbar quadcopter genom formell verifiering. Genom att tillämpa liknande principer syftar Dalrymples plan att leverera på löftet om ”kvantitativa säkerhetsgarantier.” Inte minst har den berömde datavetenskapsmannen Yoshua Bengio uttryckt besvikelse över bristen på framsteg inom detta område, vilket gör Dalrymples initiativ till en potentiell spelväxlare.

Även om ARIAs budget har granskats av politiker, med vissa lagstiftare som ifrågasätter dess storlek jämfört med andra statliga forskningsorgan, kan byrån visa på potentiella kostnadsbesparingar. Ett av dess nyligen lanserade program syftar till exempel att träna AI-system till endast 0,1% av dagens kostnad.

När den kommande TNW-konferensen fokuserar på temat ”Ren-AI-ssance: Återfödelsen med AI-kraft,” kommer denna banbrytande ansats till AI-säkerhet utan tvekan att väcka vidare diskussioner. Med implementeringen av gatekeeper-systemet och fokus på kvantitativa säkerhetsgarantier, har ARIA och dess visionära ledare David Dalrymple potential att låsa upp nya horisonter inom AI, och säkerställa en säker och ansvarsfull implementering av denna transformerande teknologi.

The source of the article is from the blog trebujena.net

Privacy policy
Contact