Jungtinės Valstijos žvalgybos agentūros skiriasi dėmesį AI saugumui užtikrinti

Jungtinės Valstijos žvalgybos agentūros su susidūrimu, kuriamas saugus dirbti su dirbtinio intelekto (AI) potencialas. Nacionalinio žvalgybos direktoriaus biuras bendradarbiauja su įmonėmis ir kolegijomis, kad sugriebtų sparčiai besivystančios AI technologijos galimybes, siekdamas gauti pranašumą prieš globalius konkurentus, tokius kaip Kinija. Tačiau svarbiausia yra užtikrinti, kad AI nenukentėtų nacionaliniai paslapčių saugumai arba būtų sukurti netikri duomenys.

Žvalgybos bendruomenė pripažįsta, kad naudos gaunamos iš didelių kalbos modelių, tokio kaip OpenAI’s ChatGPT, kurie gali teikti išsamią atsakymą vartotojo užklausoms ir klausimams. Gebėjimas apdoroti didžiulius informacijos kiekius yra labai vertingas, tačiau lieka abejonių dėl šių modelių patikimumo. JAV karinės ir žvalgybos agentūros yra nusistatę pasinaudoti AI potencialu, norėdamos konkuruoti su Kinija, kuri siekia tapti pasaulio lydere šioje srityje.

AI taip pat turi potencialą labai padidinti produktyvumą analizuojant didelius turinio kiekius ir nustatant raštingas žmogui neregimas ryšius. Centrinės žvalgybos agentūros (CIA) technologijų direktorius Nand Mulchandani mano, kad AI gali padėti padidinti žmogaus gebėjimus ir įveikti Kinijos pranašumą žvalgybos darbuotojų užimtume.

Tačiau AI pažeidžiamumas dėl vidaus ir išorės grasinimų kelia rimtus pavojus. AI modeliai gali būti apgauti ir atskleisti klasifikuotą informaciją arba juos manipuliuoti, siekiant gauti neautorizuotą žmogaus informaciją. Norint spręsti šiuos klausimus, Pramoninio ūkio pažangos tyrimų veikla pradėjo „Bengal” programą, kuri koncentruojasi į potencialių AI iškraipymų ir kenksmingų rezultatų šalinimą. Norint išvengti „halucinacijų”, kurios AI sukurtos informacijos nesąžiningai arba teikia neteisingus rezultatus, įgyvendinamos priemonės siekia sumažinti įžūlumą ir išsiskiriančius AI gaminamus rezultatus.

Jungtinių Valstijų žvalgybos agentūros naudojimas AI skatinamas dėl jo sugebėjimo išskirti reikšmingą informaciją iš triukšmo ir kūrybingo problemų naujovumo. Tačiau jo saugumas ir patikimumas yra pagrindiniai. Dėl vis didesnių AI modelių paplitimo būtina juos mokyti be iškraipymų ir apsisaugoti nuo apsinuodijusių modelių.

Varžybose siekiant pasinaudoti AI galimybėmis, žvalgybos agentūros aktyviai ieško inovatyvių sprendimų, tuo pačiu būdamos budrios dėl galimų rizikų ir pažeidžiamumo.

DUKI:

1. Kokia yra Jungtinių Valstijų žvalgybos agentūrų vaidmuo, susijęs su dirbtiniu intelektu (AI)?
– Jungtinių Valstijų žvalgybos agentūros imasi AI technologijos, norėdamos įgauti konkurencinį pranašumą prieš globalius konkurentus, tokius kaip Kinija. Jos bendradarbiauja su įmonėmis ir kolegijomis, kad pasinaudotų AI galimybėmis ir ištirtų jo potencialą įvairiose srityse.

2. Kokia yra pagrindinė susirūpinimas žvalgybos bendruomenėje dėl AI?
– Pagrindinis susirūpinimas yra užtikrinti AI saugumą ir patikimumą, kad būtų išvengta nacionalinių paslapčių pažeidimo arba netikrų duomenų generavimo.

3. Kas yra dideli kalbos modeliai ir kodėl jie vertingi žvalgybos agentūroms?
– Dideli kalbos modeliai, toki kaip OpenAI’s ChatGPT, yra AI modeliai, kurie gali teikti išsamius atsakymus į vartotojo užklausas ir klausimus. Jie yra vertingi, nes jie gali apdoroti didžiules informacijos masas, leidžiant žvalgybos agentūroms išgauti prasmingus įžvalgas.

4. Kokia yra Kinijos padėtis AI srityje?
– Kinija yra globalus konkurentas, kuris siekia tapti AI srityje lydere. Jungtinės Valstijos žvalgybos agentūroms siekiant konkuruoti su Kinija ir išlaikyti pranašumą, reikalingas AI panaudojimas.

5. Kaip AI gali padidinti žvalgybos agentūrų produktyvumą?
– AI gali analizuoti didelius turinio kiekius ir nustatyti ryšius, kuriuos gali nepastebėti žmonės, taip didinant žvalgybos operacijų produktyvumą.

6. Kokios yra su AI susijusios rizikos žvalgybos bendruomenėje?
– AI modeliai gali būti pažeidžiami vidaus grėsmėms ir išorės kišimuisi, tai sukelia pavojų, tokius kaip klasifikuotos informacijos atskleidimas arba AI manipuliavimas, siekiant gauti neautorizuotą informaciją nuo žmonių.

7. Kaip Intelligence Advanced Research Projects Activity spręsdamas AI iškraipymų ir kenksmingų rezultatų problemas?
– Intelligence Advanced Research Projects Activity įgyvendina „Bengal” programą, kuri siekia mažinti AI iškraipymus ir kenksmingus rezultatus. Programa siekiama sukurti apsaugos priemones nuo „halucinacijų”, kai AI sukuria arba teikia neteisingą informaciją.

8. Kuo svarbu mokyti AI modelius be iškraipymų ir apsisaugoti nuo apnuodijusių modelių?
– Kadangi AI modeliai tampa vis labiau paplitę, labai svarbu juos mokyti be iškraipymų, užtikrinant sąžiningumą ir vengiant diskriminacijos. Apsisaugojimas nuo apnuodijusių modelių būtinas, siekiant išvengti kenksmingų veikėjų manipuliacijų AI veikimo metu.

Apibrėžimai:

– Dirbtinis intelektas (AI): Žmonių mąstymą ir mokymąsi atkarpantysis inteligentinių mašinų simuliacija.
– Dideli kalbos modeliai: AI modeliai, kurie yra mokomi pagal didžiulius teksto duomenis ir gali generuoti išsamius atsakymus vartotojo užklausoms ar klausimams.
– Vidaus grėsmės: Įmonės viduje esantys asmenys, kurie gali išnaudoti leidžiamą prieigą prie sistemų ir informacijos kenksmingiems tikslams.
– Iškraipymai: Sisteminės ir nesąžiningos AI modelio sprendimams ar rezultatams paveikiamos nuopelnos arba prietarai.
– Kenksmingi rezultatai: AI sugeneruoti rezultatai, kurie yra kenksmingi, įžeidūs arba pasenę turiniu.

Susiję nuorodos:
– Nacionalinio žvalgybos direktoriaus biuras
– OpenAI
– Centrinė žvalgybos agentūra
– Pramoninio ūkio pažangos tyrimų veikla

The source of the article is from the blog radardovalemg.com

Privacy policy
Contact