Američke obavještajne agencije usredotočene na osiguranje sigurnosti umjetne inteligencije (UI)

Američke obavještajne agencije prihvaćaju potencijal umjetne inteligencije (UI) dok se istovremeno bore s izazovom osiguravanja njezine sigurnosti. Ured direktora Nacionalne obavještajne službe surađuje s tvrtkama i fakultetima kako bi iskoristio moć brzo napredujuće tehnologije UI, s ciljem stjecanja prednosti nad globalnim konkurentima poput Kine. Međutim, osiguravanje da UI ne kompromitira nacionalne tajne ili generira lažne podatke predstavlja veliku brigu.

Obavještajna zajednica prepoznaje prednosti uporabe velikih jezičnih modela poput ChatGPT-a tvrtke OpenAI, koji mogu pružiti detaljne odgovore na korisničke upite i pitanja. Mogućnost obrade ogromnih količina informacija izuzetno je vrijedna, ali postoje sumnje u pouzdanost tih modela. Američka vojska i obavještajne agencije odlučne su iskoristiti potencijal UI kako bi se natjecale s Kinom, koja je postavila ambiciozan cilj da postane globalni lider u ovom području.

UI također ima potencijal značajno povećati produktivnost analizirajući ogromne količine sadržaja i otkrivajući obrasce koji nisu očiti ljudima. Nand Mulchandani, glavni tehnološki direktor Centralne obavještajne agencije, vjeruje da UI može pomoći povećanju ljudskih sposobnosti i prevladavanju prednosti Kine u obavještajnim zaposlenicima.

Međutim, ranjivost UI na unutarnje prijetnje i vanjsko miješanje predstavlja značajne rizike. UI modeli mogu biti prevareni da otkriju povjerljive informacije ili manipulirani da izvuku neovlaštene informacije od ljudi. Kako bi se riješili ovi problemi, Agencija za napredna istraživanja obavještajne zajednice pokrenula je program „Bengal“, koji se usredotočuje na ublažavanje potencijalnih pristranosti i toksičnih rezultata u UI. Cilj programa “Učinci pristranosti i značajne ograničenja generativne UI” jest razviti zaštitne mehanizme protiv “halucinacija”, gdje UI izmišlja informacije ili isporučuje netočne rezultate.

Upotreba UI od strane američkih obavještajnih agencija potaknuta je sposobnošću razlikovanja značajnih informacija od šuma i kreativnog pristupa rješavanju problema. Međutim, osiguravanje sigurnosti i pouzdanosti UI apsolutno je ključno. S porastom prevalencije UI modela, potrebno ih je obučavati bez pristranosti i zaštititi od otrovnih modela.

U utrci za iskorištavanje mogućnosti UI, obavještajne agencije aktivno istražuju inovativna rješenja, istovremeno pazeći na potencijalne rizike i ranjivosti.

Često postavljana pitanja:

1. Kakvu ulogu imaju američke obavještajne agencije u vezi s umjetnom inteligencijom (UI)?
– Američke obavještajne agencije prihvaćaju tehnologiju UI kako bi stekle konkurentsku prednost u odnosu na globalne suparnike poput Kine. Suradnja s tvrtkama i fakultetima omogućuje im iskorištavanje moći UI i istraživanje njenog potencijala u različitim područjima.

2. Što je glavna briga vezana za UI u obavještajnoj zajednici?
– Glavna briga je osiguravanje sigurnosti UI kako bi se spriječilo kompromitiranje nacionalnih tajni ili generiranje lažnih podataka.

3. Što su veliki jezični modeli i zašto su vrijedni obavještajnim agencijama?
– Veliki jezični modeli, poput ChatGPT-a tvrtke OpenAI, su UI modeli koji mogu pružiti detaljne odgovore na korisničke upite i pitanja. Vrijedni su jer mogu obraditi ogromne količine informacija, omogućujući obavještajnim agencijama izvlačenje smislenih spoznaja.

4. Kakva je pozicija Kine u području UI?
– Kina je globalni konkurent koji je postavio cilj da postane lider u području UI. Američke obavještajne agencije ciljaju iskoristiti UI kako bi se natjecale s Kinom i održale prednost.

5. Kako UI može povećati produktivnost obavještajnih agencija?
– UI može analizirati velike količine sadržaja i otkriti obrasce koji možda nisu očiti ljudima, čime se povećava produktivnost u obavještajnim operacijama.

6. Koji su rizici povezani s UI u obavještajnoj zajednici?
– UI modeli mogu biti ranjivi na unutarnje prijetnje i vanjsko miješanje, što stvara rizike poput otkrivanja povjerljivih informacija ili manipulacije UI radi izvlačenja neovlaštenih informacija od ljudi.

7. Kako Agencija za napredna istraživanja obavještajne zajednice adresira zabrinutosti oko pristranosti i toksičnih rezultata UI?
– Agencija za napredna istraživanja obavještajne zajednice pokrenula je program “Bengal” koji ima za cilj ublažavanje pristranosti i toksičnih rezultata u UI. Program se fokusira na razvoj zaštitnih mehanizama protiv halucinacija, gdje UI izmišlja informacije ili isporučuje netočne rezultate.

8. Zašto je važno obučavati UI modele bez pristranosti i štititi se od otrovnih modela?
– Kako UI modeli postaju sve prisutniji, ključno je obučavati ih bez pristranosti kako bi se osigurala pravednost i izbjegla diskriminacija. Zaštita od otrovnih modela potrebna je kako bi se spriječilo da zlonamjerni pojedinci manipuliraju funkcionalnošću UI.

Definicije:

– Umjetna inteligencija (UI): Simulacija ljudske inteligencije u strojevima koji su programirani da razmišljaju i uče poput ljudi.
– Veliki jezični modeli: UI modeli koji su trenirani na velikim količinama tekstualnih podataka i mogu generirati detaljne odgovore na korisničke upite ili pitanja.
– Unutarnje prijetnje: Osobe unutar organizacije koje mogu zloupotrijebiti svoj ovlašteni pristup sustavima i informacijama u zlonamjerne svrhe.
– Pristranosti: Sustavne i nepravedne preferencije ili predrasude koje mogu utjecati na odluke ili rezultate UI modela.
– Toksični rezultati: Rezultati generirani UI modelom koji sadrže štetan, uvredljiv ili pristran sadržaj.

Povezane poveznice:
– Ured direktora Nacionalne obavještajne službe
– OpenAI
– Centralna obavještajna agencija
– Agencija za napredna istraživanja obavještajne zajednice

The source of the article is from the blog queerfeed.com.br

Privacy policy
Contact