Sjedinjene Države jačaju tehnologiju umjetne inteligencije protiv stranih neprijatelja

Poboljšanje sigurnosnih mjera umjetne inteligencije (AI)
Bidenova administracija poduzima proaktivne mjere kako bi zaštitila najnaprednije modele umjetne inteligencije (AI) u Americi od potencijalnih protivnika, poput Kine i Rusije. Ovi planovi uključuju stvaranje barijera koje sprečavaju zloupotrebu AI alata za analizu ogromnih količina tekstova i slika, što bi moglo omogućiti cyber napade ili čak razvoj moćnih bioloških oružja.

Izlazeći izobličene stvarnosti iz AI mogućnosti
AI-alterirani videozapisi, koji miješaju činjenice s izmišljotinama, sve češće prodiru u društvene mreže. Takve manipulacije zamagljuju granice između stvarnosti i fikcije, posebno u polariziranom političkom pejzažu Sjedinjenih Američkih Država. Unatoč postojanju već nekoliko godina, ovaj manipulirani medij dobiva na popularnosti s uvođenjem novih AI alata, što je primjer softwarea Midjourney.

Izvještaji iz ožujka ukazuju da alati za stvaranje slika podržani AI-jem tvrtki poput OpenAI i Microsoft mogu biti zloupotrijebljeni za izradu fotografija koje šire dezinformacije o izborima ili glasanju, iako ove tvrtke imaju politike protiv stvaranja obmanjujućeg sadržaja.

Suočavanje s kampanjama dezinformacija
Kampanje dezinformacija su iskoristile AI za imitiranje autentičnih članaka kao uobičajenu cijev za širenje lažnih vijesti. Društveni medijski divovi poput Facebooka, Twittera i YouTube-a pokušavaju zaustaviti takva izobličenja slika, ali učinkovitost njihovih napora varira.

Primjer dezinformacija potaknutih AI-jem bio je lažni tvrdnjom podržan od državno kontrolirane kineske novinske agencije koji je optužio Sjedinjene Američke Države za operiranje laboratorija za biološko oružje u Kazahstanu, kako je primijetilo Ministarstvo domovinske sigurnosti (DHS) u procjeni prijetnji za 2024. godinu.

Savjetnik za nacionalnu sigurnosti Jake Sullivan priznao je na događaju posvećenom AI-u u Washingtonu da je teško obraniti demokraciju od ovih dezinformacijskih kampanja velikog opsega jer se koristi sposobnostima AI-a s štetnom namjerom državnih i nedržavnih aktera.

Biološki i cyber rizici od oružja
Američke obavještajne zajednice i istraživači sve više su zabrinuti zbog rizika koje predstavljaju strani maligni akteri pristupajući naprednim AI sposobnostima. Posebno, studije Griffin Scientific i Rand Corporation ukazuju da bi veliki jezični modeli (LLM) mogli potencijalno pružiti informacije koje bi koristile za stvaranje biološkog oružja.

Primjerice, otkriveno je da su LLM-ovi sposobni prenositi znanje na postdoktorskoj razini o virusnim patogenima s pandemijskim potencijalom. Daljnja istraživanja iz Randa sugeriraju da bi LLM-ovi mogli pomoći u planiranju i provođenju biološkog napada, uključujući prijedloge metoda distribucije aerosola za botulinum toksin.

Na cyber frontu, procjena prijetnji DHS-a za 2024. upozorila je da se AI koristi za razvoj alata koji olakšavaju veće, brže i lukavije cyber napade na kritičnu infrastrukturu, uključujući naftovode i željeznice. Otkriveno je da Kina i drugi konkurenti razvijaju AI tehnologije sposobne narušiti američku kibernetičku sigurnost, uključujući AI potpomognute napade malvera. Microsoft je dokumentirao da hakerske grupe povezane s kineskim i sjevernokorejskim vladama, ruskim vojnim obavještajcima i iranskom Revolucionarnom gardom usavršavaju svoje hakere napore kroz upotrebu velikih jezičnih modela.

Osim konteksta iz članka, neke dodatne relevantne činjenice koje se mogu uzeti u obzir uključuju:

Međunarodno natjecanje u razvoju AI: Natjecanje za nadmoć u AI nije ograničeno samo na Sjedinjene Američke Države i njihove neprijatelje. Države diljem svijeta ulažu velike napore u umjetnu inteligenciju. To stvara složeni međunarodni pejzaž u kojem se suradnja i konkurencija odvijaju istovremeno, utječući na globalnu sigurnost i ekonomske dinamike.

Regulativne i etičke zabrinutosti: Kako tehnologija AI napreduje, mnoge su entiteti, uključujući vlade i međunarodne organizacije, suočeni s etičkim implikacijama i potrebom za regulacijom kako bi se osiguralo odgovorno razvijanje i korištenje AI-a. Rasprave o nadzoru, privatnosti te etičkoj upotrebi AI-a u vojnim aplikacijama primjeri su ovih pitanja.

AI i ekonomska sigurnost: Osim vojnih i kibernetičkih aplikacija, tehnologija AI također značajno utječe na ekonomsku sigurnost. Automatizacija i optimizacija sposobnosti AI-a mogu poboljšati produktivnost i gospodarski rast, ali istovremeno može dovesti do gubitka poslova i povećane nejednakosti.

‘Rat AI oružja’ retorika: Rasprave o ‘ratu AI oružja’, posebno između SAD-a i Kine, izazvale su zabrinutost i kontroverze. Retorika o utrci u naoružanju potencijalno bi mogla potaknuti sigurnosni problem, gdje svaka strana nastoji povećati sposobnosti u odgovoru na percepiranu prijetnju napretku druge strane, što bi moglo dovesti do eskalacije napetosti.

Ispod navedene su ključna pitanja povezana s temom, zajedno s njihovim odgovorima:

Zašto je važno da SAD zaštite svoju AI tehnologiju od stranih protivnika?
Važno je za nacionalnu sigurnost, održavanje konkurentske prednosti u globalnoj ekonomiji i zaštitu integriteta informacija i demokratskih procesa. Napredna AI može biti zloupotrijebljena za provođenje cyber napada, utjecaj na javno mišljenje, pa čak i povećanje mogućnosti oružanih sustava.

Koji su glavni izazovi u sprječavanju zloupotrebe AI-a od strane stranih aktera?
Tehnološke mjere za zaštiti AI zahtijevaju složenost i mogu biti resursno zahtjevne. Nadalje, globalna i povezana priroda tehnološke industrije čini teško kontrolirati širenje informacija i tehnologije. Pitanja atribucije, brzi tempo razvoja tehnologije i razlike u međunarodnim normama i propisima također predstavljaju izazove.

Koje su kontroverze oko razvoja i obrane AI-a?
Brige o potencijalnom ratu AI oružja, etička razmatranja u vezi sa autonomnim oružanim sustavima, ravnoteža između inovacija i sigurnosti te potencijal za eskalaciju sukoba u kibernetičkoj sigurnosti glavne su kontroverze u području razvoja i obrane AI-a.

Prednosti i nedostaci jačanja AI tehnologije uključuju:

Prednosti:
– Poboljšana nacionalna sigurnost protiv cyber prijetnji.
– Zaštita kritične infrastrukture i ekonomske stabilnosti.
– Sprječavanje širenja dezinformacija i održavanje integriteta demokratskih procesa.
– Održavanje strateške prednosti u globalnom tehnološkom vodstvu.

Nedostaci:
– Eskalacija utrke u kibernetičkoj sigurnosti s protivnicima.
– Potencijalna prepreka za otvorenu razmjenu znanstvenih spoznaja.
– Rizik od prekomjerne regulacije koja bi mogla ugušiti inovacije unutar domaće tehnološke industrije.
– Etičke dileme u vezi s implementacijom obrambenih AI tehnologija, poput rizika od masovnog nadzora ili autonomnog oružja.

Za srodne informacije, posjetite sljedeće web stranice:

AI.gov: Za resurse vlade SAD-a i informacije o američkoj AI inicijativi.
DHS.gov: Za Ministarstvo domovinske sigurnosti koje može sadržavati procjene prijetnji i strategije o AI-u i kibernetičkoj sigurnosti.
RAND.org: Istraživačka institucija koja provodi studije o utjecaju AI na različite sektore, uključujući sigurnost.
UN.org: Za međunarodne perspektive i inicijative o AI, uključujući regulativne i etičke rasprave.

Privacy policy
Contact