Novi izazovi AI tehnologije u sigurnosti na internetu

Umjetna inteligencija (AI) postala je snažno oruđe u raznim područjima, no nedavna istraživanja ukazuju da se može zloupotrijebiti za razvoj samopovećavajućeg zlonamjernog softvera koji izbjegava tradicionalne metode otkrivanja. Veliki jezični modeli (LLM) korišteni u alatima pokrećenima AI-jem imaju sposobnost manipuliranja izvornog koda zlonamjernog softvera, omogućavajući mu da zaobiđe sigurnosne sustave.

Izvješće sigurnosne tvrtke Recorded Future ističe potencijal generativne AI za izbjegavanje pravila YARA temeljenih na nizu znakova, koji se koriste u otkrivanju zlonamjernog softvera. Izmjenom koda malih varijanti zlonamjernog softvera, LLM-generirani kôd može smanjiti stope otkrivanja, čineći teže za sigurnosne sustave identificirati i zaustaviti zlonamjerni softver. Ovo otkriće naglašava zabrinjavajuće mogućnosti AI tehnologija u rukama prijetnji.

U eksperimentu provedenom od strane istraživača, komad zlonamjernog softvera poznat kao STEELHOOK podnesen je LLM-u zajedno s njegovim YARA pravilima. Cilj je bio modificirati izvorni kôd zlonamjernog softvera na način da održi njegovu funkcionalnost dok izbjegava otkrivanje. LLM-generirani kôd uspješno je zaobišao jednostavna YARA pravila temeljena na nizu znakova, demonstrirajući potencijalnu eksploataciju AI u izbjegavanju sigurnosnih mjera.

Međutim, postoje ograničenja toga pristupa. Količina teksta koju AI model može obraditi odjednom je ograničena, što otežava rad na većim skupovima koda. Unatoč ovom ograničenju, korištenje generativne AI u prijetnjama na internetu širi se izvan izbjegavanja otkrivanja.

Generativni AI alati također se mogu koristiti za stvaranje deepfakeova, sintetskih medijskih sadržaja koji manipuliraju ili zamjenjuju izgled osoba. To izaziva zabrinutost zbog velikih imitacija i potencijala za operacije utjecaja koje oponašaju legitimne web stranice. Osim toga, generativna AI može ubrzati istraživačke napore pariranjem i obogaćivanjem javnih slika, videa i zračnih snimki kako bi se iz njih izvukli korisni metapodaci za naredne napade na vitalne infrastrukturne objekte.

Kako bi smanjili rizike AI-pokrenutih prijetnji, organizacije se savjetuju da pažljivo pregledavaju javno dostupne slike i videozapise koji prikazuju osjetljivu opremu. Po potrebi, takav sadržaj treba detaljno pregledati i sanirati kako bi se spriječila potencijalna eksploatacija.

Važno je napomenuti da se AI modeli sami mogu ciljati. Nedavna istraživanja pokazala su da LLM-pokretani alati mogu biti probijeni, omogućavajući stvaranje štetnog sadržaja. Na primjer, slanje ASCII umjetnosti s osjetljivim frazama može zaobići sigurnosne mjere i manipulirati LLM-ove da izvrše neočekivane radnje. Ovaj praktični napad, poznat kao ArtPrompt, ističe potrebu za poboljšanim sigurnosnim mjerama kako bi se zaštitili AI modeli od manipulacije i zloupotrebe.

U svjetlu ovih razvoja, jasno je da AI igra sve važniju ulogu u krajoliku sigurnosti na internetu. S obzirom na napredovanje mogućnosti AI, ključno je da organizacije i pojedinci budu informirani o novim prijetnjama i usvoje proaktivne sigurnosne mjere.

**Često postavljena pitanja**

1. **Što je generativna AI?**
Generativna AI odnosi se na primjenu tehnika umjetne inteligencije koje omogućuju strojevima da generiraju novi i originalni sadržaj. Široko se koristi u različitim industrijama, uključujući umjetnost, glazbu, a sada i sigurnost na internetu.

2. **Kakva su YARA pravila?**
YARA pravila su skup tekstualnih obrazaca koji se koriste za otkrivanje zlonamjernog softvera. Omogućavaju sigurnosnim sustavima identificiranje i klasificiranje zlonamjernog softvera na temelju specifičnih karakteristika i pokazatelja.

3. **Što su deepfakeovi?**
Deepfakeovi se odnose na sintetičke medijske sadržaje, obično videozapise, koji se stvaraju korištenjem algoritama umjetne inteligencije. Ti AI-generirani videozapisi mogu manipulirati ili zamijeniti izgled osoba, često rezultirajući zavaravajućim ili prijevarnim prikazima.

4. **Kako organizacije mogu smanjiti rizike AI-pokrenutih prijetnji?**
Kako bi smanjile rizike povezane s AI-pokrenutim prijetnjama, organizacije bi trebale redovito pregledavati javno dostupne slike i videozapise koji prikazuju osjetljivu opremu. Po potrebi, takav sadržaj treba pažljivo pregledati i sanirati kako bi se smanjile mogućnosti za eksploataciju. Dodatno, trebale bi se implementirati čvrste sigurnosne mjere kako bi se zaštitili AI modeli od potencijalne manipulacije i zloupotrebe.

Source: example.com

The source of the article is from the blog smartphonemagazine.nl

Privacy policy
Contact