Jauna pētījuma atklātās riskas AI kā pakalpojuma sniedzējiem

Nesenajā pētījumā pētnieki atklāja ievainojamības mākslīgā intelekta (AI) kā pakalpojuma sniedzējos, uzsvērtot divus kritiskus riskus, kas var potenciāli tikt ļaunprātīgi izmantoti. Tas rada bažas par AI sistēmu drošību un jutīgu datu aizsardzību.

Faktori, kas tika identificēti pētījumā, ietver iespēju ļaunprātīgiem uzbrucējiem iegūt privilēģijas, piekļūt citu lietotāju modeļiem un pat pārņemt nepārtrauktu integrācijas un nepārtrauktu ievietošanas cauruļvadu kontroli. Tas nozīmē, ka uzbrucēji varētu manipulēt ar AI modeļiem, lai veiktu uzbrukumus pāri nomniekiem, radot būtisku risku AI pakalpojumu sniedzējiem. Šādiem uzbrukumiem varētu būt postošas sekas, jo miljoni privātu AI modeļu un lietojumprogrammas, kas glabājas AI kā pakalpojuma sniedzējos, varētu tikt apdraudētas.

Šie riski parādās mašīnmācīšanās cauruļvados, kas ir kļuvuši par jaunu mērķi tiešsaistes uzbrukumiem izmantojot piegādes ķēžu stratēģijas. Platformas kā Hugging Face, kas uzglabā AI modeļu repozitorijus, ir kļuvušas par pievilcīgiem mērķiem ļaunprātīgiem uzbrucējiem, kuri mēģina izvilkt jutīgu informāciju un iegūt neautorizētu piekļuvi mērķēm.

Pētījumā identificētās ievainojamības ir rezultāts kopīga izdarījumu infrastruktūra un koplietošanas CI/CD pārņemšana. Tas ļauj ļaunprātīgiem uzbrucējiem augšupielādēt nepieciešamos modeļus pickle formātā un veikt piegādes ķēdes uzbrukumu, pārņemot CI/CD cauruļvadu. Izmantojot šīs ievainojamības, uzbrucēji var pārkāpt pakalpojumu, kas darbojas ar pielāgotiem modeļiem, apdraudot visu sistēmu un neautorizēti piekļūstot citu lietotāju modeļiem.

Lai parādītu šo risku nopietnību, pētnieki izveidoja PyTorch modeli, kas spēja izpildīt patvaļīgu kodu, ielādējot to. Viņi atklāja, ka Hugging Face atļāva augšupielādētā modeļa izpildīšanu, pat ja tas tika uzskatīts par bīstamu. Izmantojot konfigurācijas kļūdas Amazon Elastic Kubernetes Service (EKS), ļaunprātīgi uzbrucēji var palielināt privilēģijas un pārvietoties laterāli caur klasteri.

Lai risinātu šīs ievainojamības, pētnieki iesaka iespējot IMDSv2 ar Hop limitu, kā arī novēršot podu piekļuvi gadījumā, ja tie cenšas piekļūt Instance Metadata Service un iegūt neautorizētas privilēģijas klasterī. Turklāt Hugging Face iesaka lietotājiem izmantot modeļus tikai no uzticamiem avotiem, iespējot divfaktoru autentifikāciju un izvairīties no pickle failu izmantošanas ražošanas vides.

Ir svarīgi atzīt šos atklājumus un veikt nepieciešamās piesardzības un drošības pasākumus, izmantojot AI modeļus, īpaši tos, kas ir pickle formātā. Lai minimizētu drošības riskus, ir būtiski nodrošināt izolētu vidi nepieciešamiem, neuzticīgiem AI modeļiem. Turpinot vingrināt piesardzību, atkarība no lieliem valodu modeļiem (LLM) ir ieteicama, kā to demonstreja potenciāls bīstamo koda pakete izplatīt nepārzinošajiem programmatūras izstrādātājiem.

Kā mūsdienu AI nozare turpina attīstīties, ir svarīgi prioritizēt drošības pasākumus, lai aizsargātu jutīgus datus un mazinātu riskus, kas saistīti ar ļaunprātīgiem uzbrukumiem.

Bieži uzdotie jautājumi par AI iezīmēm un pakalpojumu sniedzēju drošību:
  • Kas ir mašīnmācības cauruļvads? – Mašīnmācības cauruļvads ir process, kurā dati tiek ievietoti algoritmā, lai trenētu mašīnu izprast un veikt noteiktas darbības.
  • Kas ir Hugging Face? – Hugging Face ir platforma, kas sniedz pakalpojumus saistībā ar AI modeļu repozitorijiem un hostēšanu.
  • Kas ir pickle faili? – Pickle faili ir Python bibliotēkas formāta veids, kas ļauj saglabāt objektus binārajā formātā.

Atrisinotās problēmas pētījumā rada bažas par kopējo AI kā pakalpojuma sniedzēju drošību un jutīgu datu aizsardzību. Ar pieaugošo atkarību no AI sistēmām un potenciāliem uzbrukumu sekām ir svarīgi saprast nozari un tirgus prognozes, kā arī ar nozari saistītas problēmas.

AI kā pakalpojuma nozare ir piedzīvojusi ievērojamu izaugsmi pēdējos gados, ko veicina pieaugošā pieprasījums pēc AI tehnoloģijām dažādās nozarēs. Saskaņā ar tirgus prognozēm globālais AI kā pakalpojuma tirgus līdz 2023. gadam plāno sasniegt vērtību 10,88 miljardi USD ar kumulatīvo gadā procentuālo izaugsmi (CAGR) 48,2% laika posmā (Avots: MarketsandMarkets). Tas norāda uz pieaugošo AI kā pakalpojuma risinājumu uzņēmumu pieņemšanu visā pasaulē.

Tomēr pētījumā identificētās ievainojamības uzrunā potenciālos riskus, kas rodas, lietojot AI kā pakalpojuma sniedzējus. Ļaunprātīgi uzbrucēji var šīs ievainojamības izmantot, lai iegūtu neautorizētu piekļuvi, manipulētu ar AI modeļiem un apdraudētu jutīgus datus. Tas radīs lielas izaicinājumus gan AI pakalpojumu sniedzējiem, gan viņu klientiem, jo tas apdraud sistēmu uzticamību un drošību.

Viena no galvenajām saistītajām nozarēm ir supply chain uzbrukumu pieaugošais izplatības līmenis, kuri mērķē mašīnmācības cauruļvadus. AI pakalpojumu sniedzēji, piemēram, Hugging Face, kas uzglabā AI modeļu repozitorijus, kļūst par pievilcīgiem ļaunprātīgiem uzbrukumiem, kuri mēģina izvilkt jutīgu informāciju un iegūt neautorizētu piekļuvi mērķēm. Tas uzsvērt vajadzību pēc drošu pasākumu ieviešanas visā AI modeļa dzīves ciklā.

Lai risinātu šīs problēmas, AI pakalpojumu sniedzējiem un lietotājiem jādod priekšroka drošības pasākumiem. Tas ietver stingru autentifikācijas mehānismu ieviešanu, modeļu lietošanu tikai no uzticamiem avotiem un pickle failu izvairīšanos, ko ir identificēts kā potenciālu ievainojamību. Turklāt iespējot drošas konfigurācijas, piemēram, IMDSv2 ar Hop limitu, var palīdzēt novērst neautorizētas privilēģijas un ierobežot piekļuvi klasterī.

Ņemot vērā to, ka pētnieki turpina atklāt ievainojamības un potenciālos riskus AI sistēmās, ir būtiski, lai nozare sadarbotos un dalītos zināšanās, lai uzlabotu drošības prakses. Uzņēmumiem un organizācijām jābūt informētiem par jaunākajiem drošības notikumiem un labākajām praksēm, lai pasargātu sevi un savus klientus no iespējamām draudēm.

Secinājumā pētījumā atklātās ievainojamības AI kā pakalpojuma sniedzējos uzrunā nepieciešamību pēc stingriem drošības pasākumiem un piesardzību, izmantojot AI modeļus. Ņemot vērā AI kā pakalpojuma nozares izaugsmi un pieaugošo atkarību no AI tehnoloģijām, ir būtiski prioritizēt drošību, lai aizsargātu jutīgus datus un mazinātu riskus, kas saistīti ar ļaunprātīgiem uzbrukumiem.

Lai iegūtu papildinformāciju par AI kā pakalpojumu nozari, tirgus prognozēm un saistītajām problēmām, iesakām apmeklēt šos resursus:

– AI kā pakalpojuma tirgus prognozes no MarketsandMarkets
– Hugging Face: AI modeļu uzglabāšanas platforma, kas minēta rakstā.

The source of the article is from the blog papodemusica.com

Web Story

Privacy policy
Contact