Veidot drošīgu nākotni: Uzbrukumi ēnu AI izmantojumam darbavietā

Mākslīgā intelekta (AI) ievērojami ir pārveidojis tehnoloģiju nozari pēdējo gadu laikā, un ugunsdrošības jomā uzņēmumu līmenī tā nav izņēmums. Lai gan AI piedāvā vairākas priekšrocības, pastāv pieaugoša bažu par “ēnu AI” pieaugumu – AI nelikumīgu izmantošanu organizācijās bez IT nodaļas zināšanām vai piekrišanas.

Tātad, kas precīzi ir ēnas AI? Tas attiecas uz darbinieku AI izmantošanu, lai palīdzētu viņiem ar dažādiem uzdevumiem, nenorādot savai kompānijai. Šī slepenā AI izmantošana bieži paliek nepamanīta, atstājot uzņēmumus uzbrukumiem vai drošības problēmām. AI izmantošana ēnās var paātrināt uzdevumus, bet bez pienācīgas redzamības un vadlīnijām uzņēmumi nevar kontrolēt sekas, kas var būt kaitīgas viņu veiksmībai.

Lai gan ēnu AI radīto katastrofu drošības neveiksmes dokumentācija nav plaši pieejama, ir pierādījumi, kas liecina, ka tas rada būtisku problēmu pār dažādām nozarēm. Pārsteidzoši, tikai 4,39% uzņēmumu pilnībā integrēti ir AI rīki ar visaptverošām vadlīnijām, saskaņā ar Tech.co 2024. gada pārskatu par tehnoloģiju ietekmi darbavietā. Pretēji tam aptauja, kas veikta tieši franču uzņēmumos, norādīja, ka 44% respondentu lieto AI gan profesionālos, gan personiskos nolūkos, ar aptuveni 28% darbinieku lietojot AI bez uzņēmuma uzraudzības. Šī atšķirība norāda uz nepieciešamību pēc regulējuma saistībā ar AI izmantošanu biznesa pasaulē.

Ēnas AI bīstamība ir daudzdimensionāla un grūti lokalizējama sakarā ar tās neuzraudzīto implementācijas raksturu. Dažas galvenās bažu jomas ietver:

1. Iekšēja vai ārēja dezinformācija: Pastāv risks, ka lielas valodu AI modeļi rada viltus informāciju, kas rada draudus augstajai vadībai un svarīgiem biznesa komunikācijas kanāliem. Kļūdainas AI darbinātas juridiskās atsauces un cita veida pārkļūdas jau ir ziņotas, norādot potenciālu iekšējo biznesa pārskatu vai klientu sarakstes kompromitāciju.

2. Datoru drošības risks: Lai gan AI var būt noderīgs kodēšanas nolūkos, tas ievieš iespēju AI radītiem kļūmēm vai ievainojumiem, ko hakieri var izmantot. Ja IT atbalsta komanda neapzināti izplata kodu, kas satur šīs ievainojamības, tas var apiet drošības protokolus un apdraudēt uzņēmuma sistēmas.

3. Izpausta dati: Daudzi AI lietotāji nav apzinājušies, ka viņu mijiedarbība ar AI rīkiem var tikt ierakstīta uzņēmumiem, kas stāv aiz šiem rīkiem. Ja šajās mijiedarbībās tiek izmantoti jutīgi uzņēmuma dati, tie kļūst pieejami. Tāpēc ir būtiski nekad nesadarboties ar konfidenciālas informācijas AI platformām.

4. Atbilstības neveiksmes: Valdības visā pasaulē ievieš noteikumus un vadlīnijas attiecībā uz AI izmantošanu. Bez pareizas izsekošanas un pārstāvja, kas atbildīgs par šo noteikumu uzraudzību uzņēmumā, uzņēmumi var neapzināti pārkāpt atbilstības standartus. Tas var rezultēt izmeklēšanās vai sodu, ko uzliek regulatori.

Lai cīnītos pret ar ēnu AI saistītajiem riskiem, uzņēmumiem ir jānosaka skaidras vadlīnijas attiecībā uz AI izmantošanu darbavietā. Šīs vadlīnijas būtu jānorāda konkrētas uzdevumu un lomu, kurām atļauta ir AI izmantošana. Saskaņā ar pēdējām aptaujām aptuveni 50% ASV uzņēmumu ir procesā atjaunināt savas iekšējās politikas, lai regulētu AI rīku, piemēram, ChatGPT, izmantošanu un mazinātu ēnu AI.

Lai arī pilnīga aizlieguma noteikšana AI izmantošanai var šķist kā drošākā opcija, tas arī nozīmē, ka tiek atteikts no tām priekšrocībām, ko var piedāvāt AI tehnoloģija. Dažas kompānijas, piemēram, Apple, Amazon, Samsung un Goldman Sachs, ir ieviesušas daļējus aizliegumus attiecībā uz AI lietošanu darba laikā. Tomēr uzņēmumiem vajadzētu ņemt vērā iespēju atļaut nākotnes AI izmantošanu pēc apstiprinājuma, ņemot vērā, ka AI rīki nepārtraukti attīstās un nākotnē var pierādīt naudas vērtību.

Turklāt ir labās prakses, ko uzņēmumi var ievērot, lai optimizētu AI izmantošanu:

1. Piekļuve apmācības kursiem: Dažādi bezmaksas AI apmācības materiāli ir pieejami tiešsaistē, kas palīdzēs darbiniekiem iepazīties ar AI pielietojumiem un labākajām praksēm.

2. Izvairieties no darba vietu aizstāšanas: AI vēl nav spējīgs pilnībā aizstāt cilvēkus dažādu uzdevumu veikšanā. Ziņojums norāda, ka 63% augstākā līmeņa vadības profesionāļu, kuru organizācijas izmanto AI raksta uzdevumiem, darba lomas nav ietekmējušas AI rīki.

3. Ierobežojiet AI izmantošanu: Ierobežojiet AI izmantošanu konkrētos uzdevumos un noteiktajos botos. Rīki, piemēram, ChatGPT un Claude 3, piedāvā piemērotību dažādiem mērķiem, un jāņem vērā apdomīgi rakstīšanas uzdevumi, lai panāktu optimālus rezultātus.

4. Palikiet informēti: Sekojiet līdzi jaunākajiem AI tehnoloģiju attīstības virzieniem, lai nodrošinātu, ka tiek izmantoti efektīvākie rīki. Nesenās pārbaudes ir norādījušas, ka Claude 3 ražo labākus teksta rezultātus salīdzinājumā ar ChatGPT.

Visbeidzot, ir svarīgi atcerēties, ka ģeneratīvie teksta vai attēla boti nav patiesi “inteliģenti”. Cilvēka uzraudzība ir nepieciešama, lai pārbaudītu un validētu jebkādus izvades no AI rīkiem, lai novērstu neprecizitātes vai nepatiesības.

Kamēr AI izplatība turpina augt, uzņēmumiem ir proaktīvi jārisina ēnas AI jautājums, lai aizsargātu savas darbības, aizsargātu jutīgos datus un ievērotu noteikumus. Ar pilnīgas vadlīnijas ieviešanu un informētību par AI tehnoloģijām uzņēmumi var izmantot AI priekšrocības, minimalizējot ar neautorizētu AI izmantošanu saistītos riskus.

BIĒTU BIEŠANA: kā pravietot šen krievu mājās LADO pirtī?

The source of the article is from the blog macnifico.pt

Privacy policy
Contact