Võitlus varjatud tehisintellektiga: Kuidas Eestis ettevõtted varjatud AI riske maandavad

Tehisintellekt (AI) on viimastel aastatel märkimisväärselt muutnud tehnoloogiasektorit ning ettevõtete küberturvalisuse valdkond ei ole erand. Kuigi AI pakub arvukalt eeliseid, valitseb kasvav mure “Varjatud AI” tõusu pärast – AI volitamata kasutamine organisatsioonides ilma IT-osakonna teadmise või nõusolekuta.

Mis on aga täpselt Varjatud AI? See viitab töötajatele, kes kasutavad AI-d erinevate ülesannete lihtsustamiseks, teavitamata sellest ettevõtet. See salajane AI kasutamine jääb sageli märkamatuks, jättes ettevõtted haavatavaks võimalikule ärakasutamisele või turvaprobleemidele. AI kasutamine varjus võib küll kiirendada ülesandeid, kuid ilma õige nähtavuse ja juhisteta ei suuda ettevõtted tulemusi kontrollida, mis võib kahjustada nende edu.

Kuigi dokumenteeritud katastroofiliste turvarikete puudumisel, mida põhjustaks Varjatud AI, on tõendeid selle olulisest probleemist tööstusharudes. Üllatuslikult on vaid 4,39% ettevõtetest täielikult integreerinud AI vahendid põhjalike suunistega vastavalt Tech.co 2024. aasta aruandele Tehnoloogia mõjust töökohale. Vastupidiselt viitas Prantsuse ettevõtetele läbi viidud uuring sellele, et 44% vastanutest kasutas AI-d nii tööalastes kui ka isiklikes olukordades, hinnangul 28% töötajatest kasutas AI-d ettevõtte järelvalveta. See erinevus rõhutab vajadust AI kasutamist ümbritsevate eeskirjade järele ärimaailmas.

Varjatud AI ohtudeks on mitmetahuline ja raskesti tabatav tänu selle jälgimata rakendamise iseloomule. Mõned peamised murekohad hõlmavad:

1. Sise- või välismisinformatsioon: Suure keeleline AI mudelite võltsinformatsiooni tekitamise risk kujutab endast ohtu kõrgetele juhtidele ja olulistele ärikommunikatsioonikanalitele. Vigaseid AI-toega õigusdokumente ja muid vigu on juba välja toodud, mis viitab siseäriaruannete või klienditeabevahetuse kompromiteerimise võimalusele.

2. Küberturvalisuse riskid: Kuigi AI võib olla kasulik programmeerimise eesmärkidel, toob see kaasa võimaluse, et häkkerid saavad ära kasutada AI-genereritud vigu või haavatavusi. Kui IT-toetustiim juurutab kogemata koodi, mis sisaldab neid haavatavusi, võib see mööda minna turvaprotokollidest ja ohustada ettevõtte süsteeme.

3. Avatud andmed: Paljud AI kasutajad ei pruugi olla teadlikud, et nende suhtlust AI-tööriistadega saavad salvestada või salvestavad need tööriistade taga olevad ettevõtted. Kui nendes suhetes kasutatakse tundlikku ettevõtte teavet, muutub see avalikuks eksponeerimisele. Seetõttu on hädavajalik mitte kunagi jagada AI platvormidega konfidentsiaalset teavet.

4. Ühildumiste ebaõnnestumised: Valitsuste kogu maailmas rakendavad AI kasutuse eeskirju ja juhiseid. Õige jälgimise ja vastava esindaja puudumisel ettevõttes eeskirjade jälgimiseks võivad ettevõtted teadmatult rikkuda ühilduvusstandardeid. See võib kaasa tuua uurimisi või karistusi, mida kehtestavad järelevalveasutused.

Varjatud AI riskidega võitlemiseks peavad ettevõtted kehtestama selged juhised AI kasutamiseks töökohal. Need juhised peaksid täpsustama konkreetsed ülesanded ja rollid, milleks AI on lubatud. Hiljutiste uuringute kohaselt on umbes 50% USA ettevõtteid protsessis oma sisepoliitika ajakohastamisega, et hallata selliste AI-tööriistade nagu ChatGPT kasutamist ja leevendada Varjatud AI mõju.

Kuigi täielik AI kasutamise keeld võib tunduda turvalisima valikuna, tähendab see samas AI tehnoloogia pakutavate eeliste loovutamist. Mõned ettevõtted, nagu Apple, Amazon, Samsung ja Goldman Sachs, on kehtestanud osalisi keelde AI kasutamiseks tööajal. Siiski peaksid ettevõtted kaaluma tulevaste AI lahenduste kasutamiseks lubamist tingimusel, et need on heaks kiidetud, kuna AI tööriistad arenevad pidevalt ja võivad tulevikus osutuda väärtuslikeks.

Lisaks on ettevõttel parimaid tavasid, mida saab järgida AI kasutamise optimeerimiseks:

1. Koolitusmaterjalidele juurdepääs: Internetis on palju tasuta AI koolitusmaterjale, mis aitavad töötajatel tutvuda AI rakendustega ja parimate tavade.

2. Ametikohtade asendamisest hoidumine: AI ei ole veel võimeline täielikult inimest asendama erinevates ülesannetes. Uuring näitab, et AI tööriistad ei ole mõjutanud ametikohtade eemaldamist 63% vanemjuhtkonna spetsialistidest, kelle organisatsioonid kasutavad AI-d kirjutamiseks.

3. AI kasutamise piiramine: Piirata AI kasutamist konkreetsete ülesannetega ning määratletud botidele. Tööriistad nagu ChatGPT ja Claude 3 pakuvad sobivust erinevateks eesmärkideks ning tulemuste optimeerimiseks tuleks julgelt arvesse võtta efektiivse kirjutamise põhimõtteid.

4. Jääge kursis: Olge kursis viimaste arengute ja edusammudega tehisintellekti valdkonnas, et tagada kõige efektiivsemate tööriistade kasutamine. Hiljutised testid on näidanud, et Claude 3 toodab paremaid teksti tulemusi võrreldes ChatGPT-ga.

Viimaks on oluline meeles pidada, et teksti või kujutise loovad botid ei ole tõeliselt “intelligentseted”. Inimvaatlus on vajalik AI tööriistadest saadud väljundite kontrollimiseks ja valideerimiseks, et takistada ebatäpsusi või valeinformatsiooni.

Kuna AI levik jätkab kasvu, peavad ettevõtted proaktiivselt lahendama Varjatud AI küsimuse, et kaitsta oma tegevust, kaitsta tundlikku teavet ning järgida eeskirju. Põhjalike suuniste rakendamise ja AI tehnoloogia arenguga kursisolemise kaudu saavad ettevõtted kasutada AI eeliseid, minimeerides seeläbi volitamata AI kasutamisega seotud riske.

KKK

The source of the article is from the blog toumai.es

Privacy policy
Contact