Izmantojot mākslīgo intelektu, valdības aģentūras cīnās ar datu aizsardzību

ASV Rezerves Palātas nesen pieņemtā lēmuma dēļ kongresa darbiniekiem ir stingri aizliegts izmantot Microsoft Copilot ģeneratīvo mākslīgo inteliģenciālo palīgu. Šis lēmums tika pieņemts, jo pastāv bažas par iespējamām datu noplūdēm uz neapstiprinātiem mākoņpakalpojumiem.

Rezerves Palātas galvenā administratīvā amatpersona Ketrīna Spindora norādīja, ka Ciberdrošības birojs ir atzinis, ka Microsoft Copilot lietojumprogrammu uzskata par risku lietotājiem. Tas ir saistīts ar draudiem, ka Rezerves Palātas dati var noplūst uz neapstiprinātiem mākoņpakalpojumiem. Šajā sakarā tika pieņemts lēmums aizliegt Kongresa darbiniekiem izmantot Copilot.

Reaģējot uz aizliegumu, Microsoft pārstāvis uzsver savu apņemšanos atbilst valdības lietotāju drošības prasībām. Microsoft paziņoja par mākslīgā intelekta rīku ceļvedi, ieskaitot Copilot, kas ir izstrādāti atbilstoši federālo valdību drošības un saskaņošanas noteikumiem. Šos rīkus plānots nodrošināt vēlāk šogad.

ASV Rezerves Palātas lēmums atspoguļo palielinātu apziņu par potenciālajiem riskiem, kas saistīti ar mākslīgā intelekta lietošanu valdības aģentūrās. Likumdevēji novērtē drošības sistēmu atbilstību, lai aizsargātu individuālo privātumu un nodrošinātu taisnīgu attieksmi.

Bieži uzdotie jautājumi (BUJ)

1. Kāda ir iemesla aizlieguma iemesls pret Microsoft Copilot?
Aizliegums ir radies sakarā ar bažām par iespējamām datu noplūdēm uz neapstiprinātiem mākoņpakalpojumiem.

2. Kādas ir valdības drošības prasības attiecībā uz datiem?
Valdības lietotājiem ir augstākas drošības prasības attiecībā uz datiem, ņemot vērā informācijas jutīgo raksturu, ar kuru viņi strādā.

3. Kad Microsoft nodos mākslīgo intelekta rīkus, kas atbilst valdības drošības prasībām?
Microsoft plāno nodot mākslīgo intelekta rīkus, ieskaitot Copilot, kas atbilst valdības drošības un saskaņošanas prasībām, vēlāk šogad.

4. Kādus plašos jautājumus risina likumdevēji?
Likumdevēji novērtē drošības sistēmas atbilstību, lai aizsargātu individuālo privātumu un nodrošinātu taisnīgu attieksmi, kad pieņem mākslīgo intelektu valdības aģentūrās.

(Avots: Reuters)

Papildus nesenajam aizliegumam ASV Rezerves Palātas pret Microsoft Copilot mākslīgo inteliģento palīgu ir svarīgi ņemt vērā plašāku industriju un tirgus prognozēšanu. Mākslīgās inteliģences izmantošana valdības aģentūrās turpmākajos gados tiks palielināta, jo organizācijas meklē veidus, kā uzlabot efektivitāti un optimizēt procesus. Tomēr bažas par datu drošību un privātumu turpinās būt galvenais izaicinājums mākslīgās inteliģences pieņemšanā jutīgos vidēs.

Saskaņā ar tirgus prognozēm globālais AI tirgus līdz 2025. gadam prognozēts sasniegt vērtību 190,61 miljardu dolāru. Šī izaugsme tiek veicināta dažādu faktoru dēļ, tostarp mašīnmācības algoritmu uzlabojumiem, lielāku datorresursu iegūšanai un nepieciešamību automatizēt rutīnas uzdevumus. Tomēr AI tehnoloģiju ieviešana valdības aģentūrās bieži ir lēnāka salīdzinājumā ar citām nozarēm, jo ir stingras drošības prasības un bažas par iespējamajiem riskiem.

Viens no galvenajiem jautājumiem, kas saistīts ar AI valdības aģentūrās, ir jutīgu datu aizsardzība. Valsts lietotājiem ir augstākas drošības prasības attiecībā uz datiem, jo tie attiecas uz personu informāciju, klasificētām datiem un nacionālās drošības saistītajiem datiem. ASV Rezerves Palātas aizliegums pret Microsoft Copilot atspoguļo nepieciešamību pēc stingrām drošības pasākumiem, lai aizsargātos pret iespējamām datu noplūdēm uz neapstiprinātiem mākoņpakalpojumiem.

Lai risinātu šīs bažas, tehnoloģiju uzņēmumi, piemēram, Microsoft, izstrādā AI rīkus, kas atbilst federālo valdību drošības un saskaņošanas prasībām. Tas ietver stingrāku datu aizsardzības pasākumu ieviešanu, nodrošinot, ka šifrēšanas protokoli ir vietā, un nodrošinot valdības lietotājiem lielāku kontroli pār savu datu. Microsoft īstermiņa plāns AI rīkiem, ieskaitot Copilot, ir vērsts uz šo drošības prasību izpildi un to plānots nodrošināt vēlāk šogad.

Likumdevēji aktīvi novērtē plašākus jautājumus, kas saistīti ar AI pieņemšanu valdības aģentūrās. Tas ietver taisnīgas pieejas aizsardzības sistēmu novērtēšanu, lai aizsargātu individuālo privātumu un nodrošinātu taisnīgu attieksmi. Uzmanība nav vērsta tikai uz potenciālo datu noplūšanu, bet arī uz etikas jautājumiem, piemēram, biasa AI algoritmos un pārredzamību lēmumu pieņemšanas procesos.

Tā kā mākslīgās inteliģences izmantošana valdības aģentūrās turpina augt, ir svarīgi panākt līdzsvaru starp AI tehnoloģiju priekšrocībām un jutīgu datu aizsardzību. Likumdevēji un nozaru interesenti strādā kopā, lai izstrādātu skaidrus pamatnostādnes un noteikumus, lai nodrošinātu, ka AI tiek izvietots atbildīgi un droši šajās vides.

Lai uzzinātu vairāk par jaunākajiem notikumiem mākslīgajā intelektā un tehnoloģijās, apmeklējiet Reuters vietni.

The source of the article is from the blog newyorkpostgazette.com

Web Story

Privacy policy
Contact