Argentīnas drošības spēki ir prezentējuši plānus izmantot mākslīgo intelektu nākotnes noziegumu paredzēšanai. Kustībā vadīti no labējo spārnu prezidenta Javiera Milei puses, ir izveidota jauna Iekļautās Mākslīgās Intelekta vienība drošībā, lai izmantotu mašīnmācīšanās algoritmus, analizējot vēsturiskos noziedzības datus, lai paredzētu gaidāmos pārkāpumus.
Turklāt šī vienība var izmantot sejas atpazīšanas programmatūru, lai identificētu meklētos indivīdus, uzraudzītu sociālos medijus pēc aizdomīgām darbībām un apsvērt drošības kameru bildes reāllaikā, lai noteiktu iespējamas draudzības.
Lai gan Drošības ministrija apgalvo, ka jaunā vienība palīdzēs identificēt potenciālas draudzības, sekot noziedzīgas grupas pārvietošanai un paredzēt traucējumus, cilvēktiesību organizācijas ir paudušas bažas līdzīgās problēmās kā tās, kas redzamas filma “Mazākuma ziņā”.
Eksperti šaubās, ka konkrēti sabiedrības segmenti varētu piedzīvot pārlieku uzraudzību tehnoloģiju dēļ, jautājot, kam būs piekļuve informācijai un cik daudzi drošības spēki to būs ieguvuši. Amnesty International ir brīdinājusi arī par iespējamo cilvēktiesību pārkāpumu risku, kas var rasties no šīs iniciatīvas.
Argentīnas mākslīgā intelekta izmantošana noziegumu paredzēšanai izraisa civilās tiesības neuzticību
Argentīnas drošības spēku iniciatīva ieviest mākslīgā intelekta (AI) tehnoloģijas nākotnes noziegumu paredzēšanai ir izcēlusies rindā civilās tiesību bažu. Drošības Iekļautā Mākslīgā Intelekta vienība, ko vadījis prezidents Javiers Milei, mērķē izmantot mašīnmācīšanās algoritmus, lai analizētu vēsturiskos noziedzības datus par noziegumdarbības prognozēšanu.
Būtiski jautājumi:
– Kā AI sistēma atšķirs potenciālas draudzības no nevainīgas rīcības?
– Kādi pasākumi tiek veikti, lai novērstu netaisnīgus nodalījumus AI algoritmos, kas varētu izraisīt diskrimināciju?
– Vai būs skaidrība par AI izmantošanu noziedzības paredzēšanai un kā tiks aizsargāta pilsoņu privātums?
Iespējamie izaicinājumi un kontroverses:
Viens no galvenajiem izaicinājumiem, ko rada AI izmantošana noziegumu paredzēšanai, ir potenciāls diskriminācijas rezultātu risks, pamatojoties uz ietekmētiem datiem vai algoritmiem. Kontroverses var rasties saistībā ar etisko aspektu izmantošanu AI noziegumu paredzēšanai, kā arī bažas par valdības pārmērīgu iejaukšanos un civilo brīvību pārkāpumiem.
Priekšrocības:
– AI tehnoloģija varētu palīdzēt likumībā pārbaudējot novērst noziegumus un uzlabot sabiedrības drošību.
– Paredzēšanas analītika varētu palīdzēt efektīvāk izmantot resursus, koncentrējoties uz augstā riska teritorijām vai indivīdiem.
Nepilnības:
– Pastāv risks, ka AI ģenerētie paredzējumi tiks nepareizi interpretēti vai izmantoti, izraisot netaisnīgu uzraudzību vai konkrētu kopienām saduras.
– Privātuma bažas var palielināties, ja cilvēki jūtas, ka to katra kustība tiek uzraudzīta un analizēta bez skaidrības.
Šajās debatēs un spriedzēs par AI izmantošanu noziegumu paredzēšanai kļūst svarīgi, lai politikas veidotāji izveidotu skaidrus vadlīnijas, pārredzamības mehānismus un atbildības sistēmas, lai mazinātu iespējamos riskus un ievērotu civilos tiesību standartus.
Lai iegūtu detalizētāku ieskatu par AI, noziegumu paredzēšanu un civiltiesībām dažādos kontekstos, lasītāji var izpētīt Amnesty International iniciatīvas cilvēktiesību veicināšanai digitālajā laikmetā.