Socijalni mediji AI softver ometa policijske istrage u slučajevima seksualne zloupotrebe djece

Nedavna istraga britanskog lista The Guardian otkrila je da društvene medijske kompanije koje se oslanjaju na umjetnu inteligenciju (AI) za moderiranje svojih platformi generiraju neupotrebljive izvještaje o slučajevima seksualne zloupotrebe djece, otežavajući američke policijske istrage i odgađajući identifikaciju potencijalnih predatora. Prema zakonu, ove kompanije su obvezne prijaviti svaki materijal koji sadrži seksualnu zloupotrebu djeteta na njihovim platformama Nacionalnom centru za nestalu i zlostavljanu djecu (NCMEC), koji potom proslijeđuje tragove relevantnim policijskim agencijama.

Tijekom 2022. godine, NCMEC je primio preko 32 milijuna prijava sumnjive seksualne eksploatacije djece, pri čemu je Meta najveći prijavitelj s preko 27 milijuna prijava. Međutim, korištenje izvještaja generiranih od strane AI predstavlja značajan izazov za policijske agencije. Zbog zaštite privatnosti prema četvrtom amandmanu, službenicima i NCMEC-u nije dopušteno otvaranje izvještaja bez naloga za pretragu, osim ako osoba zaposlena u društvenoj medijskoj kompaniji nije pregledala sadržaj. Ova pravna zahtjevna odredba rezultira kašnjenjem od nekoliko tjedana, što omogućuje da se potencijalni dokazi izgube i da počinitelji ostanu nedetektirani duže vrijeme.

Stručnjaci za sigurnost djece i odvjetnici izrazili su zabrinutost zbog štetnih posljedica tih kašnjenja po sigurnost zajednice. Istrage su zaustavljene i policijske agencije nemaju mogućnost odmah djelovati kako bi zaštitile potencijalne žrtve. U nekim slučajevima, društvene medijske kompanije čak onemogućuju korisničke račune nakon podnošenja izvješća, što može dovesti do uklanjanja ključnih dokaza s njihovih poslužitelja.

Istraživanja generirana od strane AI često se ne istražuju jer nedostaje specifičnih informacija potrebnih za dobivanje nalog za pretragu zbog osnovane sumnje. To stavlja dodatno opterećenje već preopterećenim policijskim agencijama, koje nemaju potrebne resurse da bi te izvještaje stavile na prioritetno mjesto.

Ovisnost o AI za moderiranje sadržaja smatra se nepotpunim rješenjem od strane stručnjaka. Iako AI može pomoći olakšati teret policijskim službenicima, ne može zamijeniti potrebu za ljudskim intervencijama. Kako je istaknuo jedan tužitelj iz Massachusettsa, AI možda neće moći prepoznati novi materijal s dječjom zloupotrebom i može samo analizirati postojeće podatke. Važnost ljudske revizije ne može se podcijeniti kada se radi o ovako osjetljivim slučajevima.

Trenutna situacija izaziva zabrinutost u vezi djelotvornosti moderiranja pomoću AI i potrebu za povećanjem resursa i podrške policijskim agencijama u suočavanju s rastućim problemom seksualne zloupotrebe djece na mreži.

The source of the article is from the blog procarsrl.com.ar

Privacy policy
Contact