Sotsiaalmeedia tehisintellekti tarkvara takistab politsei uurimisi laste seksuaalse ärakasutamise juhtumites

Hiljutine The Guardiani uurimus näitab, et sotsiaalmeedia ettevõtted, kes kasutavad platvormide moderatsiooniks tehisintellekti tarkvara, genereerivad ebaefektiivseid aruandeid laste seksuaalse ärakasutamise juhtumite kohta, takistades USA politsei uurimisi ja viivitades võimalike roimarite tuvastamisega. Nende ettevõtetel on seadusega kohustus edastada kõik oma platvormidel tuvastatud lapsporno materjal vastavusse puudutavale õiguskaitseasutusele, National Center for Missing & Exploited Children (NCMEC), kes suunab esitatud juhtumid asjakohastele õiguskaitseorganitele.

2022. aastal sai NCMEC rohkem kui 32 miljonit aruannet kahtlustatavast lapsporno levitamisest, kusjuures Meta oli suurim aruande esitaja, vastutades üle 27 miljoni aruande eest. Siiski seab tehisintellekti genereeritud aruannete kasutamine suured väljakutsed õiguskaitseorganitele. Seaduslike eraelu puutumatuse kaitse tõttu neljandas muudatuses ei ole politseil ja NCMEC-il lubatud aruandeid avada ilma läbiotsimismääruseta, kui mõne sotsiaalmeediaettevõtte inimene pole sisu üle vaadanud. See õiguslik nõue on põhjustanud mitmepäevaseid viivitusi, võimaldades potentsiaalse tõendi kustutamist ja kurjategijate üle pikemate perioodide jäämist tuvastamata.

Laste turvalisuse eksperdid ja advokaadid on väljendanud muret nende viivituste kahjuliku mõju pärast kogukonna turvalisusele. Uurimised seisavad paigal ja õiguskaitseorganid ei saa võtta viivitamatuid meetmeid võimalike ohvrite kaitsmiseks. Mõnes olukorras keelavad sotsiaalmeediaettevõtted isegi kasutajakontode töö pärast aruande esitamist, mis võib potentsiaalselt viia oluliste tõendite kustutamiseni nende serveritest.

Tehisintellekti genereeritud vihjed jäävad sageli uurimata, kuna neis puudub vajalik spetsiifiline teave läbiotsimismääruse saamiseks. See paneb täiendava koormuse juba ülekoormatud õiguskaitseorganitele, kes ei oma piisavalt ressursse nende vihjete prioriteediks seadmiseks.

Tehisintellekti kasutamine sisu modereerimisel näib ekspertide arvates olevat ebapiisav lahendus. Kuigi tehisintellekt võib aidata leevendada õiguskaitseametnike töökoormust, ei suuda see asendada inimese sekkumise vajadust. Nagu üks Massachusettsi prokurör rõhutas, ei suuda tehisintellekt uut lapsporno materjali tuvastada ja suudab analüüsida ainult olemasolevaid andmepunkte. Inimese ülevaate tähtsust ei saa alahinnata nende tundlike juhtumitega tegelemisel.

Oleval olukorral on tekkinud mure tehisintellekti modereerimise efektiivsuse ja vajaduse üle suurendada ressursse ning toetada õiguskaitseorganeid laste seksuaalse ärakasutamise online-keskkonnas kasvava probleemi lahendamisel.

The source of the article is from the blog mgz.com.tw

Privacy policy
Contact