Socialinių tinklų dirbtinio intelekto (AI) programinė įranga trukdo policijos tyrimams dėl vaikų seksualinio išnaudojimo atvejų

Neseniai „The Guardian” skelbtas tyrimas parodė, kad socialinių tinklų įmonės, kurios peržiūri savo platformas naudodamos dirbtinio intelekto (AI) programinę įrangą, generuoja nepavykstančius pranešimus apie vaikų seksualinį išnaudojimą, trukdant JAV policijos tyrimams ir vėluojant nustatyti galimus plėšikus. Pagal įstatymus šios įmonės privalo pranešti bet kokią pastebėtą vaikų seksualinio išnaudojimo medžiagą savo platformose Nacionaliniam dingusių ir išnaudotų vaikų centrams (NCMEC), kuris tada perduoda gaires atitinkamoms teisėsaugos institucijoms.

2022 m. NCMEC gavo daugiau nei 32 mln. pranešimus apie galimas vaikų seksualinio išnaudojimo atvejus. Didžiausia gairių generuotoja buvo Meta, atsakinga už daugiau nei 27 mln. pranešimų. Tačiau AI generuojami pranešimai kelia didelį iššūkį teisėsaugai. Dėl privatumo apsaugos, numatytos ketvirtuoju pataisos pakeitimu, pareigūnai ir NCMEC negali atidaryti pranešimų be paieškos orderio, nebent socialinių tinklų įmonės darbuotojas juos peržiūrėjo. Šis teisminis reikalavimas sukelia keliasavaites vėlavimus, kai leidžiantis potencialiems įrodymams būti prarastiems ir plėšikams ilgesniam laikotarpiui pasilikti nepastebėtiems.

Vaikų saugumo ekspertai ir advokatai yra susirūpinę dėl šių vėlavimų neigiamo poveikio bendruomenės saugumui. Tyrimai sustoja, o teisėsauga negali imtis nedelsiant veiksmų norint apginti galimus aukas. Kai kuriais atvejais socialinių tinklų įmonės netgi išjungia vartotojų paskyras po pranešimo pateikimo, kas gali lemti būtinų įrodymų pašalinimą iš jų serverių.

Dažnai AI generuoti patarimai neatsižvelgiami, nes jiems trūksta konkretaus informacijos, reikalingos gauti orderį paieškos orderiui pagrįsti. Tai dar labiau apsunkina jau perpildytas teisėsaugos institucijas, kurios neturi pakankamų išteklių šiems patarimams svarstyti svarbesnių prioritetų.

Ekspertai mano, kad priklausomybė nuo AI turinio moderavimo yra nepakankama priemonė. Nors AI gali padėti sumažinti teisėsaugos pareigūnų apkrovą, ji negali pakeisti būtinybės žmogiškai intervencijai. Kaip vienas JAV valstijos prokuroras pastebėjo, AI gali negebėti nustatyti naujos vaikų išnaudojimo medžiagos ir gali analizuoti tik esamus duomenų taškus. Negalima pervertinti žmogiškosios peržiūros svarbos šiuose jautriuose atvejuose.

Dabartinė padėtis kelia nerimą dėl efektyvumo, kurį suteikia AI moderavimas, ir būtinybės didinti išteklius ir paramą teisėsaugos institucijoms, kad jos galėtų kovoti su augančiu vaikų seksualinio išnaudojimo internete reiškiniu.

The source of the article is from the blog klikeri.rs

Privacy policy
Contact