Puutumishirmud: AI mõju laste ärakasutamisele

Kunstliku intelligentsi (AI) tehnoloogia areng on toonud kaasa palju eeliseid ja edusamme erinevates valdkondades. Siiski on AI tumedam pool tulnud esile, kui lastekaitse eksperdid ja teadlased hoiatavad selle potentsiaalsete ohtude eest, mis võib nõrgendada laste võrgus ärakasutamist.

USA Riikliku Kadunud ja Ära Kasutatud Laste Keskuse (NCMEC) andmetel oli möödunud aastal 4700 teadet AI-loodud sisu kohta, mis kujutas endast lapse seksuaalset ärakasutamist. See häiriv number näitab probleemi tekkimist, mis oodatakse kasvavat koos AI tehnoloogia edasiarendamisega.

Kuigi NCMEC ei ole veel avalikustanud kõigi 2023. aastal saadud lapse kuritarvitamise sisuga teadete koguarvu, teatles organisatsioon, et nad said üksi 2022. aastal umbes 88,3 miljonit faili. Need teated tulevad ise generatiivsest AI ettevõttest, veebiplatvormidest ja neid häirivalt sisult juhuslikult leidnud isikutelt.

Mõistes selle probleemi kiireloomulisust, mängib NCMEC olulist rolli riikliku vahetusorganisatsioonina, kellele esitatakse aruandeid lapse kuritarvitamise sisu kohta õiguskaitseorganitele. John Shehan, vanemasepresident NCMEC-s, rõhutas, et laste ärakasutamine AI abil toimub kahtlemata.

Hiljuti pidid Meta Platforms, X, TikToki, Snapi ja Discordi tegevjuhid vastama küsimustele senati kuulamisel, mis keskendusid online lasteohutusele. Seadusandjad uurisid neid sotsiaalmeedia- ja sõnumiteenuste ettevõtteid nende jõupingutuste kohta laste kaitsmiseks online-röövlite eest.

Stanfordi Interneti Observatooriumi teadlased avaldasid juunis raporti, milles rõhutati muret tekitavat potentsiaali, et kurjategijad saavad kasutada generatiivset AI-d uute piltide loomiseks, mis sarnanevad väga päris lastega. Kuna need AI-loodud materjalid muutuvad üha enam fotorealistlikuks, tekib tõeliste ohvrite ja AI-loomingute vahelise eristamise suur väljakutse.

Selle kasvava probleemiga võitlemiseks on OpenAI, populaarse ChatGPT taga olev organisatsioon, käivitanud süsteemi teadete edastamiseks NCMEC-ile. Lisaks on käimas arutelud NCMEC-i ja teiste generatiivse AI ettevõtete vahel, et luua sarnaseid meetmeid.

AI tõus toob kaasa nii innovatsiooni kui ka vastutuse. Kuna ühiskond jätkab AI tehnoloogia omaksvõtmist, on oluline olla valvas, et tõstatuvatele muredele reageerida ja kaitsta haavatavate isikute, eriti laste heaolu.

Korduma kippuvad küsimused:

K: Mis on AI tumedam pool?
A: AI tumedam pool viitab kunstliku intelligentsi tehnoloogia potentsiaalsetele riskidele ja negatiivsetele tagajärgedele, eriti internetis toimuva ärakasutamise süvendamisel.

K: Kui palju teateid oli eelmisel aastal AI loodud sisu kohta, mis kujutas lapse seksuaalset ärakasutamist?
A: NCMEC andmetel oli eelmisel aastal 4700 teadet AI loodud sisu kohta, mis kujutas lapse seksuaalset ärakasutamist.

K: Kui palju faile saatis NCMEC 2022. aastal seotuna lapse kuritarvitamise sisuga?
A: NCMEC sai üksi 2022. aastal umbes 88,3 miljonit faili seotuna lapse kuritarvitamise sisuga.

K: Milline roll on NCMEC-il selle probleemiga tegelemisel?
A: NCMEC mängib olulist rolli riikliku vahetusorganisatsioonina, kellele esitatakse aruandeid lapse kuritarvitamise sisu kohta õiguskaitseorganitele.

K: Millised sotsiaalmeedia- ja sõnumiteenuste ettevõtted pidid senati kuulamisel vastama küsimustele online lasteohutuse kohta?
A: Meta Platforms, X, TikToki, Snapi ja Discordi tegevjuhid pidid vastama küsimustele senati kuulamisel online lasteohutuse kohta.

K: Mida tõi Stanfordi Interneti Observatooriumi raport esile?
A: Stanfordi Interneti Observatooriumi raport tõi esile murettekitava potentsiaali, mida kurjategijad saavad kasutada generatiivse AI abil uute piltide loomiseks, mis sarnanevad väga päris lastega.

K: Milliseid meetmeid on OpenAI ja teised generatiivse AI ettevõtted võtnud selle probleemi vastu võitlemiseks?
A: OpenAI on käivitanud süsteemi teadete edastamiseks NCMEC-ile ning käivad arutelud NCMEC-i ja teiste generatiivse AI ettevõtete vahel, et luua sarnaseid meetmeid.

Määratlused:

– AI (kunstlik intelligentsus): Tehnoloogia, mis võimaldab masinatel teostada ülesandeid, mis nõuaksid tavaliselt inimintellekti.

– Lapse kuritarvitamise sisu: Sisu, mis kujutab endast lapse seksuaalset ärakasutamist või kuritarvitamist.

– Generatiivne AI: Kunstlik intelligentsus, mis on võimeline looma uusi andmeid või sisu, nagu pildid või tekst.

– NCMEC (Riikliku Kadunud ja Ära Kasutatud Laste Keskus): Riiklik organisatsioon, mis keskendub lapse röövimise, lapse seksuaalse ärakasutamise ennetamisele ja kadunud laste leidmisele.

– Sotsiaalmeedia- ja sõnumiteenuste ettevõtted: Ettevõtted, mis pakuvad online platvorme ja teenuseid kasutajate ühendamiseks, suhtlemiseks ja sisu jagamiseks teistega.

Soovitatavad seotud lingid:
National Center for Missing and Exploited Children
OpenAI
Stanfordi Ülikool

The source of the article is from the blog toumai.es

Privacy policy
Contact