Izraisītas bažas: AI ietekme uz bērnu izmantošanu

Mākslīgās intelekta (AI) tehnoloģijas attīstība ir pavērusi daudzas priekšrocības un progresu dažādās nozarēs. Tomēr, šajā progresā, ir parādījies AI tumšais sāncensis, kad bērnu drošības eksperti un pētnieki brīdina par potenciālajiem riskiem, ko tas rada, pastiprinot tiešsaistes izmantošanu.

ASV Nacionālajam centram par pazudušiem un izmantotiem bērniem (NCMEC) pagājušajā gadā bija 4700 ziņojumi par AI radītu saturu, kas attēloja bērnu seksuālo izmantošanu. Šis satraucošais skaitlis norāda, ka problēma kļūst redzama un ir gaidāma tās izaugsme, turpinot attīstīties AI tehnoloģijai.

NCMEC vēl nav atklājis kopējo bērnu ļaunprātīga izmantošanas satura ziņojumu skaitu, ko tas saņem no visiem avotiem 2023. gadā, taču organizācija atklāja, ka tikai 2022. gadā tā saņēma aptuveni 88,3 miljonus failu. Šie ziņojumi nāk no pašiem ģenerējošiem AI uzņēmumiem, tiešsaistes platformām un indivīdiem, kuri nejauši sastop šādu traucējošu saturu.

Atzīstot steidzamo nepieciešamību risināt šo problēmu, NCMEC spēlē būtisku lomu kā nacionālais centrālais punkts, kas pārraida informāciju par bērnu ļaunprātīgu izmantošanas saturu likuma izpildes iestādēm. Džons Šihans, NCMEC vecākais izpilddirektora vietnieks, uzsvēra, ka AI atvieglojumā notiek neapstrīdami bērnu izmantošana.

Nesen Meta Platforms, X, TikTok, Snap un Discord vadītāji saskārās ar jautājumiem Senātā sēdes laikā, kas bija veltīta tiešsaistes bērnu drošībai. Likumdevēji pārbaudīja šos sociālo mediju un ziņu sūtīšanas uzņēmumus par to centieniem aizsargāt bērnus no tiešsaistes roņiem.

Stanfordas interneta observatorijas pētnieki jūnijā izdeva ziņojumu, kas izceļ potenciālo risku, ka noziedznieki var izmantot generatīvo AI, lai radītu jaunas bildes, kas tuvāk atbilst īstiem bērniem. Šādi AI ģenerēti materiāli kļūst arvien fotoreālistiskāki, kas rada nozīmīgu izaicinājumu atšķirt starp īstiem upuriem un AI radījumiem.

Lai cīnītos ar šo augošo problēmu, populārais ChatGPT aizsākusi organizācija OpenAI ir ieviesusi sistēmu, lai pārsūtītu ziņojumus uz NCMEC. Turklāt NCMEC un citu generatīvo AI uzņēmumu starpā norit sarunas, lai izveidotu līdzīgus pasākumus.

AI attīstība rada inovāciju un atbildību. Kad sabiedrība turpina iepazīt AI tehnoloģiju, ir ļoti svarīgi pastāvīgi būt uzmanīgiem, risinot jaunas bažas, lai nodrošinātu neaizsargāto indivīdu, īpaši bērnu, labklājību.

Bieži uzdoti jautājumi:

J: Kas ir AI tumšā puse?
A: AI tumšā puse attiecas uz potenciālajiem riskiem un negatīvajām sekām mākslīgā intelekta tehnoloģijām, jo īpaši pasliktinot tiešsaistes izmantošanu.

J: Cik ziņojumi bija pagājušajā gadā, attiecas uz AI radītu saturu, kas attēlo bērnu seksuālo izmantošanu?
A: Saskaņā ar NCMEC, pagājušajā gadā bija 4700 ziņojumu par AI radītu saturu, kas attēloja bērnu seksuālo izmantošanu.

J: Cik daudz failu NCMEC saņēma 2022. gadā, kas saistīti ar bērnu ļaunprātīga izmantošanas saturu?
A: NCMEC tikai 2022. gadā saņēma aptuveni 88,3 miljonus failu, kas saistīti ar bērnu ļaunprātīgu izmantošanu.

J: Kāda ir NCMEC loma šīs problēmas risināšanā?
A: NCMEC spēlē būtisku lomu kā nacionālais centrālais punkts, kas pārraida informāciju par bērnu ļaunprātīgu izmantošanas saturu likuma izpildes iestādēm.

J: Kuri sociālo mediju un ziņu sūtīšanas uzņēmumi tika uzdots jautājumi Senāta sēdē saistībā ar tiešsaistes bērnu drošību?
A: Meta Platforms, X, TikTok, Snap un Discord vadītāji tika uzdots jautājumi Senāta sēdē par tiešsaistes bērnu drošību.

J: Ko izcela Stanfordas interneta observatorijas ziņojums?
A: Stanfordas interneta observatorijas ziņojums izceļ potenciālo risku, ka noziedznieki var izmantot generatīvo AI, lai radītu jaunas bildes, kas tuvāk atbilst īstiem bērniem.

J: Kādus pasākumus OpenAI un citi generatīvo AI uzņēmumi ir veikuši, lai cīnītos ar šo problēmu?
A: OpenAI ir ieviesusi sistēmu, lai pārsūtītu ziņojumus NCMEC, un notiek sarunas starp NCMEC un citiem generatīvo AI uzņēmumiem, lai izveidotu līdzīgus pasākumus.

Definīcijas:

– AI (mākslīgā intelekta): Tehnoloģija, kas ļauj mašīnām veikt uzdevumus, kas parasti prasītu cilvēka intelektu.

– Bērnu ļaunprātīga izmantošanas saturs: Saturu, kas attēlo bērnu seksuālo izmantošanu vai izmantošanu.

– Generatīvais AI: Mākslīgā intelekta, kas su capable kapabls ģenerēt jaunus datus vai saturu, piemēram, attēlus vai tekstu.

– NCMEC (Nacionālais centrs par pazudušiem un izmantotiem bērniem): Nacionāla organizācija, kas koncentrējas uz bērnu nolaupīšanas, bērnu seksuālās izmantošanas novēršanu un pazudušo bērnu atrašanu.

– Sociālo mediju un ziņu sūtīšanas uzņēmumi: Uzņēmumi, kas piedāvā tiešsaistes platformas un pakalpojumus, lai lietotāji varētu sazināties, komunicēt un kopīgot saturu ar citiem.

Ieteiktās saistītās saites:
Nacionālais centrs par pazudušiem un izmantotiem bērniem
OpenAI
Stanfordas universitāte

The source of the article is from the blog karacasanime.com.ve

Privacy policy
Contact