Bekymringsfullt: AI sin påverknad på utnytting av barn

Framgangen til kunstig intelligens (AI) har ført med seg mange fordeler og framsteg i ulike bransjar. Men midt i denne framgangen har AI si mørke side blitt synleg, då eksperter på barnesikkerheit og forskarar varnar for dei potensielle risikoane det medfører når det gjeld forverring av online-utnytting.

I følgje det amerikanske nasjonale senteret for sakna og utnytta barn (NCMEC) kom det i fjor inn 4 700 rapportar om AI-generert innhald som viste seksuell utnytting av barn. Denne alarmerande tala tyder på at eit problem har oppstått, og det forventast å auke i omfang ettersom AI-teknologien held fram med å utvikle seg.

Sjølv om NCMEC enno ikkje har offentleggjort det totale talet på rapportar om barnemishandling det fekk i frå alle kjelder i 2023, opplyste organisasjonen at dei mottok omtrent 88,3 millionar filer berre i 2022. Desse rapportane kjem frå sjølve genererande AI-selskapa, online plattformer og enkeltpersonar som snublar over slik forstyrrende innhald.

For å møte dette alvorlege behovet har NCMEC ein avgjerande rolle som nasjonalt oppklaringshus for rapportering av barnemishandling til rettshandshevingsetatane. John Shehan, den styresmaktene visepresidenten i NCMEC, understrekte at utnytting av barn som blir mogleggjort av AI, faktisk skjer.

Nyleg vart CEOane i Meta Platforms, X, TikTok, Snap og Discord stillt spørsmål i eit senathøyring fokusert på nettsikkerheit for barn. Lovgivarane undersøkte desse sosiale media- og meldingstenesteselskapa om tiltaka deira for å beskytte barn mot nettpredatorar.

Forskarar ved Stanford Internet Observatory kom med ein rapport i juni der dei peika på den bekymringsfulle potensialen for overgriparar til å bruke generativ AI for å lage nye bilete som liknar ekte barn. Då desse AI-genererte materiala blir stadig meir fotorealistiske, blir det ei stor utfordring å skilje mellom verkelege offer og AI-skapningar.

For å takle dette veksande problemet har OpenAI, organisasjonen bak den populære ChatGPT, etablert eit system for å formidle rapportar til NCMEC. I tillegg blir det ført samtalar mellom NCMEC og andre genererande AI-selskap for å etablere liknande tiltak.

AI sin framvekst medfører både innovasjon og ansvar. I takt med at samfunnet omfamnar AI-teknologien, er det avgjerande å halde vakt og ta tak i bekymringsfulle problem for å beskytte sårbare individ, spesielt barn.

Ofte stilte spørsmål:

Spørsmål: Kva er den mørke sia av AI?
Svar: Den mørke sia av AI refererer til dei potensielle risikoane og negative konsekvensane av kunstig intelligens-teknologien, spesielt når det gjeld å forverre online-utnytting.

Spørsmål: Kor mange rapportar var det i fjor om AI-generert innhald som viste seksuell utnytting av barn?
Svar: Ifølgje NCMEC kom det inn 4 700 rapportar i fjor om AI-generert innhald som viste seksuell utnytting av barn.

Spørsmål: Kor mange filer mottok NCMEC i 2022 knytt til barnemishandling?
Svar: NCMEC mottok omtrent 88,3 millionar filer berre i 2022 knytt til barnemishandling.

Spørsmål: Kva rolle har NCMEC i å ta tak i dette problemet?
Svar: NCMEC har ein avgjerande rolle som nasjonalt oppklaringshus for rapportering av barnemishandling til rettshandshevingsetatane.

Spørsmål: Kva sosiale media- og meldingstenesteselskap vart stilte spørsmål om nettsikkerheit for barn i ein senathøyring?
Svar: CEOane i Meta Platforms, X, TikTok, Snap og Discord vart stilte spørsmål om nettsikkerheit for barn i ein senathøyring.

Spørsmål: Kva peika rapporten frå Stanford Internet Observatory på?
Svar: Rapporten frå Stanford Internet Observatory peika på det bekymringsfulle potensialet for overgriparar til å bruke generativ AI for å lage nye bilete som liknar ekte barn.

Spørsmål: Kva tiltak har OpenAI og andre genererande AI-selskap tatt for å takle dette problemet?
Svar: OpenAI har etablert eit system for å formidle rapportar til NCMEC, og det blir ført samtalar mellom NCMEC og andre genererande AI-selskap for å etablere liknande tiltak.

Definisjonar:

– AI (kunstig intelligens): Teknologi som gjer det mogleg for maskiner å utføre oppgåver som vanlegvis ville krevd menneskeleg intelligens.

– Barnemishandling: Innhald som viser seksuell utnytting eller misbruk av barn.

– Generativ AI: Kunstig intelligens som er i stand til å generere ny data eller innhald, som bilete eller tekst.

– NCMEC (nasjonale senteret for sakna og utnytta barn): Ein nasjonal organisasjon som fokuserer på å førebygge barnebortføring, seksuell utnytting av barn og å finne sakna barn.

– Sosiale media- og meldingstenesteselskap: Selskap som tilbyr nettbaserte plattformer og tenester for brukarar å kople seg saman, kommunisere og dele innhald med andre.

Foreslåtte relaterte lenker:
Nasjonale senteret for sakna og utnytta barn
OpenAI
Stanford University

The source of the article is from the blog queerfeed.com.br

Privacy policy
Contact