Den veksande bruka av AI-apper for å skape nakne bilete

Den raske utviklinga av teknologi har ført med seg både positive og negative påverknader på samfunnet. Ein bekymringsfull trend som har dukka opp, er bruken av kunstig intelligens (AI) -apper av skulebarn for å lage nakne bilete. Ein nyleg regjeringsrapport har framheva denne problemstillinga, og advarar om at ikkje berre lastar barn ned desse appane, men dei deler også bilete ulovleg med venene sine. Vidare utnyttar organiserte kriminelle gjenger desse appane for å presse barn med data-genererte eksplicitte bilete.

Rapporten, skriven av UK Rådet for Internett-sikkerheit, gir retningslinjer for lærarar om korleis dei skal takle problemet med elevane som deler eksplicitte bilete. Den legg vekt på behovet for å behandle AI-genererte bilete, Deepfakes, og «sextortion»-tilfeller med same alvor som tradisjonelle nude bilete. Dette inkluderer å avstå frå å sjå på eller slette bileta, umiddelbart kontakte myndigheitene, og å halde tilbake informasjon frå foreldra i enkelte tilfeller.

Aktivistar og ekspertar har ønskt velkommen dette tiltaket, men det er krav om at det vert teke strengare tiltak av tilsynsorgan som Ofcom, som overvakar Online Safety Act 2023. Kritikarane argumenterer for at ein meir proaktiv og omfattande tilnærming er nødvendig for å dempe spreiinga av AI-nude.

For tida er det ulovleg å dele Deepfake-porno eller AI-nudebilete av vaksne utan deira samtykke. Det er også forbode å true med å dele slikt innhald. Men å skape AI-nudebilete av vaksne er framleis lovleg. På den andre sida, kriminaliserer lova eksplisitt skaping, eigedomsrett og deling av nakne eller seksuelle bilete av barn, inkludert AI-genererte bilete, sidan det utgjer overgrep mot barn.

Det er verdt å merke seg at den samtykkebaserte delinga av eksplicitte bilete mellom enkeltpersonar under 18 år no er kategorisert som ein kriminell handling. I tillegg er det ulovleg for mindreårige å lage og dele AI-nude av sine klassekameratar. Formålet med desse lovene er å verne unge individ frå utnytting og overgrep.

Ekspertar har uttrykt bekymring for tilgjengelegheita av AI-nude-laging app’ar, som har bidratt til ein auking i den virtuelle utnyttinga av kvinner og jenter. Professor Clare McGlynn fra Durham University har identifisert to hovudscenario: unge gutar som bruker desse appane for å lage falske nudes av sine kvinnelige klassekameratar for å trade og dele, og organiserte svindlarar som produserer Deepfake-nudes og bruker dei som utpressingsmateriale. Professor McGlynn legg vekt på behovet for større bevisstgjøring rundt dette problemet og oppfordrar offer å rapportere sine opplevingar utan frykt for skuld.

Sjølv når regjeringsrapporten anerkjenner den signifikante auka «sextortion»-tilfeller drivne av bruken av AI-apper, forsikrar den også publikum om si forpliktelse til nettsikkerheit. Ifølgje ein regjeringstalsperson tilbyr Online Safety Act solide vern for barna og har kriminalisert deling av Deepfake-intime bilete utan samtykke. Sosiale medieplattformer har også fått nye ansvarsområde for å hindre spreiinga av ulovleg innhald, med mogleg botar på milliardar pund.

I lys av desse utviklingane er det diskusjonar om moglege tiltak for å takle dette problemet. Peter Kyle, Arbeidarpartiets skyggeforskningsminister, vurderer angivelig eit forbod mot nakenapper og Deepfake-teknologi. Susie Hargreaves, administrerande direktør i Internet Watch Foundation, legg vekt på den alvorlege trusselen som AI-teknologi utgjer i hendene på kriminelle og kallar til felles handling for å verne barn frå utnytting og overgrep.

The source of the article is from the blog elperiodicodearanjuez.es

Privacy policy
Contact