Hedendaags Perspectief op het Gebruik van AI-Apps voor het Creëren van Nudity

De snelle vooruitgang van technologie heeft zowel positieve als negatieve impact gehad op de samenleving. Eén zorgwekkende trend die naar voren is gekomen, is het gebruik van kunstmatige intelligentie (AI) apps door schoolkinderen om naaktafbeeldingen te creëren. Een recent overheidsrapport heeft dit probleem benadrukt en waarschuwt dat kinderen niet alleen deze apps downloaden, maar ook de afbeeldingen illegaal delen met hun vrienden. Bovendien maken georganiseerde criminele bendes misbruik van deze apps om kinderen te chanteren met computer-gegenereerde expliciete afbeeldingen.

Het rapport, geschreven door de UK Raad voor Internetveiligheid, biedt richtlijnen voor leraren over hoe ze het probleem van studenten die expliciete afbeeldingen delen, kunnen aanpakken. Het benadrukt de noodzaak om AI-gegenereerde afbeeldingen, deepfakes en “sextortion” gevallen met dezelfde ernst te behandelen als traditionele naaktafbeeldingen. Dit omvat het vermijden van het bekijken of verwijderen van de afbeeldingen, onmiddellijk contact opnemen met de autoriteiten en informatie achterhouden van ouders in bepaalde gevallen.

Actievoerders en experts hebben deze richtlijnen toegejuicht, maar er is ook opgeroepen tot strengere maatregelen door regelgevende instanties zoals Ofcom, die toezicht houdt op de Online Veiligheidswet van 2023. Critici betogen dat een meer proactieve en alomvattende aanpak nodig is om de verspreiding van AI-nudes te beteugelen.

Op dit moment is het illegaal om deepfake porno of AI naaktbeelden van volwassenen te delen zonder hun toestemming. Het is ook verboden te dreigen dergelijke inhoud te delen. Echter, het creëren van AI-nudes van volwassenen is nog steeds legaal. Aan de andere kant criminaliseert de wet expliciet het creëren, bezitten en delen van naakt- of seksuele afbeeldingen van kinderen, inclusief AI gegenereerde foto’s, omdat het kindermisbruik betreft.

Het is vermeldenswaardig dat het consensuele delen van expliciete afbeeldingen onder individuen onder de 18 jaar nu als een strafbaar feit wordt gecategoriseerd. Bovendien is het voor minderjarigen verboden om AI-nudes te creëren en delen van hun klasgenoten. Het doel van deze wetten is jonge individuen te beschermen tegen uitbuiting en misbruik.

Experts hebben hun zorgen geuit over de toegankelijkheid van AI-naaktmaak-apps, die hebben bijgedragen aan een toename van virtuele exploitatie van vrouwen en meisjes. Twee hoofdscenario’s zijn geïdentificeerd door Professor Clare McGlynn van de Universiteit van Durham: jongens die deze apps gebruiken om valse nudes van hun vrouwelijke klasgenoten te maken voor handel en delen, en georganiseerde oplichters die deepfake nudes produceren en deze als chanteermateriaal gebruiken. Professor McGlynn benadrukt de noodzaak van grotere bewustwording rond dit probleem en spoort slachtoffers aan hun ervaringen te rapporteren zonder angst voor blaam.

Terwijl het regeringsrapport de aanzienlijke toename van “sextortion” gevallen als gevolg van het gebruik van AI-apps erkent, verzekert het ook het publiek van haar toewijding aan online veiligheid. Volgens een woordvoerder van de regering biedt de Online Veiligheidswet robuuste bescherming voor kinderen en heeft het het delen van deepfake intieme afbeeldingen zonder toestemming strafbaar gesteld. Ook hebben sociale media platforms nieuwe verantwoordelijkheden gekregen om de verspreiding van illegale inhoud tegen te gaan, met mogelijke boetes die in de miljarden ponden kunnen lopen.

Naar aanleiding van deze ontwikkelingen zijn er gesprekken gaande over mogelijke maatregelen om dit probleem aan te pakken. Peter Kyle, schaduwsecretaris van Wetenschap van de Labourpartij, overweegt naar verluidt een verbod op naaktapps en deepfake-technologie. Susie Hargreaves, CEO van de Internet Watch Foundation, benadrukt de ernstige bedreiging die AI-technologie vormt in de handen van criminelen en roept op tot collectieve actie om kinderen te beschermen tegen exploitatie en misbruik.

Veelgestelde Vragen (FAQ)

The source of the article is from the blog crasel.tk

Privacy policy
Contact