Zorgen over de impact van AI op kinderuitbuiting

De vooruitgang van kunstmatige intelligentie (AI) heeft talloze voordelen en ontwikkelingen in verschillende sectoren met zich meegebracht. Echter, te midden van deze vooruitgang komt ook de duistere kant van AI naar boven, omdat experts op het gebied van kinderveiligheid en onderzoekers waarschuwen voor de mogelijke risico’s die het met zich meebrengt bij het verergeren van online uitbuiting.

Volgens het National Center for Missing and Exploited Children (NCMEC) in de Verenigde Staten waren er vorig jaar 4.700 meldingen van AI-gegenereerde inhoud die kinderseksuele uitbuiting afbeeldde. Dit alarmerende aantal duidt op het opkomende probleem dat naar verwachting zal groeien naarmate de AI-technologie zich verder ontwikkelt.

Hoewel het NCMEC nog niet het totale aantal meldingen van kindermisbruikinhoud heeft bekendgemaakt dat het in 2023 van alle bronnen heeft ontvangen, heeft de organisatie wel bekendgemaakt dat ze in 2022 alleen al ongeveer 88,3 miljoen bestanden heeft ontvangen. Deze meldingen komen van generatieve AI-bedrijven zelf, online platforms en individuen die dergelijke verontrustende inhoud tegenkomen.

Het NCMEC speelt een cruciale rol als nationaal meldpunt voor het melden van kindermisbruikinhoud aan rechtshandhavingsinstanties en erkent de dringende noodzaak om dit probleem aan te pakken. John Shehan, de Senior Vice President van het NCMEC, benadrukte dat kinderuitbuiting met behulp van AI onmiskenbaar plaatsvindt.

Onlangs werden de CEO’s van Meta Platforms, X, TikTok, Snap en Discord ondervraagd tijdens een hoorzitting in de Senaat over de veiligheid van kinderen online. Wetgevers hebben deze socialmediabedrijven en berichtenapps ondervraagd over hun inspanningen om kinderen te beschermen tegen online roofdieren.

Onderzoekers van het Stanford Internet Observatory publiceerden in juni een rapport waarin zij wezen op het verontrustende potentieel voor misbruikers om generatieve AI te gebruiken om nieuwe afbeeldingen te creëren die sterk lijken op echte kinderen. Naarmate deze door AI gegenereerde materialen steeds fotorealistischer worden, wordt het steeds moeilijker om onderscheid te maken tussen echte slachtoffers en AI-creaties.

Om dit groeiende probleem aan te pakken, heeft OpenAI, de organisatie achter de populaire ChatGPT, een systeem ingesteld om meldingen door te sturen naar het NCMEC. Daarnaast vinden er gesprekken plaats tussen het NCMEC en andere generatieve AI-bedrijven om soortgelijke maatregelen te treffen.

De opkomst van AI brengt zowel innovatie als verantwoordelijkheden met zich mee. Nu de samenleving blijft vooruitgaan met AI-technologie, is het cruciaal om waakzaam te blijven bij het aanpakken van opkomende zorgen om het welzijn van kwetsbare individuen, vooral kinderen, te waarborgen.

Veelgestelde vragen:

V: Wat is de duistere kant van AI?
A: De duistere kant van AI verwijst naar de potentiële risico’s en negatieve implicaties van kunstmatige intelligentietechnologie, met name bij het verergeren van online uitbuiting.

V: Hoeveel meldingen waren er vorig jaar over AI-gegenereerde inhoud die kinderseksuele uitbuiting afbeeldde?
A: Volgens het NCMEC waren er vorig jaar 4.700 meldingen over AI-gegenereerde inhoud die kinderseksuele uitbuiting afbeeldde.

V: Hoeveel bestanden heeft het NCMEC ontvangen in 2022 in verband met kindermisbruikinhoud?
A: Het NCMEC heeft alleen al in 2022 ongeveer 88,3 miljoen bestanden ontvangen in verband met kindermisbruikinhoud.

V: Wat is de rol van het NCMEC bij het aanpakken van dit probleem?
A: Het NCMEC speelt een cruciale rol als nationaal meldpunt voor het melden van kindermisbruikinhoud aan rechtshandhavingsinstanties.

V: Welke socialmediabedrijven en berichtenapps werden ondervraagd tijdens een hoorzitting in de Senaat over de veiligheid van kinderen online?
A: De CEO’s van Meta Platforms, X, TikTok, Snap en Discord werden ondervraagd tijdens een hoorzitting in de Senaat over de veiligheid van kinderen online.

V: Wat wees het rapport van het Stanford Internet Observatory uit?
A: Het rapport van het Stanford Internet Observatory wees op het verontrustende potentieel voor misbruikers om generatieve AI te gebruiken om nieuwe afbeeldingen te creëren die sterk lijken op echte kinderen.

V: Welke maatregelen hebben OpenAI en andere generatieve AI-bedrijven genomen om dit probleem aan te pakken?
A: OpenAI heeft een systeem ingesteld om meldingen door te sturen naar het NCMEC, en er vinden gesprekken plaats tussen het NCMEC en andere generatieve AI-bedrijven om soortgelijke maatregelen te treffen.

Definities:

– AI (kunstmatige intelligentie): Technologie waarmee machines taken kunnen uitvoeren die normaal menselijke intelligentie vereisen.

– Kindermisbruikinhoud: Inhoud die kinderseksuele uitbuiting of misbruik afbeeldt.

– Generatieve AI: Kunstmatige intelligentie die in staat is nieuwe gegevens of inhoud te genereren, zoals afbeeldingen of tekst.

– NCMEC (National Center for Missing and Exploited Children): Een nationale organisatie die zich richt op het voorkomen van kinderontvoering, kinderseksuele uitbuiting en het opsporen van vermiste kinderen.

– Socialmediabedrijven en berichtenapps: Bedrijven die online platforms en diensten aanbieden waarmee gebruikers verbinding kunnen maken, communiceren en inhoud kunnen delen met anderen.

Suggested related links:
National Center for Missing and Exploited Children
OpenAI
Stanford University

The source of the article is from the blog meltyfan.es

Privacy policy
Contact