Zvýšení online zneužívání dětí detekováno pomocí technologie AI

Podle nejnovějších poznatků z Národního centra pro neztracené a zneužívané děti (NCMEC) dochází k znepokojujícímu nárůstu online sexuálního zneužívání dětí. Tato nezákonná aktivita se čím dál více zapojuje do syntetického obsahu generovaného umělou inteligencí. Roční zpráva NCMEC CyberTipline odhaluje ohromující 12% nárůst nahlášených případů, překračujících 36,2 milionu, ve srovnání s předchozím rokem.

Většina těchto tipů se týkala distribuce materiálů zobrazujících zneužívání dětí, jako jsou fotografie a videa. Kromě toho došlo k významnému nárůstu hlášení finančního sexuálního vydírání dětí a rodin, které byly manipulovány predátory pomocí AI-vytvořených materiálů zobrazujících sexuální zneužívání dětí (CSAM).

Mluvčí centra zdůraznil přijetí přibližně 4 700 oznámení specificky týkajících se AI-vytvořených obrázků nebo videí zobrazujících sexuální zneužívání dětí, poukazující na závažnost tohoto rostoucího problému.

Získané údaje z databáze ukazují, že v roce 2023 obdrželo CyberTipline přes 35,9 milionů tipů na podezření z případů CSAM nahrávaných ze zahraničí, přičemž více než 90 % pocházelo z mezinárodních zdrojů. Přibližně 1,1 milionu těchto upozornění bylo odesláno policii ve Spojených státech, včetně alarmujícího množství hlášení týkajících se akutního nebezpečí pro dítě.

Počet zpráv týkajících se online zneužívání, což je praktika, kdy jednotlivci kontaktují online osobu, kterou považují za dítě, s úmyslem spáchat sexuální trestný čin, vystřelil o 300 % na 186 000.

Statistiky ze sociálních médií alarmují, že Facebook má nejvíce tipů s více než 17,8 miliony, následovaný Instagramem a WhatsAppem pod Metovou střechou, Googlem, Snapchatem, TikTokem a Twitterem, které všechny přispívají na seznam hlášení odeslaných NCMEC z celkového počtu 245 společností z 1 600 po celém světě, které se účastní programu hlášení případů v kyberprostoru.

NCMEC naznačuje nesrovnalost mezi obrovským množstvím podaných zpráv a jejich kvalitou. Centrum a policejní složky čelí obtížím v intervenci u automatizovaných zpráv, včetně těch generovaných algoritmy pro moderaci obsahu, které by mohly, bez lidského zásahu, překazit možnost policie vidět potenciální zprávy o zneužívání dětí.

NCMEC zdůrazňuje, že omezený počet společností podávajících zprávy, spojený s nízkou kvalitou mnoha zpráv, signalizuje trvající potřebu legislativního a globálního postupu technologické komunity. Je to klíčové k účinnému odvrácení znepokojujícího trendu eskalace online zneužívání dětí.

Nejdůležitější Otázky a Odpovědi:

Q: Jak ovlivňuje technologie AI nával online zneužívání dětí?
A: Technologie AI přispívá ke návalu vytvářením syntetického obsahu, jako jsou AI-vytvořené obrázky nebo videa zobrazující sexuální zneužívání dětí. Tento aspekt komplikuje detekci a snižování takového obsahu, protože může být obtížnější sledovat a může působit důvěryhodněji než tradiční, netvořené AI materiály.

Q: S jakými výzvami souvisejí detekce a hlášení AI-vytvořeného materiálu zobrazujícího sexuální zneužívání dětí (CSAM)?
A: Jedním z hlavních problémů je objem dat, který je třeba kontrolovat, jelikož může přetížit jak technologické, tak lidské zdroje. Kromě toho je obtížné rozlišit mezi AI-vytvořeným a legitimním obsahem, což může vést k chybným negativním (nedostatek identifikace CSAM) a falešným pozitivním (mylná identifikace legitimního obsahu jako CSAM). Stejně tak automatizované systémy hlášení může vyvolávat vysoký počet zpráv, které nemají kvalitu nebo specifické informace potřebné pro účinné jednání policie.

Hlavní Výzvy nebo Kontroverze:
Jednou z hlavních výzev je vyvážení práv na ochranu soukromí s potřebou efektivního monitorovacího a hlášovacího mechanismu. Existuje také kontroverze týkající se odpovědnosti online platforem za dohled nad svým obsahem a do jaké míry by měly být zodpovědné za obsah vytvořený uživateli. Další otázkou je zajištění toho, že technologie AI používaná k detekci drží krok s technologií AI používanou k vytváření zneužívaného syntetického obsahu.

Výhody a Nevýhody:

Výhody:
– AI může rychle prohledávat velké objemy online obsahu pro potenciální CSAM, což umožňuje mnohem efektivnější detekci než manuální procesy.
– AI může provozovat nepřetržitě, detekovat a hlásit CSAM nonstop.
– Technologické společnosti mohou s pomocí AI aktivně prosazovat své podmínky služeb identifikací a odstraňováním zneužívaného obsahu.

Nevýhody:
– AI může nechtěně označovat nezneuživatelský obsah, což může vést k cenzuře nebo obavám o soukromí.
– Sofistikovaný AI-vytvořený CSAM může snadněji unikat detekci než obsah vytvořený tradičními prostředky.
– Predátoři mohou používat AI k cílení na oběti efektivněji prostřednictvím groomingu a manipulace.

Související Odkazy:
Národní centrum pro neztracené a zneužívané děti
Facebook
Instagram
WhatsApp
Google
Snapchat
TikTok
Twitter

Každý odkaz by měl být zkontrolován, aby se ověřilo, že vede na hlavní doménu příslušné organizace nebo sociální platformy. URL adresy uvedené zde jsou pro služby, které jsou známé pro své používání miliony lidí po celém světě a mají relevanci k tématu online zneužívání dětí.

The source of the article is from the blog cheap-sound.com

Privacy policy
Contact