Социалните медии и изкуствен интелект затрудняват полицейските разследвания на случаи на сексуално насилие срещу деца

Едно скорошно разследване, проведено от вестник „Гардиън“, разкрива, че социалните медийни компании, които се доверяват на софтуер за изкуствен интелект (ИИ), за да модерират платформите си, генерират неизползваеми доклади за случаи на сексуално насилие срещу деца, саботирайки разследванията на полицията в САЩ и забавяйки идентифицирането на потенциални извършители. Тези компании са задължени по закон да докладват всяко обнаружено материално доказателство за сексуално насилие срещу деца на Националния център за изчезналите и злоупотребени деца (NCMEC), който после препраща информацията на съответните правоохранителни органи.

През 2022 г., NCMEC получи над 32 милиона доклада за подозрителна експлоатация на деца, като Meta беше най-големият докладчик с над 27 милиона доклада. Въпреки това, използването на доклади, генерирани от ИИ, налага значително предизвикателство за полицията. Поради закрилите на поверителност, предвидени в четвъртия изменение, офицерите и NCMEC не са позволени да разглеждат докладите без съдебно разрешение, освен ако човек от социалната медийна компания не е прегледал съдържанието. Това правно изискване води до забавяне от седмици, което дава възможност потенциални доказателства да бъдат загубени и виновниците да останат недетектирани за по-дълъг период.

Експерти по безопасност на децата и адвокати изразиха загриженост за вредата от тези забавяния върху безопасността в общността. Разследванията се блокират, а правоохранителните органи не могат да предприемат незабавни действия за защита на потенциалните жертви. В някои случаи социалните медийни компании дори деактивират потребителски акаунти след представяне на доклад, което може да доведе до изтриване на важни доказателства от техните сървъри.

Типичните доклади, генерирани от ИИ, често не се разследват, тъй като липсват необходимата информация, необходима за получаване на заповед за съдебен обиск. Това поставя допълнително тежест върху вече претоварени правоохранителни органи, които нямат достатъчно ресурси да отделят приоритет на тези подсказки.

Зависимостта от ИИ за модериране на съдържанието е считана от експертите за незадоволително решение. Въпреки че ИИ може да помогне за облекчаване на тежестта, която пада върху служителите на правоприлагащите органи, тя не може да замени необходимостта от човешко вмешателство. Както е подчертано от прокурор от Масачузетс, ИИ може да не е в състояние да идентифицира нов материал относно злоупотреба с деца и може само да анализира наличните данни. Значимостта на човешкото прегледане не може да бъде недооценена, когато става въпрос за тези чувствителни случаи.

Текущата ситуация насърчава загриженост относно ефективността на модерацията от ИИ и необходимостта от повече ресурси и подкрепа за правоохранителните органи за справяне с нарастващия проблем на онлайн сексуално насилие срещу деца.

The source of the article is from the blog maestropasta.cz

Privacy policy
Contact