تحقیقات اخیر صحیفه گاردین نشان داده است که شرکتهای رسانه اجتماعی که بر نرمافزارهای هوش مصنوعی برای مدیریت بسترهای خود استوار هستند، گزارشهای غیربازده درباره حوادث آزار جنسی کودکان را تولید میکنند که باعث تأخیر در تحقیقات پلیسی در آمریکا و شناسایی ممکن پیش میشود. این شرکتها طبق قوانین مصوب، ملزم به گزارش هر ماده آزار جنسی کودکان که در بسترهای خود تشخیص داده شده، به مرکز ملی کودکان گمشده و بهرهبرداری شدهاند ( NCMEC ) هستند. سپس این گزارشها به نیروهای انتظامی مرتبط ارسال میشوند.
در سال 2022، سازمان NCMEC بیش از ۳۲ میلیون گزارش مشکوک به استفاده جنسی کودکان را دریافت کرده بود و مِتا به عنوان بزرگترین گزارشدهنده مسئولیت بیش از ۲۷ میلیون گزارش را برعهده داشت. با این حال، استفاده از گزارشهای تولیدشده توسط هوش مصنوعی برای قوانین انفجاری یک چالش قابل توجه برای نیروهای انتظامی است. به دلیل تأمین حریم خصوصی طبق تبصره چهارم قانون اساسی، افسران و NCMEC مجاز به باز کردن گزارشها بدون یک حکم جستجو نیستند مگر اینکه یک نفر انسان در شرکت رسانهای مورد بررسی قرار گرفته باشد. این الزام قانونی منجر به تأخیر چند هفتهای شده است که منجر به از دست دادن شواهد ممکن و بقاء متجاوزان برای دورههای بیشتر شده است.
متخصصان امنیت کودک و وکلای قانونی نگرانی خود را نسبت به تأثیر مخرب این تأخیرها بر امنیت جامعه بیان کردهاند. تحقیقات متوقف شده و نیروهای انتظامی قادر به اقدام فوری برای محافظت از قربانیان ممکن نیستند. در برخی موارد، شرکتهای رسانه اجتماعی حتی بعد از ارسال گزارش، حسابهای کاربری را غیرفعال میکنند که میتواند منجر به حذف شواهد حیاتی از سرورهای آنها شود.
نکات تولیدشده توسط هوش مصنوعی بیشتر به دلیل نداشتن اطلاعات مشخص لازم برای دریافت حکم احتمالی برای یک حکم جستجو مورد بررسی قرار نمیگیرند. این به علاوه بار بیشتری بر عهده نیروهای انتظامی افزوده است که برای اولویتبندی این نکات منابع لازم را ندارند.
اعتماد به هوش مصنوعی برای محتواها به نظر کارشناسان یک راه حل ناکافی است. هر چند هوش مصنوعی میتواند به کاهش وظیفه افسران نیروی انتظامی کمک کند، اما نمیتواند به جای نیاز به دخالت انسانی قرار بگیرد.
وضعیت فعلی نگرانیها را درباره تأثیربخشی مدیریت با هوش مصنوعی در پلیس و نیاز به افزایش منابع و پشتیبانی برای نیروهای انتظامی در مقابله با مسئله رو به رشد آزار جنسی کودکان آنلاین، القا کرده است.
The source of the article is from the blog aovotice.cz