پلیس هنگام تعقیب قضایی همهگیر ارزونه و بدبیارانهای با چالشهای قابل توجه روبهرو است، که باعث میشود سخت باشد که در مورد تصاویر آزاردهنده و جنسی کودکانی که توسط هوش مصنوعی تولید شدهاند، کار کنند. در جلسه زیرکمیته بررسی خودکار سلطنتی، نماینده کنگره آنا پائولینا لونا (جمهوریخواه از فلوریدا) به این موضوع اشاره کرد و اظهار داشت که قوانین فعلی در برابر محتوای آزاردهنده جنسی کودکان (CSAM) نیاز به استفاده از عکس واقعی یک کودک برای ادامه رسیدگی دارند.
بهوسیله فناوری هوش مصنوعی تولیدی، تصاویر ویدیویی عادی از کودکان میتواند به محتوای خیالی و جنسی تبدیل شود، که باعث میشود بازپرده برداشتن اقدامات قانونی برای پلیس دشوار شود. “از طریق استفاده از عکسهای زیرکارانه از کودکان، فردنیهای بد به کمک هوش مصنوعی اقدام به تغییر دادن شان به وضعیتهای جنسی و حرجآور میکنند و سپس با توجه به جزئیات قانونی، از دستگیری فرار میکنند”، توضیح داد کارل سزابو، معاون رئیس سازمان غیرانتخابی NetChoice.
در پاسخ به این چالشها، تمامی ۵۰ دادستان عمومی نامهای دو جانبه را ارائه کردند که کنگره را به مطالعه استفاده از هوش مصنوعی در بهرهبرداری از کودکان تشویق میکند و راهکارهای مؤثر برای جلوگیری و پرداختن به چنین بهرهبرداریهایی ارائه میدهد. در نامه بهویژه، خواسته شده است که باید CSAM تولید شده توسط هوش مصنوعی به صورت صریح توسط قوانین پوشش داده شود، که این اجازه را به تعقیب اجرایی متهمین میدهد.
در این حین، نماینده کنگره لونا بر مشکلات مواجهه FBI در دستگیری افرادی که در این جرایم دست داشتهاند تأکید داد. از آنجا که تصاویر تولید شده توسط هوش مصنوعی شامل آسیب واقعی به کودکان نمیشود، چارچوبهای قانونی موجود در نگه داشتن مجرمان مسئول برای آنها کوتاهی میکند. FBI علاقه به پرداختن به این مسئله را بیان کرده است، اما آنها با موانع قابل توجهی در تلاشهای خود مواجه هستند.
در حالی که CSAM تولید شده توسط هوش مصنوعی در حال حاضر نسبت کوچکی از محتوای آزاردهنده در آنترنت را تشکیل میدهد، توقع میرود که به دلیل آسانی استفاده، چندجهتی و طبیعت بسیار واقعگرایانه برنامههای هوش مصنوعی تشکیل گردد. جان شیهان، معاون رئیس بخش کودکان بهرهبردار و گردش از ملی در معرض دیدگاه است که اهمیت بر پیشگیری از این مسئله تأکید میکند. او به تحقیقاتی که توسط ابرندای موسسه اینترنت استنفورد صورت گرفته است، اشاره کرد که هوش مصنوعی تولیدی به عوامل مرتبط در افزایش تولید CSAM شناخته شده است.
NCMEC CyberTipline راهاندازی کرده است، سامانه گزارشدهی متمرکز کشوری برای بهرهبرداری کودک از آنترنت. با وجود تعداد روزافزونی از برنامهها و خدماتی که از هوش مصنوعی چندجهتی استفاده میکنند، تنها تعداد کمی از شرکتها گزارشها را به CyberTipline ارسال کردهاند. شیهان بر اهمیت آن که شرکتهای فناوری باید ایمانداری را هنگام توسعه این ابزارها اولویت قرار دهند و با سازمانهایی مانند NCMEC همکاری کنند تا از تولید محتوای جنسی و چرمی کودکان جلوگیری کنند.
متاسفانه، ادارات پلیس با چالشهای قابل توجهی در بررسی و ادعا کردن موارد CSAM تولید شده توسط هوش مصنوعی مواجه هستند. حجم عظیم موارد و کمبود منابع، توانایی آنها را در هدف گرفتن بدترین مجرمان موجود را محدود میکند. نماینده کنگره نیک لانگورثی (جمهوریخواه از نیویورک) بر آمارهای نگرانکننده ارائه شده توسط جان پیزورو، مدیرعامل سازمان غیرانتخابی مرغاب ، در جلسه کمیته دیوان عالی سنا تأکید داد. در یک دوره سه ماهه، بیش از ۹۹،۰۰۰ آدرس IP در ایالات متحده CSAMهای شناختهشده را توزیع کردهاند، در حالی که تنها ۷۸۲ پرونده تحقیق شد.
برای مقابله مؤثر با این مشکل، ضروری است که کنگره اقدام کند. با پوشش صریح CSAM تولید شده توسط هوش مصنوعی در قانون، این به نیروهای پلیس اجازه و ابزارهای لازم را برای دستگیری مجرمان میدهد. تلاشهای مشترک نهادهای دولتی، شرکتهای فناوری و سازمانهای غیرانتفاعی در حفاظت از کودکان در برابر این جرائم وحشتناک بسیار ضروری است.
پرسشهای متداول
چیست محتوای جنسی کودکان تولید شده توسط هوش مصنوعی؟
محتوای جنسی کودکان تولید شده توسط هوش مصنوعی به محتوای شایع تصویری که کودکان به تصویر میکشند، اشاره دارد که با استفاده از فناوری هوش مصنوعی تولید شدهاند. این فرارها به استفاده از الگوریتمها و مدلهای هوش مصنوعی برای جابهجایی تصاویر عادی کودکان به محتوای جنسی و آزاردهنده میپردازد.
چرا پلیس دچار چالش در ادعای محتوای جنسی کودکان تولید شده توسط هوش مصنوعی است؟
پلیس با چالشهای چشمگیری در ادعای محتوای جنسی کودکان تولید شده توسط هوش مصنوعی مواجه است، زیرا قوانین فعلی معمولاً نیاز به استفاده از عکس واقعی یک کودک برای ادامه قانونی دارند. محتوای تولید شده توسط هوش مصنوعی شامل آسیب به کودکان واقعی نمیشود، که باعث میشود دشوار باشد مجرمان را زیر قوانین موجود مسئول دانست.
چه پیامدهایی برای محتوای جنسی کودکان تولید شده توسط هوش مصنوعی وجود دارد؟
محتوای جنسی کودکان تولید شده توسط هوش مصنوعی به افزایش محتوای آزاردهنده و جنسی کودکان منجر میشود. این یک خطر قابلتوجه برای حریم خصوصی، ایمنی و رفاه کودکان است و میتواند چرخه بهرهبرداری را تداوم دهد.
چه تدابیری برای پرداختن به این مشکل اتخاذ شده است؟
دادستانهای عمومی از تمامی ایالات به کنگره فراخواندهاند که تحقیق کرده و راهکارهایی برای پرداختن به بهرهبرداری کودکان از تکنولوژی هوش مصنوعی ارائه کنند. آنها بهویژه بر قوانینی که به صورت صریح CSAM تولید شده توسط هوش مصنوعی را پوشش دهد، تأکید میکنند تا بتوانند اقدام قانونی را انجام دهند. همکاری بین ادارات پلیس، شرکتهای فناوری و سازمانهایی مانند مرکز ملی کودکان گمشده و بهرهبرداری شده بسیار حیاتی است.
چگونه مردم میتوانند به مبارزه با محتوای جنسی کودکان تولید شده توسط هوش مصنوعی کمک کنند؟
جمهور نقش حیاتی در گزارش موارد محتوای جنسی کودکان تولید شده توسط هوش مصنوعی دارد. اگر به هر نوع محتوای مشکوک یا آزاردهنده مربوط به کودکان برخوردی، باید آن را به ارگانهای مربوط گزارش دهید، مانند سامانه CyberTipline NCMEC. به علاوه، آگاهی از این مسئله و پشتیبانی از سازمانهایی که به حفاظت از کودکان در برابر بهرهبرداریهای آنلاین میکوشند، تفاوتی ایجاد میکند.
The source of the article is from the blog qhubo.com.ni