تهدید پنهانی هوش مصنوعی در دسته‌های آزاردهنده کودکان

مواجهه با سوءاستفاده از هوش مصنوعی

استفاده نگران‌کننده‌ای که آدم‌های بدانه‌دار از هوش مصنوعی برای سوء استفاده از کودکان کرده‌اند، یک جنبه ترسناک از سوءاستفاده تکنولوژی روشن کرده است. این متجاوزان توانایی‌های هوش مصنوعی را برای ایجاد تصاویر «دیپ‌فیک» به کار برده‌اند تا قربانیان کوچک خود را در گرفتار ساختن محتواهای سوءاستفاده‌آمیز و اجبار به تولید محتوای خشن وارد کنند، تحریک به یک چرخه خطرناک از سکس‌اکستورژن.

اتحاد در برابر محتوای سوماوراکتیو که توسط هوش مصنوعی تولید می‌شود

هر دو حزب سیاسی اصلی در انگلستان، حزب کارگر و حزب محافظین، در خواست مشترک برای جنایی کردن تولید محتوای صورتی شبیه‌سازی شده، به‌خصوص آن‌هایی که از هوش مصنوعی برای تولید تصاویر افراد واقعی استفاده می‌کنند، به صورت نام مسوول دست داده‌اند. با این حال، تفاهمات بین‌المللی قابل توجهی در مورد مقررات موردنیاز برای مدیریت این فناوری‌های نوپدید وجود دارد.

پرداختن با خطرات پنهان در مجموعه‌ داده‌های آموزشی هوش مصنوعی

اخیرا پژوهشگران دانشگاه استنفورد حقیقت نگران‌کننده‌ای در یکی از بزرگ‌ترین مجموعه‌داده‌های آموزش تصویر هوش مصنوعی برملا آوردند، مجموعه‌داده Laion-5B، که تعداد زیادی از موارد مصرفی محتوای سوپختتی کودکان (CSAM) شامل بود. این مجموعه‌داده گسترده بود و حاوی حدود ۵ میلیارد تصویر بود، که با انجام بررسی دستی غیرمعقول بنظر می‌رسید. این اقدام منجر به یک اسکن اتوماتیک شد که تصاویری که با رکوردهای انتظامی هماهنگ بودند را شناسایی کرد. با این حال، هر چن درست‌كنندگان لائون مجموعه‌داده اسارایی‌بوده را پاک کردند، سیستم‌های هوش مصنوعی آموزش داده‌شده روی لائون-5B همچنان توسط مواد غیرقانونی آلوده شده‌اند.

مدیریت قدرت‌مند هوش مصنوعی برای آسیب‌پذیری

مدل‌های شهرت‌دار هوش مصنوعی مانند Dall-E 3 از OpenAI و معادل‌های گوگل، توسط عدم دسترسی آن‌ها برای دانلود عمومی، نیازمندی می‌كنند كه تمام درخواست‌های تولید تصویر از طریق سیستم‌های مالكی پیش بروند، اجازه می‌دهند كه نظارت و پالایش اضافی صورت گیرد. در مقابل، پروژه‌های بر مبنای منبع باز از آن تبعیتی محافظتی برخوردار نیستند، كه آن‌ها را در مقابل سوءاستفاده رها می‌كند.

در این چالش‌ها داخلی یک معضل مرکزی برای توسعه هوش مصنوعی جاساز است: اطمینان از این‌كه مدل‌ها می‌توانند محتوای صورتی را شناسایی و گزارش كنند بدون این‌كه برای آن آموزش دیده‌شوند. سیاست‌گذاران برای یك روزه شدن كه یك توازن بینادامه‌دهی به نوآوری هوش مصنوعی برمبنای منبع‌های باز و حل معضلات اخلاقی شدیدی که این فناوری ایجاد می‌كند، تشویق می‌كنند. نبرد مقـابل این سوءاستفاده‌های هوش مصنوعی نه تنها شامل اقدامات بیمار پیشگیرانه می‌شود بلكه یك تفهیم اندازه گیره‌ای از سامانه‌های هوش پیچیده را نیز نیازمند است.

سوالات و پاسخ‌های مهم:

س: چگونه تصویر دیپ‌فیک ساخته می‌شود و چگونه توسط آدم‌های بدانه‌استفاده می‌شود؟
پ: تصویر دیپ‌فیک به استفاده از هوش مصنوعی برای ایجاد تصاویر گوشت‌خوردنی شبیه بهاقساقی است که افراد در آن چیزهایی که هرگز انجام نداده‌اند می‌گویند یا انجام می‌دهند. آدم‌های بدانه‌از این تکنولوژی برای جعل مواد صورتی یا تهدید کردن قربانی‌ها (معمولاً اقلیت‌های رقیق) برای تولید محتوای صورتی واقعی سوءاستفاده‌آمیز استفاده می‌كنند.

س: چرا در مورد مقررات مربوط بـه محتوای صورتی تولید شده به وسیله هوش مـصنوعی توافق میان‌اُم‌القرى وجود ندارد؟
P: چالش در طبیعت بین‌المللی اینترنت و هوش مصنوعی است. کشورهای مختلف قوانین و استانداردهای اخلاقی متفاوتی دارند و در حال حاضر چارچوبرنامه قانونی جهانی خاصی که به طور ویژه برای حل و نقل محتوای غیرقانونی تولید شده توسط هوش مصنوعی طراحی شده باشد، وجود ندارد.

س: چه پیامدهایی از سیستم‌های هوش مصنوعی آموزش دیده بر مبنای مجموعه‌داده آلوده وجود دارد؟
پ: سیستم‌های هوش مصنوعی آموزش دیده از مجموعه‌داده‌ها شامل محتوای غیرقانونی ممکن است به طور اتفاقی الگو‌ها یا الگو‌ها را از اینجا بیاموزند, این مواد ممکن است نتیجه درسترو ایجاد محتواهای آسیب‌زا شود. علاوه بر این, اگر این سیستم‌ها استفاده شود یا به اشتراک گذاشته شود، مسئولیت‌های حقوقی بیشتری برای ممکن است پیش آید.

چالش‌های یا چشم‌اندازهای موجود:

1. چالش‌های قانونی و اخلاقی: مدیریت هوش مصنوعی بدون ایجاد انکار نوآوری و احترام به آزادی بیان، در عین حفاظت از افراد، به ویژه کودکان از سواستفاده.

2. چالش‌های فنی: تشخیص و حذف محتوای غیرقانونی از مجموعه‌داده‌های آموزش سخت است به دلیل ابعاد گسترده آن‌ها و نیاز هوش مصنوعی به داده‌های گوناگون برای جلوگیری از تبعیض.

3. نگرانی‌های حریم خصوصی: افزایش نظارت و مانیتورینگ در پلتفرم‌های هوش مصنوعی ممکن است به طور محتمل حریم خصوصی کاربران را از شرط‌ها خارج کند.

مزایا و معایب:

مزایای مدیریت هوش مصنوعی:
– جلوگیری از تولید و توزیع محتوای غیرقانونی صورتی.
– محافظت از کودکان و افراد مستحکم دیگر در برابر انحصار.
– تعیین الگوهای اخلاقی برای استفاده و توسعه هوش مصنوعی.

معایب مدیریت هوش مصنوعی:
– ممکن است دستیابی‌های موشکی پژوهش‌های هوش مصنوعی و پیشرفت فناوری را غیراحتمال کند.
– می‌تواند همکاری و طبیعت مبتنی بر منابع باز کارهای هوش مصنوعی زیادی را محدود کند باعث کند قایلیّه پسوری از جلو بگیرید.
– ریسک مقررات زیادی می‌کند که منجر به سانکسیون تکنیکی برای سرپوش گذاری از سخن پرواز مشروع می‌شود.

پیوندهای مرتبط:
– برای اطلاعات در مورد نگاه‌های سیاسی انگلیس و بحث‌های مرتبط، به سایت پارلمان انگلیس مراجعه کنید.
– برای درک اخلاق و تأثیرات جامعه از هوش مصنوعی، وب‌سایت کنفرانس اخلاق و جامعه هوش مصنوعی مشاوره‌های ارزنده‌ای را ارائه می‌دهد.
– برای وضعیت فعلی پیشرفت‌ها و خطای سیاست‌ها هوش، وب‌سایت دانشگاه استنفورد منبع معتبری برای اطلاعات مستقیما از پژوهشگران درگیر در فراهم‌سازی یافتن CSAM در مجموعه‌داده‌ها می‌باشد.

Privacy policy
Contact