مواجهه با سوءاستفاده از هوش مصنوعی
استفاده نگرانکنندهای که آدمهای بدانهدار از هوش مصنوعی برای سوء استفاده از کودکان کردهاند، یک جنبه ترسناک از سوءاستفاده تکنولوژی روشن کرده است. این متجاوزان تواناییهای هوش مصنوعی را برای ایجاد تصاویر «دیپفیک» به کار بردهاند تا قربانیان کوچک خود را در گرفتار ساختن محتواهای سوءاستفادهآمیز و اجبار به تولید محتوای خشن وارد کنند، تحریک به یک چرخه خطرناک از سکساکستورژن.
اتحاد در برابر محتوای سوماوراکتیو که توسط هوش مصنوعی تولید میشود
هر دو حزب سیاسی اصلی در انگلستان، حزب کارگر و حزب محافظین، در خواست مشترک برای جنایی کردن تولید محتوای صورتی شبیهسازی شده، بهخصوص آنهایی که از هوش مصنوعی برای تولید تصاویر افراد واقعی استفاده میکنند، به صورت نام مسوول دست دادهاند. با این حال، تفاهمات بینالمللی قابل توجهی در مورد مقررات موردنیاز برای مدیریت این فناوریهای نوپدید وجود دارد.
پرداختن با خطرات پنهان در مجموعه دادههای آموزشی هوش مصنوعی
اخیرا پژوهشگران دانشگاه استنفورد حقیقت نگرانکنندهای در یکی از بزرگترین مجموعهدادههای آموزش تصویر هوش مصنوعی برملا آوردند، مجموعهداده Laion-5B، که تعداد زیادی از موارد مصرفی محتوای سوپختتی کودکان (CSAM) شامل بود. این مجموعهداده گسترده بود و حاوی حدود ۵ میلیارد تصویر بود، که با انجام بررسی دستی غیرمعقول بنظر میرسید. این اقدام منجر به یک اسکن اتوماتیک شد که تصاویری که با رکوردهای انتظامی هماهنگ بودند را شناسایی کرد. با این حال، هر چن درستكنندگان لائون مجموعهداده اساراییبوده را پاک کردند، سیستمهای هوش مصنوعی آموزش دادهشده روی لائون-5B همچنان توسط مواد غیرقانونی آلوده شدهاند.
مدیریت قدرتمند هوش مصنوعی برای آسیبپذیری
مدلهای شهرتدار هوش مصنوعی مانند Dall-E 3 از OpenAI و معادلهای گوگل، توسط عدم دسترسی آنها برای دانلود عمومی، نیازمندی میكنند كه تمام درخواستهای تولید تصویر از طریق سیستمهای مالكی پیش بروند، اجازه میدهند كه نظارت و پالایش اضافی صورت گیرد. در مقابل، پروژههای بر مبنای منبع باز از آن تبعیتی محافظتی برخوردار نیستند، كه آنها را در مقابل سوءاستفاده رها میكند.
در این چالشها داخلی یک معضل مرکزی برای توسعه هوش مصنوعی جاساز است: اطمینان از اینكه مدلها میتوانند محتوای صورتی را شناسایی و گزارش كنند بدون اینكه برای آن آموزش دیدهشوند. سیاستگذاران برای یك روزه شدن كه یك توازن بینادامهدهی به نوآوری هوش مصنوعی برمبنای منبعهای باز و حل معضلات اخلاقی شدیدی که این فناوری ایجاد میكند، تشویق میكنند. نبرد مقـابل این سوءاستفادههای هوش مصنوعی نه تنها شامل اقدامات بیمار پیشگیرانه میشود بلكه یك تفهیم اندازه گیرهای از سامانههای هوش پیچیده را نیز نیازمند است.
سوالات و پاسخهای مهم:
س: چگونه تصویر دیپفیک ساخته میشود و چگونه توسط آدمهای بدانهاستفاده میشود؟
پ: تصویر دیپفیک به استفاده از هوش مصنوعی برای ایجاد تصاویر گوشتخوردنی شبیه بهاقساقی است که افراد در آن چیزهایی که هرگز انجام ندادهاند میگویند یا انجام میدهند. آدمهای بدانهاز این تکنولوژی برای جعل مواد صورتی یا تهدید کردن قربانیها (معمولاً اقلیتهای رقیق) برای تولید محتوای صورتی واقعی سوءاستفادهآمیز استفاده میكنند.
س: چرا در مورد مقررات مربوط بـه محتوای صورتی تولید شده به وسیله هوش مـصنوعی توافق میاناُمالقرى وجود ندارد؟
P: چالش در طبیعت بینالمللی اینترنت و هوش مصنوعی است. کشورهای مختلف قوانین و استانداردهای اخلاقی متفاوتی دارند و در حال حاضر چارچوبرنامه قانونی جهانی خاصی که به طور ویژه برای حل و نقل محتوای غیرقانونی تولید شده توسط هوش مصنوعی طراحی شده باشد، وجود ندارد.
س: چه پیامدهایی از سیستمهای هوش مصنوعی آموزش دیده بر مبنای مجموعهداده آلوده وجود دارد؟
پ: سیستمهای هوش مصنوعی آموزش دیده از مجموعهدادهها شامل محتوای غیرقانونی ممکن است به طور اتفاقی الگوها یا الگوها را از اینجا بیاموزند, این مواد ممکن است نتیجه درسترو ایجاد محتواهای آسیبزا شود. علاوه بر این, اگر این سیستمها استفاده شود یا به اشتراک گذاشته شود، مسئولیتهای حقوقی بیشتری برای ممکن است پیش آید.
چالشهای یا چشماندازهای موجود:
1. چالشهای قانونی و اخلاقی: مدیریت هوش مصنوعی بدون ایجاد انکار نوآوری و احترام به آزادی بیان، در عین حفاظت از افراد، به ویژه کودکان از سواستفاده.
2. چالشهای فنی: تشخیص و حذف محتوای غیرقانونی از مجموعهدادههای آموزش سخت است به دلیل ابعاد گسترده آنها و نیاز هوش مصنوعی به دادههای گوناگون برای جلوگیری از تبعیض.
3. نگرانیهای حریم خصوصی: افزایش نظارت و مانیتورینگ در پلتفرمهای هوش مصنوعی ممکن است به طور محتمل حریم خصوصی کاربران را از شرطها خارج کند.
مزایا و معایب:
مزایای مدیریت هوش مصنوعی:
– جلوگیری از تولید و توزیع محتوای غیرقانونی صورتی.
– محافظت از کودکان و افراد مستحکم دیگر در برابر انحصار.
– تعیین الگوهای اخلاقی برای استفاده و توسعه هوش مصنوعی.
معایب مدیریت هوش مصنوعی:
– ممکن است دستیابیهای موشکی پژوهشهای هوش مصنوعی و پیشرفت فناوری را غیراحتمال کند.
– میتواند همکاری و طبیعت مبتنی بر منابع باز کارهای هوش مصنوعی زیادی را محدود کند باعث کند قایلیّه پسوری از جلو بگیرید.
– ریسک مقررات زیادی میکند که منجر به سانکسیون تکنیکی برای سرپوش گذاری از سخن پرواز مشروع میشود.
پیوندهای مرتبط:
– برای اطلاعات در مورد نگاههای سیاسی انگلیس و بحثهای مرتبط، به سایت پارلمان انگلیس مراجعه کنید.
– برای درک اخلاق و تأثیرات جامعه از هوش مصنوعی، وبسایت کنفرانس اخلاق و جامعه هوش مصنوعی مشاورههای ارزندهای را ارائه میدهد.
– برای وضعیت فعلی پیشرفتها و خطای سیاستها هوش، وبسایت دانشگاه استنفورد منبع معتبری برای اطلاعات مستقیما از پژوهشگران درگیر در فراهمسازی یافتن CSAM در مجموعهدادهها میباشد.