ترولهای آنلاین در پلتفرمهایی مانند 4chan از ابزارهای هوش مصنوعی برای منتشر کردن مطالب آزاردهنده و نژادپرستانه استفاده میکنند. این ابزارها کاربران را قادر میسازند تصاویر را تغییر داده و صداهای جعلی ایجاد کنند و این کار باعث آسیب جبران ناپذیری به افرادی میشود که پیش از این در مقابل سازمانهایی مانند هیات پارول لوئیزیانا حضور داشتهاند. هرچند محتوای تغییر یافته به صورت گستردهای به فراتر از 4chan منتشر نشده است، اما متخصصان هشدار میدهند که این موضوع یک نگاه وحشتناک به پتانسیل آزاردهی آنلاین براساس هوش مصنوعی خدمت میکند.
این پلتفرمهای حاشیهای اغلب به عنوان محلی برای پذیرش فناوریهای جدیدی مانند هوش مصنوعی عمل میکنند و به کاربران اجازه میدهند نگرشهای متطرفانه خود را ریشه کن کنند و آنها را به فضاهای سراسری پرتاب کنند. ظهور ابزارهای تولید تصاویر مخصوص ساخت مطالب وحشتناک جنسی بزرگترین نگرانی است. این ابزارها مانند Dall-E و Midjourney به کاربران امکان میدهند تصاویر صریحی را فقط با ارائه توصیف متنی ایجاد کنند.
بازرسان و شرکتهای فناوری با چالشهایی که توسط این ابزارهای هوش مصنوعی ایجاد میشود، مواجه هستند. در حالی که قوانین فدرال کمبود دارند، برخی از ایالتهایی مانند ایلینویس، کالیفرنیا، ویرجینیا و نیویورک اقداماتی برای ممنوعیت ایجاد و توزیع محتواهای مخالف با رضایت حاصل از هوش مصنوعی انجام دادهاند. هیات پارول لوئیزیانا بهطور خودی خود تحقیقی درباره ایجاد تصاویر تغییریافته توسط ترولهای آنلاین را آغاز کرده است.
از کاربری دیگر هوش مصنوعی که نگرانیها را برانگیخته است، تقلید صدا است. ابزاری هوش مصنوعی توسعه یافته توسط «الونلبز» امکان ایجاد نمونههای دیجیتال باورپذیری از صدای فردی را فراهم میکند. این ابزار به نادرستی برای ایجاد فایلهای صوتی جعلی از افراد مشهور مورد سوء استفاده قرار گرفته است. تدابیر محدودی که توسط الونلبز انجام میشود آنچنان موثر نبودهاند که پخش صداهای تولید شده توسط هوش مصنوعی بر روی پلتفرمهایی مانند TikTok و YouTube جاییکه غالباً اطلاعات ناصحیح سیاسی به اشتراک گذاشته میشود، مهار شود.
علاوه بر این، ابزارهای هوش مصنوعی منبع باز مانند مدل زبان لاما از متای همواره توسط کاربران در 4chan بهره برداری شدهاند تا ایدههای ضد یهودیت، نقاط صحبت راستین، محتواهای شهوانی، میمهای نژادپرستانه و موارد دیگر را ایجاد کنند. این مسئله به خطرات پتانسیلی منتشر کردن کد نرمافزارهای هوش مصنوعی بدون تضمینها و نظارتهای مورد نیاز، اشاره میکند.
با پیشرفت هوش مصنوعی، ضروری است که بازرسان و شرکتهای فناوری در توسعه تدابیر محکمی برای مقابله با سوء استفاده از این ابزارها همکاری کنند. توازن مسئولیت و شفافیت امری حیاتی برای اطمینان حاصل از اینکه هوش مصنوعی به منظور اهداف شرورانه به کار نمیرود و افراد از اثرات آسیبزننده توهین و کمپینهای نفرت آمیز آنلاین محافظت میشوند.
The source of the article is from the blog aovotice.cz