ترکیب هوش مصنوعی و ترول‌های اینترنتی: ترکیبی خطرناک

ترول‌های آنلاین در پلتفرم‌هایی مانند 4chan از ابزارهای هوش مصنوعی برای منتشر کردن مطالب آزاردهنده و نژادپرستانه استفاده می‌کنند. این ابزارها کاربران را قادر می‌سازند تصاویر را تغییر داده و صداهای جعلی ایجاد کنند و این کار باعث آسیب جبران ناپذیری به افرادی می‌شود که پیش از این در مقابل سازمان‌هایی مانند هیات پارول لوئیزیانا حضور داشته‌اند. هرچند محتوای تغییر یافته به صورت گسترده‌ای به فراتر از 4chan منتشر نشده است، اما متخصصان هشدار می‌دهند که این موضوع یک نگاه وحشتناک به پتانسیل آزاردهی آنلاین براساس هوش مصنوعی خدمت می‌کند.

این پلتفرم‌های حاشیه‌ای اغلب به عنوان محلی برای پذیرش فناوری‌های جدیدی مانند هوش مصنوعی عمل می‌کنند و به کاربران اجازه می‌دهند نگرش‌های متطرفانه خود را ریشه کن کنند و آنها را به فضاهای سراسری پرتاب کنند. ظهور ابزارهای تولید تصاویر مخصوص ساخت مطالب وحشتناک جنسی بزرگترین نگرانی است. این ابزارها مانند Dall-E و Midjourney به کاربران امکان می‌دهند تصاویر صریحی را فقط با ارائه توصیف متنی ایجاد کنند.

بازرسان و شرکت‌های فناوری با چالش‌هایی که توسط این ابزارهای هوش مصنوعی ایجاد می‌شود، مواجه هستند. در حالی که قوانین فدرال کمبود دارند، برخی از ایالت‌هایی مانند ایلینویس، کالیفرنیا، ویرجینیا و نیویورک اقداماتی برای ممنوعیت ایجاد و توزیع محتواهای مخالف با رضایت حاصل از هوش مصنوعی انجام داده‌اند. هیات پارول لوئیزیانا به‌طور خودی خود تحقیقی درباره ایجاد تصاویر تغییر‌یافته توسط ترول‌های آنلاین را آغاز کرده است.

از کاربری دیگر هوش مصنوعی که نگرانی‌ها را برانگیخته است، تقلید صدا است. ابزاری هوش مصنوعی توسعه یافته توسط «الون‌لبز» امکان ایجاد نمونه‌های دیجیتال باورپذیری از صدای فردی را فراهم می‌کند. این ابزار به نادرستی برای ایجاد فایل‌های صوتی جعلی از افراد مشهور مورد سوء استفاده قرار گرفته است. تدابیر محدودی که توسط الون‌لبز انجام می‌شود آنچنان موثر نبوده‌اند که پخش صداهای تولید شده توسط هوش مصنوعی بر روی پلتفرم‌هایی مانند TikTok و YouTube جایی‌که غالباً اطلاعات ناصحیح سیاسی به اشتراک گذاشته می‌شود، مهار شود.

علاوه بر این، ابزارهای هوش مصنوعی منبع باز مانند مدل زبان لاما از متای همواره توسط کاربران در 4chan بهره برداری شده‌اند تا ایده‌های ضد یهودیت، نقاط صحبت راستین، محتواهای شهوانی، میم‌های نژادپرستانه و موارد دیگر را ایجاد کنند. این مسئله به خطرات پتانسیلی منتشر کردن کد نرم‌افزارهای هوش مصنوعی بدون تضمین‌ها و نظارت‌های مورد نیاز، اشاره می‌کند.

با پیشرفت هوش مصنوعی، ضروری است که بازرسان و شرکت‌های فناوری در توسعه تدابیر محکمی برای مقابله با سوء استفاده از این ابزارها همکاری کنند. توازن مسئولیت و شفافیت امری حیاتی برای اطمینان حاصل از اینکه هوش مصنوعی به منظور اهداف شرورانه به کار نمی‌رود و افراد از اثرات آسیب‌زننده توهین و کمپین‌های نفرت آمیز آنلاین محافظت می‌شوند.

The source of the article is from the blog aovotice.cz

Privacy policy
Contact