تهدید رو به افزایش تبلیغات اطلاعات غلط تولید شده توسط هوش مصنوعی در گفتمان سیاسی

Start

در عرصهٔ سیاست، استفادهٔ روز افزون از فناوری هوش مصنوعی (AI) نگرانی و هراس گسترده‌ای را در بین جامعه به وجود آورده است در حالی که انتخابات ریاست‌جمهوری آمریکا در سال 2024 نزدیک می‌شود.

چندین مورد اخیر اطلاعات غلطی که توسط AI تولید شده‌اند، منجر به بحث عمومی شده‌اند و با ترس‌هایی که در حال افزایش است، نگرانی‌هایی بر سر آیندهٔ انتخابات وارد شده است. مثال‌های چشمگیر شامل یک ویدیوی deepfake که وایس پرزیدنت کامالا هریس را تقلید می‌کند، یک ویدیوی ویرایش شده از استفاده از اصطلاحات ناپسند توسط رئیس‌جمهور بایدن و یک تصویر دستکاری شده از ترامپ که دستگیر می‌شود می‌شوند.

متخصصان هشدار می‌دهند که از فناوری AI ممکن است برای فریب دادن رأی‌دهندگان، سوق دادن به نیت‌های رای‌دهندگان، یا حتی از شرکت نکردن آن‌ها در انتخابات آتی استفاده شود که می‌تواند شکاف‌های اجتماعی عمیق یک بارهٔ وجودی در ایالات متحده را تشدید کند.

در پاسخ به این تهدید طازج، بیش از پیش تقاضایی برای نیروهای فناوری وجود دارد تا کنترل‌های سخت‌تری را اعمال کنند. در حالی که بسیاری از شرکت‌ها مراقبت از محتوا را در رسانه‌های اجتماعی کاهش داده‌اند، تقاضایی برای ایجاد مکانیزم‌های سخت‌گیرانه‌تری از حکومتیابی AI به مرور به وجود آمده است.

هفته گذشته، مدیرعامل تسلا، الون ماسک، یک ویدیوی deepfake از کامالا هریس را در پلتفرم X خود به اشتراک گذاشت که در آن صدا وی که جعلی بود، ادعا می‌کرد که بایدن بیماری دمانس دارد و ناتوانی اداره مملکت را دارد. این ویدیو دارای برچسب وضوحی به عنوان طنز نبود و تنها یک شکلک خندوانه از وضعیت استفاده کرده بود. ماسک بعدها توضیح داد که قصد داشته به عنوان قطعه‌ای طناز شود. پژوهشگران نگران این هستند که بینندگان ممکن است این را به اعتبار خودتحقیری و انتقاد بایدن از خود درک کنند.

استفاده از اطلاعات غلط تولید شده توسط AI نگرانی‌های عمیق‌تری ایجاد کرده است، با روند خاصی در انتشار تصاویر و ویدیوهایی که هدفشان تشویق به خشم و شدید نمودن اختلافات طایفی در سیاست است. هر چند نگران‌کننده، سناریوی پراکندن محتواهایی تخصصی‌تر که طراحی شده‌اند برای تحریک خشم و افزایش تقسیم‌وتقسیم طایفه‌ای رعایت می‌شود.

علاوه بر این، مواردی از تماس‌های تلفنی خودکار با فریب‌دادن افراد از شرکت کندن رای‌دهندگان هم وارد شده است. یک نظرسنجی نشان داده که بیش از نیمی از آمریکاییان بر این باورند که اطلاعات غلطی که توسط AI تولید شده‌اند، بر نتیجه انتخابات سال 2024 تأثیر خواهند گذاشت و تقریبا یک سوم از آن‌ها اعتماد خود به نتایج انتخابات را به عنوان موجبی برای آن بیان کرده‌اند.

چندین شرکت فناوری از توسعهٔ سیستم‌های برچسب‌گذاری محتوای AI خود تأکید کرده‌اند. به علاوه، بیش از 200 سازمان فعال، تدابیر فوری برای مقابله با اطلاعات غلطی که توسط AI تولید شده‌اند، مطلبی جداگانه برای تبلیغات سیاسی با استفاده از فناوری deepfake را ممنوع کنند، پیشنهاد داده‌اند.

نهادهای نظارتی هشدار می‌دهند که محیط آنلاین کنونی اشباع شده با اطلاعات نادرست است، که تهدیدی برای ایجاد گیجی بین رأی‌دهندگان است. آن‌ها تأکید می‌کنند که شرکت‌های پلتفرم باید فرایند بهبود مربوطه را برای ادرس دهی به چالش‌هایی که به واسطه چیزهایی مثل deepfakes بروز می‌کنند، تسریع دهند.

نگرانی‌های در حال افزایش اطراف اطلاعات غلطی تولید شده توسط AI در گفتمان سیاسی

همچون سایه‌ای از اطلاعات غلط تولید شده توسط AI بر تنظیمات سیاسی، لایه‌های جدیدی از پیچیدگی و خطرات به وجود آمده است. فراتر از موارد تقابلی جدید AI، یک سوال بحرانی وارد سطح جلوه می‌کند: چگونه می‌توانیم محتوای معتبر را از تقلب‌های تولید شده توسط AI در حوزه گفتمان سیاسی تمایز دهیم؟

یکی از چالش‌های اصلی در مقابله با اطلاعات غلط تولید شده توسط AI در پیشرفت سریع الگوریتم‌های AI است که تشخیص آن را هر چه بیشتر مشکل می‌کند. قابلیت AI برای سازش و یادگیری از هر انتشار اطلاعات نادرست، یک مانع قوی را در مقابله با محتوای گول‌زننده در پیام‌رسانی سیاسی به وجود می‌آورد.

یکی از مهمترین اختلافات مرتبط با گسترش AI در اطلاعات غلط، دوروچالت اخلاقی پیرامون تنظیم آزادی بیان است. در حالی که نیاز به تنبیه گسترش اطلاعات نادرست و deepfakes وجود دارد، نگرانی‌هایی دربارهٔ نفوذ پتانسیلی در آزادی بیان و حق گفتمان سیاسی بدون سانسور زیاد وجود دارند.

مزایای AI در گفتمان سیاسی می‌تواند در پتانسیلش برای بهینه‌سازی انتشار اطلاعات و افزایش کارآیی ارتباطی یافت شود. از تجزیه‌وتحلیل مجموعه‌داده‌های بسیار بزرگ تا پیام‌رسانی شخصی‌سازی شده، ابزارهای AI می‌تواند راهکارها و استراتژی‌های ارتباطی ارزشمندی ارائه دهد. با این حال، سوءاستفاده از AI برای انتشار اطلاعات غلط تهدیدی برای اعتماد به نهادهای دموکراتیک است و دیگری بین شهروندان جدل پراکنده می‌کند.

از زاویهٔ مخالف، معایب اطلاعات غلط تولید شده توسط AI عمیق و گسترده است. از خطر به سلامتی انتخابات تا تشدید تقسیمات اجتماعی، قصد ناتنی پشت محتواهای چنین مطلبی به آن است که تحولی در تاریخچهٔ دموکراسی ایجاد کند. به علاوه، اثرات روانی بر افراد عرضه‌شده به داستان‌های سیاسی گول‌زننده می‌تواند منجر به تقسیم‌وتقسیمی و شکست گفتمان شهروندی شود.

برای آشنایی بیشتر با این موضوع و بررسی راهکارهای احتمالی، خوانندگان می‌توانند به منابع قابل اعتماد همچون سایت World Economic Forum و Brookings Institution مراجعه کنند. این سازمان‌ها بر تجزیه و تحلیل گسترده‌ای دربارهٔ تهدیدات اطلاعات غلط تولید شده توسط AI و نیاز فوری برای تلاش‌های مشترک در راستای مقابله با این موضوع حیاتی ارایه کرده‌اند.

Privacy policy
Contact

Don't Miss

The Impact of OpenAI’s Decision on AI Development in China

تأثیر تصمیم OpenAI در توسعه هوش مصنوعی در چین

دسترسی OpenAI از چین محدود شد: OpenAI با اقدامی جسور،
Addressing the Rise of Online Safety Concerns for Minors

برخورده با افزایش نگرانی‌های امنیتی آنلاین برای کودکان

یک روند نگران‌کننده فاش شده است در شهر کوچکی در