در عرصهٔ سیاست، استفادهٔ روز افزون از فناوری هوش مصنوعی (AI) نگرانی و هراس گستردهای را در بین جامعه به وجود آورده است در حالی که انتخابات ریاستجمهوری آمریکا در سال 2024 نزدیک میشود.
چندین مورد اخیر اطلاعات غلطی که توسط AI تولید شدهاند، منجر به بحث عمومی شدهاند و با ترسهایی که در حال افزایش است، نگرانیهایی بر سر آیندهٔ انتخابات وارد شده است. مثالهای چشمگیر شامل یک ویدیوی deepfake که وایس پرزیدنت کامالا هریس را تقلید میکند، یک ویدیوی ویرایش شده از استفاده از اصطلاحات ناپسند توسط رئیسجمهور بایدن و یک تصویر دستکاری شده از ترامپ که دستگیر میشود میشوند.
متخصصان هشدار میدهند که از فناوری AI ممکن است برای فریب دادن رأیدهندگان، سوق دادن به نیتهای رایدهندگان، یا حتی از شرکت نکردن آنها در انتخابات آتی استفاده شود که میتواند شکافهای اجتماعی عمیق یک بارهٔ وجودی در ایالات متحده را تشدید کند.
در پاسخ به این تهدید طازج، بیش از پیش تقاضایی برای نیروهای فناوری وجود دارد تا کنترلهای سختتری را اعمال کنند. در حالی که بسیاری از شرکتها مراقبت از محتوا را در رسانههای اجتماعی کاهش دادهاند، تقاضایی برای ایجاد مکانیزمهای سختگیرانهتری از حکومتیابی AI به مرور به وجود آمده است.
هفته گذشته، مدیرعامل تسلا، الون ماسک، یک ویدیوی deepfake از کامالا هریس را در پلتفرم X خود به اشتراک گذاشت که در آن صدا وی که جعلی بود، ادعا میکرد که بایدن بیماری دمانس دارد و ناتوانی اداره مملکت را دارد. این ویدیو دارای برچسب وضوحی به عنوان طنز نبود و تنها یک شکلک خندوانه از وضعیت استفاده کرده بود. ماسک بعدها توضیح داد که قصد داشته به عنوان قطعهای طناز شود. پژوهشگران نگران این هستند که بینندگان ممکن است این را به اعتبار خودتحقیری و انتقاد بایدن از خود درک کنند.
استفاده از اطلاعات غلط تولید شده توسط AI نگرانیهای عمیقتری ایجاد کرده است، با روند خاصی در انتشار تصاویر و ویدیوهایی که هدفشان تشویق به خشم و شدید نمودن اختلافات طایفی در سیاست است. هر چند نگرانکننده، سناریوی پراکندن محتواهایی تخصصیتر که طراحی شدهاند برای تحریک خشم و افزایش تقسیموتقسیم طایفهای رعایت میشود.
علاوه بر این، مواردی از تماسهای تلفنی خودکار با فریبدادن افراد از شرکت کندن رایدهندگان هم وارد شده است. یک نظرسنجی نشان داده که بیش از نیمی از آمریکاییان بر این باورند که اطلاعات غلطی که توسط AI تولید شدهاند، بر نتیجه انتخابات سال 2024 تأثیر خواهند گذاشت و تقریبا یک سوم از آنها اعتماد خود به نتایج انتخابات را به عنوان موجبی برای آن بیان کردهاند.
چندین شرکت فناوری از توسعهٔ سیستمهای برچسبگذاری محتوای AI خود تأکید کردهاند. به علاوه، بیش از 200 سازمان فعال، تدابیر فوری برای مقابله با اطلاعات غلطی که توسط AI تولید شدهاند، مطلبی جداگانه برای تبلیغات سیاسی با استفاده از فناوری deepfake را ممنوع کنند، پیشنهاد دادهاند.
نهادهای نظارتی هشدار میدهند که محیط آنلاین کنونی اشباع شده با اطلاعات نادرست است، که تهدیدی برای ایجاد گیجی بین رأیدهندگان است. آنها تأکید میکنند که شرکتهای پلتفرم باید فرایند بهبود مربوطه را برای ادرس دهی به چالشهایی که به واسطه چیزهایی مثل deepfakes بروز میکنند، تسریع دهند.
نگرانیهای در حال افزایش اطراف اطلاعات غلطی تولید شده توسط AI در گفتمان سیاسی
همچون سایهای از اطلاعات غلط تولید شده توسط AI بر تنظیمات سیاسی، لایههای جدیدی از پیچیدگی و خطرات به وجود آمده است. فراتر از موارد تقابلی جدید AI، یک سوال بحرانی وارد سطح جلوه میکند: چگونه میتوانیم محتوای معتبر را از تقلبهای تولید شده توسط AI در حوزه گفتمان سیاسی تمایز دهیم؟
یکی از چالشهای اصلی در مقابله با اطلاعات غلط تولید شده توسط AI در پیشرفت سریع الگوریتمهای AI است که تشخیص آن را هر چه بیشتر مشکل میکند. قابلیت AI برای سازش و یادگیری از هر انتشار اطلاعات نادرست، یک مانع قوی را در مقابله با محتوای گولزننده در پیامرسانی سیاسی به وجود میآورد.
یکی از مهمترین اختلافات مرتبط با گسترش AI در اطلاعات غلط، دوروچالت اخلاقی پیرامون تنظیم آزادی بیان است. در حالی که نیاز به تنبیه گسترش اطلاعات نادرست و deepfakes وجود دارد، نگرانیهایی دربارهٔ نفوذ پتانسیلی در آزادی بیان و حق گفتمان سیاسی بدون سانسور زیاد وجود دارند.
مزایای AI در گفتمان سیاسی میتواند در پتانسیلش برای بهینهسازی انتشار اطلاعات و افزایش کارآیی ارتباطی یافت شود. از تجزیهوتحلیل مجموعهدادههای بسیار بزرگ تا پیامرسانی شخصیسازی شده، ابزارهای AI میتواند راهکارها و استراتژیهای ارتباطی ارزشمندی ارائه دهد. با این حال، سوءاستفاده از AI برای انتشار اطلاعات غلط تهدیدی برای اعتماد به نهادهای دموکراتیک است و دیگری بین شهروندان جدل پراکنده میکند.
از زاویهٔ مخالف، معایب اطلاعات غلط تولید شده توسط AI عمیق و گسترده است. از خطر به سلامتی انتخابات تا تشدید تقسیمات اجتماعی، قصد ناتنی پشت محتواهای چنین مطلبی به آن است که تحولی در تاریخچهٔ دموکراسی ایجاد کند. به علاوه، اثرات روانی بر افراد عرضهشده به داستانهای سیاسی گولزننده میتواند منجر به تقسیموتقسیمی و شکست گفتمان شهروندی شود.
برای آشنایی بیشتر با این موضوع و بررسی راهکارهای احتمالی، خوانندگان میتوانند به منابع قابل اعتماد همچون سایت World Economic Forum و Brookings Institution مراجعه کنند. این سازمانها بر تجزیه و تحلیل گستردهای دربارهٔ تهدیدات اطلاعات غلط تولید شده توسط AI و نیاز فوری برای تلاشهای مشترک در راستای مقابله با این موضوع حیاتی ارایه کردهاند.