هوش مصنوعی دنیای انتخابات را انقلابی میدهد، اما به عملکرد دموکراتیک خطرات قابل توجهی را به همراه دارد. با نزدیک شدن به انتخابات آمریکا در سال 2024، نگرانیها درباره اطلاعات غیر واقعی، دیپفیکها، و رسانههای گمراهکننده تازهتر از همیشه هستند. خوشبختانه، دولتها و شرکتهای فناوری به وجود مشکلات توجه دارند، اما هنوز کارهای زیادی برای حفظ دموکراسی باقی مانده است.
کنفرانس امنیتی مونیخ اخیر، با حضور رهبران صنعتی از جمله OpenAI، اپل، متا، مایکروسافت، تیکتاک، گوگل و سایران، برگزار شد تا به چالشهای ایجادشده توسط هوش مصنوعی در انتخابات بپردازند. آنها عهد دادند اقداماتی را برای پیگیری منشأ محتوای تولیدشده توسط هوش مصنوعی، شناسایی رسانههای گمراهکننده، و اجرای احتیاطات در برابر حیلههای ایجادشده توسط هوش مصنوعی انجام دهند. اگرچه این تعهدات یک گام در جهت صحیح است، موفقیت آنها بستگی به اجرای موثر آنها دارد.
ظهور فناوری هوش مصنوعی تولیدگر، به پیروزها اجازه میدهد تا تصاویر، فیلمها، و صداهای جعلی واقعگرایانه بسیار واقعی از نامزدها و مقامات ایجاد کنند. این ایجادات میتوانند با هزینهای حداقل و به مقیاس بزرگ به سرعت منتشر شوند. علاوه بر این، چتباتهای مجهز به هوش مصنوعی امکان ایجاد وبسایتهای انتخاباتی جعلی و سایتهای اخبار گمراهکننده را در عرض چند ثانیه فراهم میکنند. این قابلیت، فرصتی برای عوامل بد، هم خارجی و هم داخلی، برای اجرای کمپینهای تأثیرجویی که سخت استبه دنبالشده است.
ادغام هوش مصنوعی تولیدگر با موتورهای جستجو و چتباتها منجر به مواجهه تعدادی بوده است که به دنبال اطلاعات انتخابی هستند، با اطلاعات نادرست روبهرو شدهاند و یا به وبسایتهای منحرف هدایت میشوند. مطالعات نشان دادهاند که ابزارهای معمول هوش مصنوعی اغلب عملکرد ناکامی از خود نشان میدهند هنگام روبرو شدن با برخی از سوالات مربوط به انتخابات. علاوه بر این، فناوریهای هوش مصنوعی سنتی میتوانند به چالشهای تأهل رأیدهندگان کمک کنند و احتمالا منجر به پاکسازیهای نادرست از لیستهای رأیدهندگان شوند.
یک جنبه بسیار حائز اهمیت که نیاز دارد تا توجه شود، رسیدگی به داستانها و تصاویر غلطی است که در دورههای انتخابات گذشته زمینه شدهاند. سیاستهای OpenAI خلق و انتشار محتواها که نشان دهنده مداخلات انتخابی، دستگاههای رأیگیری ناقص، یا تقلبهای گسترده در رأیدهی انجام شده، را به صورت صریح منع نمیکند. یک قاطعیت در خصوص ممنوعیت این دستهها بیشک وضوح و حفاظت بیشتری را برای رأیدهندگان برجستهتر خواهد کرد.
همکاری با توسعهدهندگان شخص ثالث، یکی از زمینههایی است که نیاز به توجه دارد. هنگامی که موتورهای جستجو شخص ثالث از مدلهای OpenAI استفاده میکنند، پاسخهای ارائه شده میتوانند نادرست یا منقضی باشند. الزامات سختگیرانهتری برای شراکتها و ادغام مدلهای OpenAI در موتورهای جستجو و پلتفرمهای دیجیتال، رأیدهندگانی که به دنبال اطلاعات درباره رأیگیری و انتخابات هستند، را بهتر محافظت خواهد کرد.
هوش مصنوعی تولیدگر نمیتواند به تنهایی به این چالشها پاسخ دهد. سایر شرکتهای فناوری بزرگ نیز باید سیاستهای انتخاباتی خود را برای ابزارهای هوش مصنوعی تولیدی منتشر کنند و در مورد روشهای خود شفاف باشند. استاندارد باز برای تزریق محتوا با نشانگرهای دیجیتال باید به طور گستردهای پذیرفته شود.
پرسشهای متداول
The source of the article is from the blog foodnext.nl