با وجود افزایش مدارک که حمایت از پیروزی رئیسجمهور جو بایدن در انتخابات سال 2020 را نشان میدهد، همچنان تعداد قابل توجهی از جمهوریخواهان وجود دارند که به مشروعیت پیروزی او شک دارند. این شک دلیل آن است که ادعاهای تقلب در انتخابات در میان نامزدهای راستگرا که در حال رقابت برای موقعیتهای اداری هستند، گسترده شده است. اکنون با ظهور هوش مصنوعی تولیدی، ممکن است مسئله انتشار اطلاعات گمراهکننده مرتبط با انتخابات بدتر شود.
یک گزارش اخیر از مرکز مقابله با انتشار افتراهای دیجیتال (CCDH) نکاتی درباره خطرات مرتبط با هوش مصنوعی تولیدی در انتشار اطلاعات گمراهکننده در طول انتخابات روشن کرده است. در حالی که شرکتهایی که ابزارهای هوش مصنوعی تولیدی توسعه میدهند ادعا میکنند که تدابیری را برای جلوگیری از منتشر شدن چنین اطلاعات گمراهکننده اجرا کردهاند، محققان CCDH توانستند از این تدابیر عبور کنند و تصاویر گمراهکننده ایجاد کنند.
محققان CCDH از انواع پلتفرمهای هوش مصنوعی تولیدی از جمله ChatGPT Plus، Midjourney، Dream Studio و Image Creator آزمایشهایی انجام دادند. نتایج نشان داد که Midjourney به خصوص تمایل زیادی به تولید تصاویر گمراهکننده مرتبط با انتخابات داشته و نرخ دقتی حدود 65 درصد داشت. در مقایسه، ChatGPT Plus تنها در 28 درصد از موارد چنین تصاویری تولید کرد.
یکی از مسائلی که توسط کالوم هود، محقق ارشد CCDH، مورد تأکید قرار گرفت، عدم وجود سیاستهای واضح و تدابیر ایمنی در این پلتفرمها در خصوص ایجاد تصاویری که ممکن است برای ترویج ادعاهای نادرست درباره دزدیده شدن انتخابات استفاده شوند. هود تأکید میکند که پلتفرمها نه تنها باید بر اینکه از ایجاد تصاویر گمراهکننده جلوگیری کنند، بلکه باید به طور مؤثر برای شناسایی و حذف چنین محتواهایی فعالیت کنند.
علیرغم اقداماتی که OpenAI برای حل این مشکل انجام داده است، از جمله عدم مجاز کردن تصاویری که از مشارکت دموکراتیک منع کننده هستند، پلتفرمهای دیگر مانند Midjourney و Dream Studio به طور صریح به مسائل مربوط به ایجاد محتوای سیاسی یا گمراهکننده پرداختهاند. این امر باعث نگرانی درباره آمادگی کلی این پلتفرمهای هوش مصنوعی تولیدی در تضمین دقت و صحت اطلاعات مرتبط با انتخابات میشود.
انتخابات آینده به عنوان یک آزمون واقعی برای پروتکلهای ایمنی پلتفرمهای هوش مصنوعی تولیدی خدمت میکند. هود بر جلوگیری از ایجاد تصاویر گمراهکننده و توسعه ابزارهای مؤثر برای جلوگیری از آنچه محتوای گمراهکننده است، تأکید میکند. تضمین صحت انتخابات و جلوگیری از منتشر شدن اطلاعات گمراهکننده باید یک مسئولیت مشترک بین توسعهدهندگان هوش مصنوعی، اپراتورهای پلتفرم و سیاستگذاران باشد.
The source of the article is from the blog crasel.tk