אתגר המודלים המייצרים של AI בהקשר של בחירות

למרות הגוף הגובר של ראיונות שתומכים בניצחוןו של הנשיא ג'ו ביידן בבחירות 2020, קיימת כמות ניכרת של רפובליקאים שואפים לאמידות הניצחונו. הספקטיקה הזו נתפצה עקב התפשטות טענות כזבות לגבי התערבויות בבחירות בקרב מועמדים ימין. כעת, עם התפתחות המודלים המייצרים של המודעות המלאכותיות (AI), הבעיה של הפצת דיסינפורמציה הקשורה לבחירות עשויה להיחמר.

דו"ח אחרון ממרכז לקריאה נגד שנאה דיגיטלית (CCDH) הסליח אור על הסיכונים הקשורים ל-Generative AI בפיזור מידע מטעה במהלך בחירות. בעוד חברות הפותחות כלים עבור Generative AI טוענות כי חידושו הפילאר הגפין של הדיסימינציה המדית כדי למנוע את הפצת הדיסינפורמציה הזאת, חוקרי CCDH הצליחו לעקוף את ההליכים הללו ולייצר תמונות מטעה ללא קשר.

חוקרי CCDH בדקו מגוון פלטפורמות Generative AI, כולל ChatGPT Plus, Midjourney, Dream Studio וImage Creator. התוצאות גילו כי Midjourney נטייה לייצר תמונות מובילות כגון בבחירות, באחוז ניחושות של כ-65 אחוז. בניגוד לכך, ChatGPT Plus ייצר תמונות כאלה רק 28 אחוז מתוך הזמן.

אחד הדאגות שהדגיש קלום הוד, ראש המחקר ב-CCDC, היא חוסר המדיניות הולקלרית והכלים המייצגים בפלטפורמות אלו בנוגע ליצירת תמונות שיכולות לשמש לקידום טענות שקריות על בחירות גנובות. הוד דגיש כי הפלטפורמות לא צריכות להתמקד רק במניעת יצירת תמונות מטעות, אלא גם בזיהוי יעיל והסרת התוכן הזה.

בעוד OpenAI נלקחה צעדים לטיפול בבעיה זו, כולל אי אפשור תמונות נוגדות להשתתפות דמוקרטית, פלטפורמות אחרות כמו Midjourney וDream Studio לא פנו בבירור ליצירת תוכן פוליטי או מטעה. זה מעלה דאגות לגבי המוכנות הכוללת של פלטפורמות Generative AI לאבטח את דיוק ואינטגרצית מידע הקשור לבחירות.

הבחירות העתידיות ישמשו כמבחן אמיתי עבור פרוטוקולים האבטחה של פלטפורמות Generative AI. הוד מדגיש את הצורך בקידום מתג פיתוח כלים אפקטיביים למניעת יצירת תמונות מובילות וליישום של פלטפורמות חזקות היכולות לזהות ולהסיר תוכן כזה. פיקוח על תקינות הבחירות ומניעת הפצת דיסינפורמציה צריכה להיות אחריות משותפת בין מפתחי AI, מפעילי הפלטפורמות, ויועצי מדיניות.

The source of the article is from the blog hashtagsroom.com

Privacy policy
Contact