השפעת הבדיחה על השקר: השימוש במערכות חכמות ליצירת תקליטי וידאו

האקס-נשיא דונלד טראמפ חוזר לכותרות עם טענתו האחרונה שמערכות חכמות (AI) הושמשו ליצירת תקליטי וידאו משחזוריים. בפוסט ב-Truth Social, טראמפ ניפץ בחריפות את התקליטים שהוצגו בתקופת עדיו של רוברט הור, היועץ המיוחד לנשיא ג'ו ביידן שחקר את טעויותיו בטיפוח מסמכים ממויינים. אך כפי שאושר על ידי Gizmodo, התקליטים ה-32 שהובאו היו באמת קטעים אמיתיים מהופעותיו הציבוריות של טראמפ וראיונותיו במשך השנים.

למרות הראיות, טראמפ ממשיך לטעון שטכנולוגיית AI הועסקה בשינוי התקליטים, תוך יצירת הרגשה כי יש לו זיכרון גרוע. טקטיקה זו מאפשרת לפוליטיקאים להסיט ביקורת על ידי טענה שיכולת צילום מליצה של מדיה ׳מאוקראית׳ היא תוצר של קטעי וידאו האטומים מתוך הקשר.

המקרה מסליח אור על האתגר המוליך של בדיקת טענות שנאמרות על ידי ציבוריות ככל שטכנולוגיה ממשיכה להתקדם. עם התפתחותם של טכנולוגיות ״דיפפייק״, זה נהיה עוד יותר חשוב לבדוק מידע ולאמת את תוקפיותו.

שאלות נפוצות

ש: מהו המשמע של מונח AI (מערכות חכמות)?
ת: מערכת חכמה מתייחסת להדמית חכמה של אדם במכונות שמתוות לבצע משימות הדורשות בדרך כלל חכמת אדם, כמו תפיסת חזותית, זיהוי שפה, קבלת החלטות ופתרון בעיות.

ש: מהו Deepfake?
ת: Deepfakes הם תוכן מנופח או מדווח, כגון וידאו או תמונות, שבהם מוחלפים מראה או קולו של האדם באדם אחר באמצעות טכנולוגיית AI.

ש: איך אפשר לאמת את אימותיות הווידאו?
ת: אימות אימותיות הווידאו יכול להיות אתגר, אך ישנם שלבים שניתן לקחת להערכת ההאמינות שלו. אלו כוללים ניתוח מקור הווידאו, השוואה למקורות אמינים נוספים וחקירת אירועים נוספים או הקשר הקיים סביב הווידאו.

ש: האם נפוליטיקאים תדריכ טענה ש- AI משמשת נגדם?
ת: אם כי זה לא נדיר לפוליטיקאים להאשים אחרים בשימוש AI לטעות במוכן, חשוב להעריך את טענות כאלו בצורה ביקור ולהיסתמך על ראיות ניתן לבדוק כדי להגיע למסקנות.

מקור: Gizmodo

מומלץ: לצפות בסרטון המוטבע כאן:

The source of the article is from the blog macnifico.pt

Privacy policy
Contact