התפשטות טכנולוגיית Deepfake: איום סייבר עולה

השקיית מערכות בינה מלאכותית (AI) מרותחת לתחומים שונים הביאה לגורמים רעים גישה לכלים מתקדמים לביצוע פשעי סייבר, כפי שמפורט על ידי מובילי הסייברסקיוריטי של Kaspersky Research. פיתוח מדאים במאבק זה הוא הזיה עצמית של טכנולוגיית ה'אמתפייק', תמונות, צלילים וסרטונים בני אדם הניתן להבחנה מתוכן המקורי. קבספרסקי הדגישה את הצורך הדחוי ליידאגות ציבורית בנוגע ל'אמתפייק', במיוחד בעודה מתרחבת אפשרות השקר.

טכנולוגיית 'אמתפייק' משתמשת בAI ליצירת כפיות דיגיטליות משכנעות, העדרן לאנשים להופיע כמו שהם אומרים או עושים דברים שלא עשו. עם התפתחות הטכנולוגיה הזו, חקרי קבספרסקי מראים שהייצור של 'אמתפייק' נכנס אף אל פינות הצל של הרשת האופקית, שם נמסרים ושטחיים למכירה בהשפעה כמו הונאה וגניבת מידע.

סבירות לגבי קליפי וידאו ממולצמים עשויה להיות מדהימה, במחיר של כ-300 דולר לדקה, הופכות אותם לנשק יחסית זול אך יעיל לפעילויות פליליות. ולמעשה, למרות המודעות הגוברת, רבים מתמצאים את קשה להבחין בין תמונות ממוצפצות באמת מאלה שנוצרו באמצעות AI. סקרו של קבספרסקי מצביע על הפרש משמעותי בין אלה שמאמינים שהם יכולים לזהות 'אמתפייק' ואלה שבפועל יכולים, הפרש החושף ארגונים לסיכוני בטחון מוגברים.

טכנולוגיית 'אמתפייק' אינה רק דאגה מוסדית; אנשים גם בסיכון כמוה. בעוד כלי המסוגלים לחיקום קול בזמן אמת נמצאים קרובים יותר למציאות, הגורמים הקשורים למידע שקרי והונאה מתרגשים. האיום הגודל הזה אינו מקושר לגיאוגרפיה, ודווח מדווח על להיות קרן Global Risks 2024 בתוך המידע המבוסס על AI כסיכון מוביל עבור אזורים כמו הודו ופקיסטן.

נוף הפוליטי אינו חס, תוך קראת בפקיסטן כאשר דמוי חשיבה, כולל ראש ממשלה קודם עימראן חאן, השתמשו בטכנולוגיות כאלה לקמפיין ולשפיע על דעתה הציבורית. עם תכונות פרשנאות רגולטיביות למנוע את השימוש המותר ב-AI, המאבק נגד פלטנר מחדש נפול בכתפי החוק והמודעות הקולקטיבית של הקהילה הדיגיטלית.

The source of the article is from the blog yanoticias.es

Privacy policy
Contact