25 בן שנה פיתח רנסומוור עם עזרת מערכת חכמת מלאכת הבית – נעצר על פשיעת מחשב

שם נער מתכנת בשם ריוקי היאשי, בן 25, נלכד ליצור מוחשי על ידי פיקוח על יכולת המחשב והסמארטפון שלו יחד עם הוראת AI שרכש במרץ של השנה שעברה. הוא פיתח וירוס להצפנת נתונים במערכות שנבחרו ואז ביקש כופר. עם זאת, לא רשומה כל נזק שנגרם על ידי התוכנשות המוחש.

ריוקי היאשי הודה בכוונותיו הפליליות, חשף את רצונו להרוויח מהתקפות ransomware. הוא האמין שטכנולוגיית AI יכולה לאפשר לו לעשות הכל. הצהרה זו מחליקה לבעלי דעות גדלה באשר לשימוש של AI למטרות רעות.

אף שפלטפורמות AI כמו ChatGPT משומשות עם נבדלים למניעת העברת מידע המסייעת בפעילויות בלתי חוקיות, האינטרנט עדיין מציע פלטפורמות המאפשרות מידע בלתי מוגבל וניתן לשימוש שגוי. האיאשי ניצל חולשה זו על ידי שיוך הדרכה לפלטפורמת AI מבלי לחשוף את כוונותיו הרעות לעיצוב וירוס. כמו כן, הוא חיפש אופנים באינטרנט להשגת מידע דרך אמצעים בלתי חוקיים.

המשטרה בוחנת באופן מעמיק את כל התכונות של פלטפורמת הAI ששימשה על ידי היאשי כדי להבין טוב יותר איך הוא השתמש בטכנולוגיה זו. מענה גורם זה לאתגר גודל וחדש לאור היות AI מתקנת זמין יותר – למנוע את שימושה בפעילויות פליליות ברשת ועדיין לקדם אפליקציות המועילות שלה.

בעוד המאמר סיפק פרטים על מעצרו של ריוקי היאשי כדי לפתח ransomware עם עזרת הAI, זה מאזן את ההקשר הרחב בנוגע לנוף האיום בכלי הרשת הגדול ולתפקיד של AI בפליליות ברשת. הנה מספר עובדות נוספות הקשורות לנושא:

– תקיפות ransomware היו איום בולט במימדים שונים, עם מספר רב של ארגונים ואנשים שנפלו קורבנות. ספרי דו"חות אבטחת מידע, כגון אלה מחברות כמו McAfee ו-Symantec, מציינים כי התקפות ransomware הולכות ומתקדמות עם התקדמות הטכנולוגיה.
– יש לטכנולוגיה בישראל את הפוטנציאל לנתח לומדות נתונים רחבות מהירות, לזהות עדינויות במערכות תוכנה, ולאוטומציה של תהליכי התקפה, אשר עשויים להפוך את ransomware ליותר רב עוצמה וקשה להגן עליהם.
– עונשין אתיים עלו לדיון, בהתחשב בפוטנציאל של AI לשמש כליקיליות. הטבע כפול של טכנולוגיות הAI מציג את אתגר העמידה העמוק במידת ממשל ובתקנה.

שאלות חשובות ותשובות:

ש: כיצד AI יכולה לתרום לפיתוח של ransomware?
ת: AI יכולה צרפת כמויות רבות של נתונים לזהות עדינויות, לאפשר תהליכים לייצור דואר זבל פלילי, ואף להתאים התקפות ליעדים מותאמות, וכך להפוך לכלי עוצמתי לפלילים בינראשים.

ש: אילו מידות ניתן ללקוח כדי למנוע את השימוש הרע של AI בפלילים ברשת?
ת: מידות כוללות התחזקות במינהל הAI, הטמת היסודות האתיים של הAI, שיפור בהגנת הביטחון, ושיפור שיתוף פעולה בין תעשייה, שוטרים ורשותים.

אתגרים מרכזיים וסכסוכים:

– התאמת יציבות ובטיחות: ביטול המתקדמ של טכנולוגיות AI ומניעת השימוש הרע שלהן עבור פעילויות פליליות.

– רישום ופיקוח: יצירת מסגרות רגולטיביות המתאימות לשליטה בAI בלא הרוג החדיש.

– אחריות: קביעת מי אחראי כאשר AI משמש עבור פעילויות פליליות – יוצרי כלי AI, המשתמשים, או שניהם.

יתרונות וחסרונות:

יתרונות:
– פיתוח AI יכול לנהל להתקפת יתר בתחולה עלות ותגובה הרמות.

– טכנולוגיות AI יכולות להוביל יציאה, יעילות דפים, גידול חוקר וצמיחה כלכלית לאזורים שונים.

חסרונות:
– AI עשוי להפקיד על ידי פלילים כדי לבצע יותר חקיקות, יעדיות וחקיקות יעילים.

– עשוי להיות תוקף חסר צרכים בין שמירה וצוות עוצמה רבת ערוצים בינה.

ידיעות פלילים מאינטרפול
תובנות בטחון מחברת מיקרוסופט
בטיחות IBM

לסיכום, בעובדת עצירתו של ריוקי היאשי נמתח מקרה פרטי עם השתמשות מותנת בAI, זה וודא בהתמדה המתמדת בין ההבטחות והסיכונים של AI בבטחון המחשבים. הפתרון לוודא שהטוביות של AI יוכלו להיהשר כאשר לא ניתן להפעיל צורות חדשות של פעילויות פליליות נותר אתגר גלובלי קרוב.

The source of the article is from the blog cheap-sound.com

Privacy policy
Contact