חתימות דיגיטליות בסיכון: מה שכדאי לך לדעת

צוותי מחקר באוניברסיטת בן-גוריון בישראל גילו פתיחות בקווי הגנה של צ'אטבוטים מבוססי מודלי למידת מכונה (AI). אף על פי שצ'אטבוטים אלו הפכו למאוד פופולריים, ומספקים מענה מהיר ונוח לשאלות המשתמשים, התגלה שהם נרדפים בעיקריות על ידי האקרים שמנסים לראות לתוך השיחות הפרטיות בכדי לגלות מידע רגיש.

הפיצ'ר המסוכן הנדוש הידיעה היהודי "פנית צד" ("side-channel attack"). להבדיל משיטות הפריצה המסורתיות שמעלילות עבירה על קירות אש, תקיפות פניות לצד נסמכות על השכלת נתונים באופן פסיבי באמצעות מטא-נתונים או חשיפות מרחוק אחרות. סוג זה של תקיפה יכול להתבצע על ידי פושעים באותו הרשת, או אפילו על ידי מישהו באינטרנט אשר יכול לצפות בתעבות.

הדבר שהופך את צ'אטבוטי AI לקרים בייחוד לתקיפות פניות לצד הוא הפרקטיקת הקידוד שלהם. בעוד מפתחות למפתחות API של AI השומרות מאפשרות להורים את תחבורת הצ'אטבוטים, מחקר שנעשה על ידי צוות המחקר באוניברסיטת בן-גוריון מראה כי דרכי הקידוד שהושמו הועילו. כתוצאה מכך, התכן של ההודעות הפרטיות שנשלחו מוחשפים לאזרחים עתירי כוונות.

על ידי ניצול הפגיעה, התוקפים יכולים להשקיע באורח אובני, בערך, את הפרומים שניתנים להורים בצ'אטבוטים של AI עם מעל 55% מדוייקות. החוקרים גילו כי שאלות רגישות שהוצעו לצ'אטבוטים של AI ניתן היה לחושבן עם כ-50% מדויקות. הדבר מהווה איום גדול על הפרטיות ועל האבטחה של המשתמשים.

חשוב לציין שהפגיעה הזאת מגיעה מעבר ל-OpenAI. לפי המחקר, רוב הצ'אטבוטים שבשוק, למעט Gemini של Google, מוצפים לתקיפות פניות מסוג זה. השרשרת הבעיה מצויה בשימוש בנתונים מוצפנים הידועים כ-"אסימונים" על ידי צ'אטבוטים שסייעים לזריזת זריזת שיחה. אף על פי כי התהליך של העברת הנתונים יכול להיות מוצפן, האסימונים עצמם יוצרים תקשורת מציד ידי התקפות יכולים להכנס או להורים את הפרומים שניתנים לצ'אטבוט.

על מנת להדגיש את הפריצה, מחקרי בן-גוריון השתמשו בנתונים גלמיים שנרקצו דרך הצד הפני ואימנו מודל שפה על מנת לזהות מילות מפתח הקשורות לפרומים. התוצאות היו מעוררות חשש, כאשר המודל לשפה זיהה את הפרומים הכלליים במדויקות של 50 אחוז מהזמן וציפה עליהם בדיוק רב ב-29 אחוז מהזמן.

ההשלכות של הולמות עמקיות הם מושאלות, במיוחד בהקשר של נושאים רגישים כמו הפלת הריון או נושאי LGBTQ. מאחר שנושאים אלה נמצאים בקרב הלקוחות עומדים לסבל, הנף ישיב עמדים מחפשים מידע או תמיכה דרך צ'אטבוטים של AI עשויים לחשוף את עצמם לפגיעה או לעונש.

חברת Microsoft, שבעלת OpenAI ו-Copilot AI, הודיעה על הפגיעה. עם זאת, הם מבטיחים למשתמשים שפרטים אישיים, כמו שמות, לא יוכלו להתנבא. Microsoft מחויבת לטפל בבעיה על ידי עדכון שישפר את ההגנה על המשתמש.

באור התגליות הללו, חשוב לפיתור למפתחי AI והמשתמשים להשקיע באבטחת והפרטיות של שיחות הצ'אטבוטים של AI. נדרשות מידות קידוד איתנות למניעת תקיפות פניות לצד ולהבטיח את סודיות המידע הרגיש.

שאלות נפוצות

The source of the article is from the blog kunsthuisoaleer.nl

Privacy policy
Contact