תעשיית המובייל הבינתחומית מחפשת הגנות לחשיפת עבירות במערכת מתוך דאגה לאבטחת המידע

דרישה דחופה לשקיפות ולהגנת המשקיעים שנבחנה בתעשיית המודלים האמיצים (AI) נוצרה על ידי קואליציה של חוקרים והנדסאים מובילים ממוסדות טכנולוגיים מובילים. הקבוצה כוללת אנשים מ-OpenAI ו-Google DeepMind, בין השאר. הם העלו ערעורים רציניים לגבי מצב הפיקוח על בטיחות בפיתוח AI כיום.

הקולות המאוגדים מתוך שדה הAI מבקשים את הזכות להוביל אזהרות לגבי מערכות AI ללא פחד מנקמה. הם טוענים שחברות הAI מחזיקות מידע חשוב, עוד לא חשוף, על מיומנויותיהן ועל הגבלותיהן של הטכנולוגיות, כמו גם על אפקטיביות ההחלטות הבטיחות.

ליבה של הבעיה היא הדאגה של חברות אלו חסר מגבלת זמן לשתף מידע חשוב זה, לא רק עם הרשויות התקניות רגולטוריות אלא גם עם ציבור הכלל. השקיפות שתכפה עשויה לפגוע, מאחר שבעיות נוכחיות ועתידיות עשויות שלא להיות מטופלות באופן מתאים.

על מנת לקדם מערכת פיתוח AI בטוחה יותר, עובדי AI מהפקרות על סט עקרונות המכסים שקיפות ואחריות. העקרונות אלו כוללים תקנות להגנת העובדים מסכרות רגולטוריות בענייני סיכון של AI באמצעות הסכמי חוזה.

בנוסף, החותמים מקיימים למנגנונים כדי להעביר באופן אנונימי את דאגותיהם להנהלת המובילים. הם מדגישים את חשיבות המימוש של מבנה רגולטורי ציבורי יעיל, שהם אומרים שהוא חיוני עד זמן שחברות יכולות להיות בחשבון עבור פעולותיהן.

המכתב נכתב לאחר רצון של דמויות מרכזיות ב-OpenAI, שמביא לשער על דאגות פנימיות לגבי מחויבות הארגון לבטיחות במטרה ליצר מוצרים בשוק. הדאגות אלו מדגישות את צורך הדחוק בשני החברות ובתעשייה באוכלוסייה רחבה לאמץ תרבות בטיחותית יותר וליצור דיאלוג פתוח יותר לגבי הסיכונים הפוטנציאליים של AI.

הגנה על המוסרת היא דאגה קריטית בתעשיות שבהן טכנולוגיות חדשות עשויות ליצור סיכונים אתיים, לביטחון ולבטיחות. הקריאה לשקיפות ולהגנת המוסרת בתעשיית הAI היא רלוונטית ביותר שהשלבת הטכנולוגיות במיומנויות החיים היומיומיים מתסלקת במהירות. כאן עשויים להיות תכליתים נוספים בנושא שאינם מופיעים במאמר:

שאלות מרכזיות נענו:
מדוע ההגנה על המוסרת מיוחדת ביותר בתעשיית הAI? תעשיית הAI משפיעה ייחודית על רבים מההיבטים של החברה, כולל פרטיות, ביטחון אישי וגם סיכונים אקזיסטנציאליים. מערכות AI עשויות לגרום לתוצאות בלתי צפויות, לכן, עובדים המוצאים שיטות בטיחות מסוכנות חייבים לקבל ערוץ ברור לדווח על בעיות כאלו מבלי לחשש מתגוננות.
מה עשוי לקרות בלעדי הגנת המוסרת המתאימה בAI? אם אנשי AI לא יוכלו לדווח על סיכונים בבטיחות, מערכות AI עשויות להיות בשימשום ללא אביזרים מנוף, עשוי להביא לתאונות, לשימושי תעוזה או שלילות שעשויות לפגוע באנשים או בחברה בכלל.

אתגרים מרכזיים או מחלוקות:
אחת האתגרים הוא למצוא את האיזון בין סודות הסחר של תעשיית הAI לבין הבטיחות הציבורית. חברות עשויות להתנגד לשקיפות משום חששות מקניין רוחני ומתחרות. בנוסף, יש מחלוקות לגבי דרכי מימוש פיקוח יעילות ללא לכבות תושבחות בתחום מחץ הAI.

יתרונות של הגנת המתאימים:
– קידום פיתוח והשקת תואני AI מאובטחים יותר.
– מניעת אפשרות לאירועים קטסטופיים שמגיעים מממישות אפשרויות AI שלא נבדקו.
– עידוד תרבות פרקטיקות מוסריות בארגונים.

חסרונות ועיקשים:
– סיכון זיקנוק עם מדיניות חברה פרטית, שבדרך כלל כוללת הסכמים סודיים שעשוייפ לאסור גילויים שעשוייפ להיות בתועלתו הציבורית.
– סיכון להתרבות של אזעזועי שקר או לשימוש של מנוגדים מתושבחי מכל ייתרון אישי או השמדת שמו על ידי המפקידים.

לאלו המחפשים לחקור עוד, מקורות מהימנים של מידע כוללים את OpenAI ואת DeepMind, המוסדות המוזכרים במאמר בו פעילים אנשים שמחפים אחר הגנת משתיקים אלה. כאשר נעקוב אחר השמות האלה, תמיד חשוב לוודא שכתובות ה-URL נכונות ולשקול את אופי התוכן הזמין, ביטח הם חברות בהן הפעולות חלק מהדיון המתמד לגבי שקיפות והפיקוח על בטיחות בתעשיית הAI.

Privacy policy
Contact