נהגי תעשיית המובילים לשליחות מועצת השימוש בביטחון של AI

מנהלי השורות העליונות מחברות המובילות בתחום הבינה המלאכותית כמו סם אלטמן (OpenAI), סאטיה נדלה (Microsoft), סונדר פיצ'אי (Google) וג'נסן הואאנג (Nvidia) משתפים פעולה במשימה להבטיח את השימוש הבטוח בבינה מלאכותית (AI). מחלקת הביטחון המוסדית ללאום בארה"ב השיקה את לוח הבטיחות והבטיחות של הAI, הוא גוף ייעוץ פדרלי חדש, הוקם כתגובה להוראת הנשיא ג'וזף ביידן בשנה שעברה המיועדת להקטין כל שלילה של המהפכה בAI המופעלת על ידי מערכות כמו ChatGPT.

הקבוצה המומחית הזאת כוללת לא רק מנכ"לים שנמצאים בחזית התעשייה של הAI, כמו אלטמן, נדלה, פיצ'אי, הואאנג, וליסה סו של AMD, אלא גם מנהיגים מ-Adobe, Delta Air Lines, Amazon AWS, וציוותים אקדמיים ואזרחיים כמו מנהל המכון לAI של אוניברסיטת סטנפורד. נתקלנו בהיעדרם המורגש של הרשימה, למרבה המזל, רביות AI כמו אילון מאסק מתוך Tesla ומארק צוקרברג מחברת ההורים של פייסבוק, Meta Platforms.

המועצה החדשה הנוצרת יזמה לפתח מנחיות להגנה על מערכות מול טורמו האפשרי בגלל התקדמות בAI בתחומים שונים, כולל רשתות כוח, שירותי הובלה ומרבדים. אלכסנדרו מאיורקאס, שר במשרד הביטחון הפנימי, הדגיש את הטבע הכפול של הAI—עם הכוח שלה לשפר באופן משמעותי שירותים בתחומים כמו בנקאות, הובלה ותשתיות ציבוריות, מגיע סיכון משמעותי. ללא הפצת AI אחראית ובטוחה, התוצאות עשויות להיות קטסטרופיות.

שאלות חשובות ותשובות:
שאלה 1: מה היה הגורם להקמת לוח הבטיחות והבטיחות של הAI?
על פי הוראתה של הנשיא ג'וזף ביידן, הוקם לוח בטיחות וביטחות הAI כחלק ממענה להשפעות שליליות אפשריות של טכנולוגיות הAI שמתפתחות במהירות כמו ChatGPT.

שאלה 2: מי מעורב בלוח הבטיחות והביטחות של הAI?
הלוח כולל מנהלי מובילי AI מחברות בולטות כמו סם אלטמן (OpenAI), סאטיה נדלה (Microsoft), סונדר פיצ'אי (Google), ג'נסן הואאנג (Nvidia), וליסה סו (AMD), וגם מנהיגים מחברות טכנולוגיה אחרות, תעופה, אקדמיה, וחברות אזרחיות.

שאלה 3: למה אילון מאסק ומארק צוקרברג עשויים לא להיות מעורבים בלוח?
גם אם לא נדון באופן פרטני במאמר, ההיעדרות שלהם עשויה להיות כתוצאה מסיבות שונות כגון התחייבויות אחרות, חלוקת עמדות נגד המשימה של הלוח, או להתמקדות בתחומים אחרים של מחקר ופיתוח בAI.

אתגרים פוליטיים וסערות:
תקנות נגד טכנולוגיה: כמה מאתגרי התיקון הן חיפוש תווי האיזון בין תיקון הAI על מנת להבטיח בטיחות ולתת מספיק חופש לחדשנות.
ייצוג: קיימת סערה סביב ההרכב של המועצה, כיוון שהיא כוללת בעיקר מנכ"לים של חברות גדולות, משמיטה פוטנציה לוואי רב מחברות קטנות, לא ממטרות או עקרונות לאומיים.
שיקולים אתיים: שיקולי ערכי מסביב לפיתוח AI, כמו פרטיות, הטייתות, וצדק, הם אתגרים עיקריים שהמועץ עשוי להתמודד איתם.

יתרונות וחסרונות:
יתרונות:
– יצירת כללים מיוחדים יכולה להוביל לשימוש בטוח יותר של AI בתחומים שונים.
– שיתוף פעולה בין מנהלי התעשייה יכול לקדם פרקטיקות מובילות ופיתוח AI אחראי.
– השתתפות של מנהלי רמות החסר את הרלוונטיות וההשפעה של המחלקות החלטות.

חסרונות:
– יש סיכוי שהמלצות התקנות יכולות לעצום חדירה אם הן יהיו מדי צמודות.
– אפשרות לכיוון גלוי שיטות שמעטענות לחברות גדולות מדי מעל תחרים קטנים יותר.
– קשיים בשיתוף פעולה בינלאומי בתחום טכנולוגיית AI והמגבלות שלה, מתפשטות על גבולות ציוניים.

למידע נוסף על החברות והארגונים המובילים שציינו, ניתן לבקר באתריהם:
OpenAI
Microsoft
Google
Nvidia
AMD

!שים לב שלמרות שסיפקתי קישורים ישירים לתחומי העיסוק, המכירים כאתרים תקניים, תמיד נמלט דפדוף בטוח.

Privacy policy
Contact