שגיאוני הטכנולוגיים הגלובליים מסכימים על אסטרטגיית עצירת חירום למערכות הבינה המלאכותית

חברות טכנולוגיה מובילות וממשלות מתאחדות כדי להקים הגנות על AI. ענקי התעשייה הטכנולוגית, כולל Microsoft, OpenAI, Anthropic ועוד שלושה עשרת חברות נוספות, הגיעו להסכמה על מתווה מדיניות חדשני. אם סיטואציה "עוקפת" תתפתח במהלך פיתוח מודלי AI חדשים, הן הסכימו להפסיק התקדמות כדי למנוע תרחישים קטסטרופיים אפשריים בדומה לאירוע 'טרמינטור' בחיים אמיתיים.

מאמצים משולבים להקטנת סיכוני AI. הסכם זה נחתם בסיאול, שם ארגונים ונציגי ממשלה נקבצו כדי לקבוע את כיוון שלהם לגבי פיתוחי AI. ההסכם מתמקד ב- "מתג כיבוי" – התחייבות לעצירת התקדמותם של מודלי AI המהפכניים ביותר אם יחצו את רמות הסיכון המוגדרות מראש.

חוסר פעולה ובהירות קיים. למרות ההסכם, קיים חוסר פעולה ניכר או הגדרה מוגדרת של הרף "מסוכן" שיפעיל את מתג הכיבוי. זה עשוי להצביע על שאלה בגבי היכולת לאכוף ואת היעילות של המדיניות.

מהדיווחים שנאספו על ידי חדשות Yahoo, מקרים קיצוניים יכולים להניע ארגונים לא לשחרר מודלי AI חדשים אם אמצעי השליטה אינם מספיקים. דומיננטיים כגון Amazon, Google ו-Samsung גם נכנסו לחתימה שלהם על היישום, מעידים על הסכמת תעשייה נרחבת.

שיחות עם מומחים בבינה מלאכותית, כפי שדווח על ידי Unboxholics, משקיעים דגש עצום על ערמות הסיכונים, שמדגיש את ההחלטה המאוחדת הזו. תנועה זו משקפת את תחזיותיו של האקדמאי המוכר גיאופרי הינטון, שהזהיר על יכולתה של AI להחליף את האנשים במגוון תחומי עבודה, מציינת ניכור משמעותי בתהליכי העבודה.

עניינים ואתגרים חשובים שמקיפים אסטרטגיות לעצירה חירום על AI:

1. הגדרת רמות "מסוכן": אתגר מרכזי הוא להקים את הפרמטרים המדויקים שמגדירים מתי AI הופך להיות יותר מדי סוכני למשך המתן. ללא הגדרות ברורות, סגם הסכמה לעצור עשוי להיות סובייקטיבית ונפוצה לרב פירושים.

2. אכיפה: הבטיחות שכל המוסדות יצייתו להסכם העצירה הוא בעיה, במיוחד בשל חוסר הפריטים המוסכמים ברחבי העולם לפותרי מדיניות נפרדים לאומיים.

3. יכולת טכנולוגית: הניתנות לבצע את מתג הכיבוי עצמו אינה מסובכת טכנולוגית שמחייבה לשים את מכסיקים האמינות למוסדי AI, מאתגרת ומחסורת קשביים.

4. לחצי תחרות שניים: חברות עשויות להיות מאופקות לעצור או להאט חקירות אם תחרים לא, מובילות למרוץ זרועות אפשרי בפיתוח עבור AI.

5. פרטיות ואבטחת מידע: מערכות AI מתקדמות עשויות להתמודד עם כמויות נרחבות של מידע, והפסקתם הפתאומית עשויה להביא פוטנציאל לחששים על פרטיות ואבטחת מידע.

יתרונות של הסכם עצירה על AI:
ביטחון מוגבר: זה מספק עגלת ביטחון נגד התוצאות בלתי צפויות של מערכות AI מתוחכמות.
אמון ציבורי: המסכם כזה יכול להגביר את האמון הציבורי בטכנולוגיות AI והיחידים המפתחים אותם.
אחריות משותפת: הוא מעודד תרבות של אחריות ושיתוף פעולה בין חברות טכנולוגיה.

חסרונות של הסכם עצירה על AI:
עיכוב חדשנות: הנחויות של זהירות יתכן יכולות למנוע מקוריות.
חסרונות תחרותיים: יישויות שמצפות להסכמה עשוי להפל אחורה מהם שאינם, במיוחד באזורים שבהם קיים תקנה או הכנדרת שונה.
יישום קשה: ההיבן המעשי של ליישם ולנהל מתג כיבוי עשוי להיות מאתגר ואשים במשאבים.

למרות היתרונות המוצעים והאתגרים המשמעותיים, ההתקדמות הזו מציינת שינוי בצורה בה תעשיית הטכנולוגיה רואה את אחריותה בעצירת עתיד של AI. ההתבטחות של נגד תוצאות נזקנות משתרעת. זה עדיין חיוני למחקר נמשך ולדיאלוג בין הצדדים בכדי לשקל וליישם מתוות בצורה אפקטיבית.

למי שמעוניים בהקשר הרחב יותר של ההסכם זה, עזרים ושיחות מדיניות ובטיחות של AI ניתן למצוא באתרי האינטרנט הראשיים של ארגונים כמו עמותת הקידום של המובילים בבינה מלאכותית (AAAI) ב־ AAAI ומכון עתיד החיים ב־ מכון עתיד החיים. חשוב לבדוק את המשאבים האלה כדי להישאר מעודכנים בפיתוחי AI מתקרבים, מדיניות ושיחות.

The source of the article is from the blog enp.gr

Privacy policy
Contact