טיטאנים טכנולוגים גלובליים מסכימים על אסטרטגיה לעצירה חירום של AI

חברות טכנולוגיה מובילות וממשלות מתאחדות כדי להקים אבטחות AI. עניינים ענקיים בתעשיית הטכנולוגיה, כולל Microsoft, OpenAI, Anthropic, ועוד שלושה עשר חברות נוספות, הגיעו להסכם לגבי מדיניות חדשנית. אם יתגלה מצב ברחת בזמן פיתוח מודלי AI חדשים, הן הסכימו לעצור את התקדמותם כדי למנוע תרחישים קטסטרופיים אפשריים בדומה לסירוגין המציל במציאות.

מאמצים משולבים לצמצום סיכוני AI. הסכם זה נחתם בסיאול, שם נציגי ארגונים וממשלה נקבצו כדי לקבוע את מסלולם ביחס לפיתוחי AI. ההסכם מתמקד ב-"כפתור הכיבוי" – התחייבות להפסיק את התקדמותם של מודלי ה-AI החדישים ביותר אם הם חוצים סף סיכון שמוגדר מראש.

אף בעצם הסכם זה, יש חוסר בפעולה מוחלטת או בהגדרה מוצקה של הסף ה"מסוכן" שיפעיל את כפתור הכיבוי. זה מעיד על כך שיש להשתמש במדיניות זו וביעילותה.

מנותחות ב-Yahoo News על פי דיווחים, מקרים קיציים יכולים להביא ארגונים לא לשחרר מודלי AI חדשים אם מבחרי הבקרה לא מותאמים. משחקים ראשיים כמו אמאזון, Google, וסמסונג גם חתמו על תמיכתם ביוזמה, מעידים על הסכמת תעשייה רחבה.

שיחות עם מומחים בבינה מלאכותית, כגון אלה שדווחו על ידי Unboxholics, מדגישים על הסיכונים הקשים, שמסירים את ההחלטה המאוחדת הזו. צעד זה משקף את החשיפות האישית של Geoffrey Hinton, שהוזהר על פוטנציאל הAI להחליף את האנשים בתחומי עבודה שונים.

The source of the article is from the blog radiohotmusic.it

Privacy policy
Contact