OpenAI מעדפת שינויים בגישה לבטיחות המותגלית במבנה המנהיגות

פתחה OpenAI את צוות ה-superalignment המתמחה לשליטה במערכות AI עתידיות המתוקנות, קבוצה שנועדה לשליטה במערכות AI סופראינטליגנטיות, לאחר רק שנה בלבד מרגע יצירתו. החלטה זו, שאושרה על ידי Wired, מתבצעת כאשר החברה AI מתמודדת עם יציאת דמויות מובילות כולל המייסד Ilya Sutskever וצוות המנהיגים המשולב Jan Leike.

כפי שפורסם ב Bloomberg, OpenAI מתעקשת על כך שהפרטים המופרטים הם בחירה אסטרטגית לשכול מחקר superalignment לתוך מאמצי הבטיחות הרחבים יותר בארגון. עם זאת, האי-שביעות רצון שהובילה לרענון של Leike מצביעה על טנטות רקע עמוקות יותר, כאשר Leike מבקר במחויבות של החברה לבטיחות במזינם על חשיבותם היותר טריים של מוצרים. עוד שם Sutskever פינה מפועלו, הוא נשאר אופטימי לגבי העתיד של OpenAI בפיתוח AGI בטוח ומועיל תחת מנהיגותה החדשה.

החברה עברה גם טלטולים במנהיגות, כאשר מייסדה Sam Altman של OpenAI נגרר שוב מעמדו קצרות זמן על ידי חברי ועד, כולל Sutskever, בהחלטה ששונתה מאוחר יותר ונובעת ממחאה של עובדים.

למרות האתגרים האלו, OpenAI ממשיכה לדחוף את התותח בחדשנות AI, מציגה גרסה אמוציונלית של ChatGPT. בכל זאת, ההתקדמות הטכנולוגית הזו החמיאה בדאי בענייני כלכלת ואתיות AI.

בעקבות האירועים האלו, John Schulman ו-Jakub Pachocki קיבלו תפקידים חדשים להנגיש את הבטיחות ופיתוח הAI של החברה. Schulman ינהיג ייזמים בבטיחות שמתפזרים כעת ביותר בכל הקהל הפנים של החברה, ו-Pachocki ימלא את מקומו של Sutskever כמדען ראשי, עם דגש עוצמתי על פיתוח מודלים גדולים במידות כמו GPT-4. השיקום בתוך OpenAI הוא נקודת מפנה אפשרית, הדגש היא נקודת היפוך עם גישה משולבת יותר לבטיחות AI בעוד שמנווטת מעבר בהסכמות מנהיגות ובצעדי דעה פנימיים.

הפירוק של צוות ה-superalignment של OpenAI מטיל על מספר שאלות חשובות:

מהו ההשפעה של עימות מחקר סופראילינמנטלף לתוך מאמצי בטיחות הרחבים? על ידי פיזור מאמצים לטובת מערכים של בטיחות רחבים יותר, OpenAI עשויה לקדם גישה כללית יותר לבטיחות AI. יש עם זאת אף אחרות
תחושת‏ המומצעות הממוקדנת במאמצים לטובת superalignment שהיו מיועדים לצוזר המערכות הסופראינטליגנטיות.

כיצד העזיבה של דמויות מרכזיות תשפיע על כיוון הפעולות של OpenAI בשליטה ופיתוח AI? שינויי מנהיגות תמיד מעידים על הכווית בעדים הארגונית. עזיבתו של מייסד Ilya Sutskever ושל צוות Leike עלולה להשפיע על אסטרטגיות החברה ולהעלות את המשאבים על תחליפיהם לשמור על התקדמות בתחום מורכב.

מהן האתגרים העיקריים המתרכזים הקשורים לבטיחות ואתיקה של AI של החברה? כך שהAI מתקדם ומשתלבת יותר עוצמיתנות אל החברה, הבטיחות בה המערכים מתאימים לערכי האדם ואינם גורמים נזקים בלתי-רצוניים נשארת לחלוקה ניכרת עכשו‏. חשקים בפריסות OpenAI לעבר האיזון בין בטיחות לפיתוח מוצר מסמנים את קשיו שבבחינה עדיפות ארוכת הטווח על פני תועלות מיידיות.

האם ישנם סיופות קשורות לאירועים אלו? כן,‏ רובות מדוניות‏ מקיפות סביב החלטה של OpenAI לפרוק את הצוות המתמחה, שהיא יכולה להציין על ירידה בדרגת הקידומית של מחקר איזון AI באורך-הימים.‏ בנוסף, פירוקו החלקי של Sam Altman כמייסד חברה מגלה מתיחות‏ פנימית אולי‏ באמת המשמעויות ממקבוקי הביקורת שעל החברה בהובילה ובשלטון.

יתרונות המתמקדים באינטגרציית מחקר superalignment, עשוי מזמנים את הגישה הרחבה למיוזעים, מעורבות מערכים רחב של חוקרים בדיונים חשובים במיוחד לביטחון, סתירותעורחלה ארגוני עוצמתי‏ יותר בהם הבטיחוה הם מצוותרושנת.

חסרונות עשוים לכלול אובדן מרכזי של הקרבת תקפה בסיכון מקיים AI סופראינטליגנטי, התנגדיות פוטנציאליות בדרזה מאמצים לבטיחוה, סיכונים כזה שתקיפים פיתוח מוצרים 'מחזיקים' עלום מטרות לביטחון לטווח ארוך.

ישנם כמה קישורים קשורים שיכולים לעזור לך:
– לקבלת מידע נוסף אודות OpenAI ופעילותה, ניתן לבקר באתר הרשמי שלהם בכתובת OpenAI.
– כדי ללמוד עוד על בטיחות ואתיקה של AI בכלל, ניתן לבקר באתר האינסטיטוט לעתיד של החיים בכתובת Future of Life Institute.

מסכם: השיקום בתוך OpenAI משקף טברי את נסיין התחום של הAI, בו ארגונים צריכים לאבקש במדות הבטחה עם חכמה ואטיקה. פירוק צוות ה-superalignment ושינויי המנהיגות מסמנות נקודת ציון חשובה בעבור החברה שסובלת מתוקנות את האחראים שלה לפתח מוצרי AI מועילים ובטוחים.

[הטבט המוטבע] (https://www.youtube.com/embed/8pFOrDe7crw)

Privacy policy
Contact