OpenAI מפשטת צוותים בעקבות שינויים במנהיגות

שותפת המפתחת מאחורי הדגם מודלי המודל המשובש של המודעות לבינה המלאכותית ChatGPT, ראתה שינויים אופרטיביים משמעותיים. כפי שדווח על ידי מספר עתרונות ב-17 במרץ, OpenAI דיבקה ביעילות את צוות הבטיחות שלה אשר מוקדש לחקירת הסיכונים הארוכים טווח של הבינה המלאכותית.

צוות זה, הידוע כצוות השיתואוריות, עסק בוודאות כי מערכות הבינה המתקדמות של העתיד יוכלו להיות מנוהלות בדרך המייתרת וראויה לאדם. הוקם ביולי שנה קודמת, הצוות הזה ייעץ לנחות הפיתוח של יישומי בינה מלאכותית. המטרה שלהם הייתה ליצור מערכות בינה מרוממות שיכולות לפעול בגבולות המוסריים הקבועים על ידי האדם.

הפיזור שלהם עקבו אחרי עזיבת כמה דמויות מובילות ב-OpenAI, כולל מייסד צוות עיליה סוטסקוור ומנהל קבוצתי המשחירים, ששניהם שיחקו תפקידים מרכזיים בהדרכת הצוות של השיתואוריות. ההתפקדויות רצופות גרמו להערכות באשר לקונפליקטים פנימיים עם מנהיגים אחרים, כולל סם אלטמן.

סוטסקוור הביע את אמונתו לאחר עזיבתו מהארגון כי OpenAI, תחת ניהול הנוכחי, בראשות אלטמן, תצליח לבנות בצלחת אינטליגנציה מלאכותית אוניברסלית בטוחה ויעילה. בינתיים, יאן ליקון הדגיש את ההבדלים התמיכה שלו עם מנהיגי החברה במובנים כלליים.

ליקון ואחרים הביעו דאגות לגבי שיטות בטיחות ותהליכים שנתפסו באחריות בשנים האחרונות, בתוך מאמץ המסוכן שבו עוסקים בייצור מכונות עם חכמה גבוהה יותר מאנשים.

בתגובה לכתבה, OpenAI הצהירה כי היא משלבת את מטרות הצוות לביטחון בכל מאמצי המחקר שלה במקום לשמר יחידה נפרדת. בהתאם לאסטרטגיה זו, נערך למייסד OpenAI ג'ון שולמן להוביל מחקר ביישום AI, המתרכז בכיוון מערכי AI כך שיפעלו בהתאם למטרות שנקבעו על ידי אנושות ועקרונות מוסריים.

רקע אודות משימת OpenAI ופיתוחה:
OpenAI הוקמה עם המשימה להבטיח שהבינה המלאכותית הכללית (AGI) – מערכות בעלות בצורה דחופה שיתופקל עריך יותר מאנשים ברוב מקצועות העבודה החשובים מבחינה כלכלית – תועיל לכל בני האדם. הארגון התחיל בתור חברת מחקר ללא מטרות רווח ולאחר מכן יצר חוליית עסקים כדי למשוך השקעות. OpenAI מכונה כמאמציה שלה לפיתוח טכנולוגיות AI מתקדמות, אשר כוללות GPT-3, DALL-E, והגרסה האחרונה שלה, ChatGPT.

שאלות מרכזיות ותשובות:

ש: מדוע פיזור הצוות לביטחון הוא חשוב?
ת: תפקידו של הצוות לביטחון היה מרכזי בכך שהוא ניתן צעדים לפני ומונע הסיכונים הקשורים ליצירת מערכות AI מרוממות שעשויות לבעות איומים פוטנציאליים לביטחון האדם ולתקנונים המוסריים. פיזור צוות שכזה מעלה חששים בקשר לשאלה האם ביטחון יישאר תחום עיקרי במחקר ובתהליכי הפיתוח של OpenAI.

ש: אילו אתגרים מצוים ביישום המערכות בינה המלאכותית ובביטחון?
ת: הנחת AI עוסקת באתגר לעצב מערכות AI שלא רק מבינות אלא גם נעות בערכי האנושות, המוסר, והכוונות. הקושי מתמקד בהגדרת בדיוניות אלו בדיוק ויצירת מנגנונים המבטיחים שמערכות AI יכולות לפרש ולהחיל אותם נכון. ולמעשה, ככל שמערכות AI גדלות יותר מורכבות, התחזיות של ההתנהגות שלהן מתעצמות, וכך מובילות לתוצאות בלתי צפויות פוטנציאליות.

חדלת פיעמות ואתגרים:
ההיבטים המובילים ומהרכבת הצוות לביטחון ב-OpenAI גרמו לוועידה בקרב הקהילה של AI על אמיתות סביב הדגש על בטיחון ומהירות הפיתוח. המתח ההמיצי בין חדל החדשנות המהירה ופשוטות המניעות לביטחון היא סכסוכית בתעשיית הטכנולוגיה, במיוחד בתחומים שכמותים לזכותם להשפעה רבה על החברה כמו בינה מלאכותית.

יתרונות של הילוט:
רכזת מטרות הצוות לביטחון ביעילויות כל המאמצים בחקירה אולי תפשט מאמץ ותשבית דגש על אופקי מבטח בכל נקודה מפתח בפיתוח תקציבי של הבינה המלאכותית ב-OpenAI. גישה זו מעידה על מחויבות הוליסטית לבטיחון אשר אינה מבודדת בתוך צוות יחיד.

חסרונות של הילוט:
הפיזור של צוות ביטחון מומחי לעניין עשוי להביע ביטול של סיכונים ממושכים והתניות מוסריות, משום שהחיסרון של קבוצה מוקדת עשוי להוביל להתקבלות פחות ממוקדת של הנושאים הללו. צוותים מומחים נוטים להיות לכיוון בידע מעמיק ומשימה מרוכזת שניתן לאבד בהתמקדות עם מטרות רחבות.

קישור מומלץ:
למידע נוסף אודות OpenAI ופרויקטי הבינה המלאכותית השונים שלהם, ניתן לבקר באתר של OpenAI.

[הטמעת]https://www.youtube.com/embed/r75jH_wpylg[/הטמעת]

Privacy policy
Contact