OpenAI פותרת את צוות הביטחון במערכות המומחה לבינה מלאכותית ועושה שינויים אסטרטגיים

OpenAI, חברת מחקרים טכנולוגיים מובילה, דווח כי הפריצה את צוות המוקדש לטיפול בסיכונים הארוכי טווח הקשורים למודעות מלאכותית, כפי שאושר על ידי מקור אנונימי לCNBC. פירוט זה נעשה כמעט שנה לאחר שהארגון הקים בתחילה קבוצה מתמחה זו.

נאמר על חברי הצוות הכופר ביכולת אם הועברו לתחומים שונים בחברה, מה שמציין שינוי משמעותי במבנה הארגון. החדשות הללו התפרצו בקרקעו של הדיווח הראשוני של מגזין Wired ולאחר עזיבתו של איליה סוצקובר, אחד ממייסדי OpenAI, ושל יאן לייקה, מנהיג צוות.

יאן לייקה הביע פחדים מוחשיים, לפני עזיבתו מהחברה, על כשל בהשגת הסטנדרטים הבטיחותיים של החברה, בשמץ חשיפת התרנגולת של תרבות הבטיחות והנהלים על ידי הרקיעה של המוצרים המובילים יותר, תוך רענון עמידה.

מקורית, צוות Superalignment אשר נפוץ אליו ב-OpenAI נטל על עצמו לוודא כי פיתוחי המודעות המלאכותית של החברה יישארו תועים וניתנים לניהול, גם עם התפתחותם ביכולות רעיוניות. בעת הכרזתו, קובע EndAI את 20% מהחישוב שלו למאמצים אלו למשך ארבע שנים – התחייבות שנראה כי נחסמה.

הארגון לא הוציא אולי מידע שיטופל בתשובה. במקום זאת, פנה OpenAI על פי ציוץ לאחרון שפרסם יומו ומנהיג ה-CEO שלה, סאם אלטמן, על הודותיו ליאן לייקה על תרומתו והכרותו עם הצורך הדחוף למאמצים נוספים במחקר איחוי ובטיחות של מערכי המודעות המלאכותי.

מייסד נוסף, גרג ברוקמן, נלקח לרשתות חברתיות על מנת להדגיש את המחויבות של החברה ללתת לתשומת הלב המניעה את הפוטנציאל שבמעברים ובפולסים בנוגע למערכי המדע המלאכותי הכלליים (AGI), גם ברגע שהם ממשיכים לשלף ספינים מותקנות כחלק מהאזנמט באור מאור של האירועים האחרונים. הוצאותיו של ברוקמן רצויות בנודע להארות מהפרשיות של עדיפויות הפעולה שבחברה וחזונו של יותר שחסמה על בטיחות פנימית ומשפעה חברתית במהלך מאבקיה של מערכי המודעות המלאכותי התוחלתיים המצויים בחיפוש אחר מערכי מלאכות סופריירים.

שאלות ותשובות מרכזיות:

ש: למה פורק OpenAI את קבוצת הביטחון שלה במודעות מלאכותיות?
תשובה: המאמר לא צורף את הסיבות המדויקות למאחז של הקבוצה. עם זאת, הוא מרמז שהחלטות אסטרטגיות והיעץ בתוך OpenAI הובילו לפיזוג הקבוצה. ההשבחת החברתית של חברי הצוות מרמזת כי התמהמת החברה עלול כי עד עת על המקביעים הישפעם הזעמי כדי לעבור או לגישות שונות לביטחון המודעות.

ש: מי עזב מאין אמון, ומה היו את פחדיהם?
תשובה: מייסד החברה, איליה סוצקובר ומנהיג הצוות, יאן לייקה, עזבו את OpenAI. יאן לייקה הביע פחדים לגבי תרבות הכלאות והנהלים של החברה, וכן רמיחה שבטי מצלות הבטיחות היכולות על חשבון פיתוח מנהיגי.

ש: מה היה מטרת צוות המתאם הסופי?
תשובה: מטרתו של הצוות המתקשר היתה לוודא כי הטכנולוגיות שנפתחו על ידי OpenAI יישארו בשליטה ויהיו מועילות, בלעדי תפיקתם האינטלקטואלית המוגברת.

ש: האם OpenAI העריכה רשמי על פריצת קבוצת הבטחון במודעות מלאכותיות?
תשובה: לא, OpenAI לא פרסמה הצהרה רשמית בנושא. החברה הפנתה אל ערך לציוץ לאחרון מאשר על ידי צוית לי את השכמתו וההכרה בנחידה הדחופה של יאן לייקה בתרומתו ובהערכת הצורך למאמצים נוספים במחקר איחוי ובמערכי מודעת.

Privacy policy
Contact