ריכוז דיווח אחרון חשף כי OpenAI תיעצר מהקידמה של מודלי AI חדשים בזמן שנזלזלים בנהיגה על פי פרוטוקולים הבטיחות וצעדי בטיחון. הועלו דאגות על ידי עובדים שאינם חשופים שחתמו על מכתב פתוח שהביע חרדה לגבי החור בהשגחה על בניית המערכות של ה- AI. בתגובה לכך, OpenAI הקימה ועדה חדשה לבטיחון ואבטחה הכוללת חברי ועדת המנהלים ומנהלים נבחרים כדי להעריך ולשפר פרוטוקולי ביטחון. מרכזיו.
למרות האשמות בנגלה בנהיגת פרוטוקולים ביטחון, שלושה עובדים ב- OpenAI, שמדברים באופן אנונימי ל- The Washington Post, חילקו כי הצוות הרגיש דחק לקדם את היישום של פרוטוקול בדיקה חדש המיועד "למנוע נזקים קטסטרופיים" לפגישה של בטל השקתו של GPT-4 Omni במאי כפי שקובעי המובילים של OpenAI.
פרוטוקולי הבטחה מטרתם להבטיח שמודלי AI לא יספקו מידע מזיק או יסייעו בביצוע פעולות מסוכנות כגון בניית נשק כימי, ביולוגי, רדיולוגי וגרעיני (CBRN) או בעזרת תקיפות סייבר.
בנוסף, הדו"ח הבהיר מקרה דומה שקרה לפני השקת GPT-4o, שבו נתאר כמודל ה- AI המתקדם ביותר של OpenAI. תוכניות להשקה נעשו בלעדי הפחד לבטיחותו, עם עובד של OpenAI שנצטט בדו"ח ואומר "אנו כשירות לעשות ועלינו לפעול."
זה אינו האירוע הראשון שבו עובדי OpenAI מצביעים על אי התחשבנות ברורה בפרוטוקולי בטיחון ובטיחות במתוך החברה. בחודש שעבר, חתמו עובדים לשעבר ונוכחיים של OpenAI ו- Google DeepMind על מכתב פתוח שהביע חשש לגבי החור בהשגחה על פיתוח מערכות AI חדשות שעלולות להביא לסיכונים חשובים.
המכתב קרא להתערבות ממשלתית, מנגנוני רגולציה, והגנה יציבה לעדים משלימים מצד מעסיקים. שני משלושת מיוסדי OpenAI, ג'פרי הינטון ויושוע בנג'יו, תמכו במכתב הפתוח.
במאי, OpenAI הודיעה על הקמתו של וועד הבטיחון והאבטחה הממונה על לבחון ולשפר את פעולות ה- AI של החברה ולוודא החלטות בטיחון ואבטחה קריטיות עבור הפרויקטים והפעולות של OpenAI. החברה השתף לאחרונה קווים מנחים חדשים מבחינת בניית מודלי AI אחראית ואתי…