עוזרים מלאכותיים של AI מחפשים הגנה לעדיני אזהרה כדי לשמור על עצמם מפני סיכונים

עוקבי מערכי ביטחון AI מתקשרים לזכויות חשפון

קבוצה של עובדים ישנים ונוכחיים מOpenAI, הידועה בשם Right to Warn, מדגישה את הצורך ליצירת "תרבות של ביקורת פתוחה" בתעשיית הבינה המלאכותית (AI). הם מודיעים על זכותם של עובדים לפגוע בנושאי ביטחון מבלי לחשות בנקמה. צעד זה מדגיש את הטבע המאובק של פיתוח AI ואת הסכנות הפוטנציאליות ששתיקה עשויה לגרום לתחום.

סיום הסדרי השתקה דרוש על ידי מקצוענים בתחום AI

Right to Warn מקשקשת על סיום הסדרי שתיקה ומניהול של מחויבויות שאינם להשמעה ואינם לשחיצה בשדה הAI. סעיפים כאלה היו מקובלים תמיד כחלק מדרישות העובדים, אך הקבוצה טוענת כי אינם צריכים עוד להיות מרגילים. זה יוביל לצמיחת דרך לתתגייר למקצוענים לדווח על דאגות באופן אנונימי, מבטיח מהם הגנה מנקמה תוצאתית.

תמיכה חוץ ממעגל של OpenAI

מכתב הפתוח שלהם, שבו הוצגה חזונם ודרישותיהם, ריכז תמיכה מישי כבדים בקהילת הAI, כולל החלוצים ג'ופרי הינטון ויושוע בנג'יו. תמיכה זו היא משמעותית ברקע של דאגה מוגברת אודות החקיקה הלא מספיקה המנהלת את AI.

בנוסף, המנה הקולקטיבית נפרשת מעבר לקשרי OpenAI בלבד. לא הקניו, ניל ננדה מ-Google DeepMind, שהיה קודם עם Anthropic, מתחרה של OpenAI, ורמנה קומאר, הנישאי הוותיק, שנמצא ב-DeepMind, אמשיתו את המכתב הפתוח.

דיון בעמדת מנהיגות לגבי סיכוני AI

נתונים קונטרדיקטוריים בדמותה של המנהיגות של OpenAI, בעיקר כש-CEO סם אלטמן מדגיש את הסיכונים שבסמיכה רעה על חברה אחת או שלטון יחיד בידי אדם מעל AI. למרות הייחוס הנראה למטרות Right to Warn, אלטמן נתקל בביקורת על קידום החוזים שהמקשים את הדאגות של העובדים.

ויליאם סונדרס, חותם על המכתב הפתוח ועובד קודם ב-OpenAI, מדגיש את הניבוכיות שבעמדתו של אלטמן. בעוד הוא פועל בעד שיתוף מידע, מדיניותו של אלטמן דוחקת שכלא את העובדים דרך סעיפים מיוחדים.

תגובת התעשייה וההתמודדות של OpenAI עם דיאלוג

ג'ייקוב הילטון, חבר מומחה נוסף של Right to Warn, מאתגר את חברות הAI להישאר בנאמנות למחויבויותיהן לביטוח ולאתיקה. הוא מעיד על תלות הביטחון הציבורי באפשרותם של העובדים לדבר ללא פחד מהשלכות.

כתגובה לדאגות, OpenAI פנתה לעיתון ניו יורק טיימס במטרה לפקח על ספקות סביב המיתוד המדעי שלה בערכת סיכון. החברה מחדש כפותה למתן תמיכה להמשך השיחות המדוקדקות על AI; החברה נשבעת להמשיך לשתף פעולה עם ממשלות וחברה האזרחית.

העיקול המתעד של Right to Warn לשחרור שיח בתחום הAI גורם לשאלה: האם יש לתמוך ביוזמה זו?

עובדי AI, בעיקר אלה בקולקטיב Right to Warn, מחפשים הגנה לחונגי חשפון, שחיונית לשמירת שקיפות וסביבת מערכות הבטיחון בתחום הAI המתפתח במהירות. נושא זה עלול לזעזע כמה שאלות חשובות ואתגרים:

שאלות ותשובות עיקריות:
למה חשובה הגנה לחונגי חשפון בענף הAI? הגנת חשפון חשובה מכיוון שהיא מאפשרת לעובדים להדגיש פעילויות לא-אתיות, סיכוני ביטחון או נזקים אפשריים מבלי לפחד מנקמה, מה שעשוי לסייע בשמירה על מסלולים בטוחים ומותאמים לערכי החברה.
מהן התוצאות האפשריות של חוסר הגן לחונגי חשפון? בלעדי ככל חוסר הגנה כזה, עובדים יכולים להיבהל מהדיווח ולהותיר פעילויות פוטנציאל פוגעניות שהמשיכה עלולה להמשך מאבד טים או למצבים חברתיים רחבים יותר.
האם תרבות פתוחת לביקורת יכולה לקיים עם השמירה על סודיות תא הקורפורטיבי? זה אתגרי שיותר קשה להצליח את גדיעות, בהתחשב בעובר ישים שמאפשרים לתאים עמוקים להשאיר את חסמיהם של סודיות ובניון, אך תרבות פתוחת לביקורת היא נחוצה להתקדמות ולביטחון בתחומים הרגישים כמו AI.

אתגרים ופולמוסים:

סודיות נגד透明יות: הרבה חברות מרגישות NDA לרעונות ולתקרת-תחרות, אך אלו יכולים לגרום לסתירת הצורך בשקיפות וחשבונאות, בעיקר כאשר הם מולכלים לסיכונות פוטנציאליים לציבור.

דילמת לעצמי-תקנה: חברות AI, כמו OpenAI, תמיד מעריכות התחייבות לביטחון ולאתיקה. עם זאת, ללא פיקח חיצוני, קשה לוודא כי הן ימנוען אט מעני של טובת הציבור בפני תוענה פרטית.

מחאה לתרבות: היכול להיות מחאה בתוך תרבות קורפורטיבית לשינוי מנהגים מוכרים ותקנים, בעיקר לומר קריאה פתוחה על בעיות פוטנציאליות או כשלים.

יתרונות וחסרונות:

יתרונות:
– מגביר את הסיכוי לזיהוי מוקדם והוא מר סיכונים.
– מקדם תרבות של אחריות וחובה.
– מממן אמון ציבורי בטכנולוגיית AI ובחברות המפתחות אותה.

חסרונות:
– סיכונים של צנזורת מידע מסחרי שעשור על אופיות החרות לחברה.
– מידע מסייח או ראיות שגויות, מוביל לחרדות בלתי דרושות או לשקעת מלכאות.
– חברות עשויות להתמודד עם ביקורת נוספת והתערעות חוקתית.

בעידן בו מתוקנים מסגרות חוקתיות עדיין נדמות לקשות במהלך הזמן של המתפתחויות הטכנולוגיות בAI, הדיונים שפותחו בסביבת ההגנה על חונה חשפון והפולי הכנת הטכנולוגיות של AI הם יסדיים לפיתוח מאחראי של מערכות AI.

אם תרצה לחקור מידע קשור ממקורות ראשיים המעוררי עניין בבינה מלאכותית, תוכל לחשוב על ביקור בקישורים הבאים:

– OpenAI
– DeepMind

שים לב שההמלצות הללו מבוססות על נושא הידע, ומבצעים שילוחיו של ה-URL ישייכו אל דף הבית של הארגונים הרלוונטיים המעורבים בפיתוח AI.

[שטח]https://www.youtube.com/embed/bk-n7HF6k4[/embed]

The source of the article is from the blog meltyfan.es

Privacy policy
Contact