OpenAI מבקרת את מדיניותה לגבי שימוש צבאי בכלי AI

OpenAI, סוכנות מחקר לבינה מלאכותית, ערכה שינויים במדיניותה בנוגע לשימוש הצבאי של כלי הAI שלה. בעוד החברה הייתה לפני כן מחסימה לשימוש של מודלים שלה לפעילויות עם סיכון גבוה לנזק פיזי, כולל פיתוח נשק ויישומים צבאיים, כעת הוסיפה הקישור המזוהה עם הצבאי מהמדיניות שלה.

השינוי במדיניות מגוון נקודות עם שיתוף פעולה של OpenAI עם משרד הביטחון האמריקאי בכלים שונים של AI, כולל פתרונות אבטחת מידע ציבוריים. בראיון בפורום הכלכלי העולמי, אנה מקנג'ו, סגנית מנהלת העניינים הגלובליים של OpenAI, הסבירה כי הערך המוגבל על שימוש צבאי מעצר ההתבוללות של החברה לגבי מקרים שיכולים להתברר כיתרון לחברה.

המדיניות המתוקנת של OpenAI כעת מדגישה שמשתמשים לא ישתמשו בשירותיה של OpenAI להרעה לעצמם או לאחרים, וגם לא לפיתוח או שימוש בנשק. החברה נוהגת למצות באיזון בין התישורת ליישום מושכל של טכנולוגיית AI תוך תמיכה בשימוש רספונסיבי שנועד למען המטרות הכלליות שלה.

השינוי בגישה של OpenAI לשימוש צבאי של כלי AI משקף את הוועידות העולמות המתמשכות בתעשיית הטכנולוגיה. בשנים האחרונות, עובדי חברות טכנולוגיות גדולות גרמו להשקיע קונצרנים עקרוניים לגבי השתתפותן של חברותיהן בפרויקטים צבאיים. עובדי גוגל, לדוגמה, הפגינו נגד השתתפות החברה שלהם בפרויקט מאבן, מערכת פנטגוןית העושה שימוש בבינה מלאכותית של גוגל לניתוח תמונות מעצר.

בעוד שהחלטת OpenAI לבקר מחדש את מדיניותה עשויה לעורר שאלות, היא מתארגנת בעצם את טבעה המורכב של טכנולוגיית AI והיישומים הפוטנציאליים שלה. היכולת למצוא איזון מתאים בין חדשנות, היטב חברתי ושימוש אחראי היא מהותית מאוד כמו שהAI ממשיכה להתפתח. השתתפותן של OpenAI עם משרד הביטחון האמריקאי והקונצנזוס במערכיו לבדיקת תרחישי שימוש עם AI מדגישים את המחויבות הגבוהה של הארגון כלפי פיתוח AI אחראי ומשפיע.

The source of the article is from the blog reporterosdelsur.com.mx

Privacy policy
Contact