סיכונים ב- AI המייצרת אמנות מודגשים על ידי מהנדס בחברת Microsoft

חקירה של הסיכונים הפוטנציאליים של AI ביצירת תמונות

התקדמות בבינה מלאכותית (AI) ממשיכה להתקדם, עם AI הופכת להיות כלי נפוץ יותר ויותר בתחומות מקצועיים, בתחושתה היא מפשטת לגדל העבודה. מבנה OpenAI, ידוע בפיתוח מודלים כגון ChatGPT ו-DALL-E, הפך לשם בולט בתעשיית AI. ChatGPT כיבית את הציבור על ידי יצירת טקסט באופן אוטונומי לאחר ניתוח כמויות עצומות של נתונים. DALL-E, מצידו, מחזיק ביכולת ליצור תמונות מתוך תיאורים טקסטואליים באמצעות בנק מידע דומה.

אך תחת משטח הפלאים הטכנולוגיים הללו מאיימים סיכונים פוטנציאליים. מנהל במיקרוסופט הזכיר לאחרונה וולנרביל קיימות שימושים אמורים עם DALL-E. כפי שדיווחה GeekWire, דיבר המהנדס שיין ג'ונס של מיקרוסופט על סיכונים הקשורים עם DALL-E גרסה 3. הוא זיהה בעיה שבה תמונות מפורטות או אלימות עשויות להיוצר בגלל פער אבטחה. בדצמבר 2023, ג'ונס נפנה ל-LinkedIn כדי להביע את דאגותיו דרך פוסט ציבורי.

ג'ונס החליט להעביר את הנושא הזה לרשויות גבוהות למרות הניסיונות שנעשו על ידי מיקרוסופט להשתיק אותו, כולל הוראה למחוק את הפוסט שלו ב-LinkedIn. עומד נאמן בקו עד הסוף, והוא פנה לחברת הסנאט של ארצות הברית, פאטי מארי, ובמכתב ביקש לבטל את השימוש הציבורי ב- DALL-E 3 כל עוד OpenAI לא פותרת את הסיכונים שבגמרם של המודל.

השלכות הרחבות של מחולשה בייצור תמונות AI

הפרצות אלה אינן נעצרות רק בתמונות; הן משתרעות לדיפייקס – סרטונים טכנולוגיים המיוצרים ליצירת אירועים או נאומים שלא קרו. הטכנולוגיה עשויה להימלט ליצירת פורנוגרפיה ברי לעלמא על ידי זרימת מגוון רגשות על פני אדם ומספקת מעליהם על אדם אחר בסרטון מפורט. טכניקה זו נכשלה כדי ליצור תוכן מפורט באופן לא חוקי של סלבס, כגון זמרת הפופ האמריקאית טיילור סוויפט, מדגישה בעיה קיומית ורמתית, למרות המאמצים שנעשו על ידי מעריצים ופלטפורמות חברתיות כמו אקס למנוע את התפשטות החומרים האלה.

התקדמות טכנולוגית מביאה איתה צורך בהתרת דבר ובשקיפות, כפי שהוצגו בשווקות של מחולשה בייצור תמונות AI כמו DALL-E.

שאלות ותשובות מרכזיות:

1. מהם הסיכונים המסוימים המשותפים עם תמונות שנוצרו על ידי AI?
תמונות שנוצרו על ידי AI דורשות סיכונים מסוימים, כגון היכולת ליצור דיפייקס ריאליסטיים, לפלומיות פרטיות על ידי העמדת פחותים, להפצת מידע שקרי, או ליצירת תוכן מפורט ואלים.

2. מדוע חשוב שמהנדס במיקרוסופט הבהיר את הדאגות הללו?
זה מבסוט חומריות את הסוגיות כאשר מקצוענים בעולם התעשיה מחברות בלתי מעורבות, כגון מיקרוסופט, מביעים דאגות על הטכנולוגיות עם הן משותפות, במיוחד כאשר דובר על סיכונים לביטחון הציבור.

3. מה ניתן לעשות כדי להקל על הסיכונים המשותפים עם AI כמו DALL-E?
כדי להקל על הסיכונים, פיתחים יכולים ליישם ציבוריות תוכן מחמירה, לשפר מידות בטחוניות למנוע שימוש בלתי מורשה, להכניס לתוך תנאי שימוש ברורים, ולעבוד עם חוקגנים ביצירת מסגרות רגולטוריות.

אתגרים מרכזיים או פולמוסים:

– האיזון בין חדשנות והשפעות אתיות הוא אתגר מרכזי. התקדמויות AI מביאות עםיהן בפוטנציאל להטבות, אך גם מעלים דאגות אתיות כמו פלטים בייאסטי, שימוש לא הולם, והשפעה על התעסוקה בתחומים מקראיים.
– סוגיה עולה כאשר מדובר בסניגור נגד חופש להביע, במיוחד כאשר אי אפשר להיתצב בינות את Aי היכולה לייצר תוכן הגובה את גבולותיו המזיקים או הלסיבלים.
– האתגר המתמשך הוא להבטיח שהמודלים AI מכבדים זכויות קניין רוחני וחומר זה מאתגר תקלות ליצירתי סביב תוכן AI.

יתרונות וחסרונות:

יתרונות:
– תמונות שנוצרות על ידי AI יכולות לשמש לביטוי יצירתי, ולהגדיל ביצועים עבור משימות כמו עיצוב ואיור.
– טכנולוגיות אלה יכולות לשמש לצרכים מורה ולהיאד בתהליכי למידה ולעזור בהתמצאות במורכבת ושחכאות היסטוריות.
– הן יכולות לשפר את חוויות הבידור דרך תוכן אישי וסביבות משחק ריאליות.

חסרונות:
– תמונות שנוצרות על ידי AI עשויות להועלם כדי ליצור תוכן מזוייף או להפר זכויות אנשים דרך דמויות לא מורתרות.
– יכולות לתרום להשכלת עבודות בתעשיות שמסתמכות על כשרון יצירתי.
– יש שימוש כלפי לתרום לאובדן משוטי ועיקולי, כולל יצירה בתוכן מפורט שאינו על פי בקשה.

קישורים קשורים:
– לעדכונים על התקדמויות ב AI ובפרוייקטים של OpenAI, תוכלו למצוא OpenAI.
– כדי להבין שיחות כללי התייחסות בשאלות האתיקה והסיכונים המסוברות ל AI, בלוג של Microsoft מופיע באופן קבוע כולל תובנות ממומחים בתחום ומהנדסים.
– מידע על מאמצי חקיקה הנוגעים לAI ניתן למצוא באתר הרשמי של הסנאט של ארצות הברית, Senate.

The source of the article is from the blog kewauneecomet.com

Privacy policy
Contact