האתיקה של מדיניות הולכת בקודי גרעין של AI

במפגש בבוקר של פורום טכנולוגיה ותרבות של סונאר, הוטבע שאלה מעניינת על ידי ארתור גרסיה, פיזיקאי, מהנדס וחוקר במרכז הסופרקומפיוטינג בברצלונה. הוא אתגר את הקהל על ידי העלאת שאלה בעניין החכמת העזה בפיקוחה של הבינה המלאכותית (AI) על קודי גרעין, משקיע משקל מוחלט בשיקול הפקידת הAI בתפקידים קריטיים בעבור החלטות.

הפורום, בכותרת "יוצר פאניקה", הכין את השלב לחקירה מעמיקה בהשפעת AI על האמנות, החברה ותעשיות התרבות. גרסיה שותף כפומו למוארי AI, כולל את פרופסורת חישוב יצירתי מאוניברסיטת האומנויות בלונדון רבקה פייברינק, העיתונאית והסופרת מרתה פיירנו, המנהלת היצירתית מרתה הנדנאוור, והפרופסור לפילוסופיה מנולו מרטינז מאוניברסיטת ברצלונה.

מרתה פיירנו איישה כדיון על כוחה הנמדד של צורות האמנות המסורתיות אף בפני טכנולוגיות חדשות. היא השוותה בין עליית הצילום וההשפעה שלו על ציור לאינטגרציה הנוכחית של AI בייצור סרטים, והביעה הבטחה שסרטים שנוצרו באמצעות AI לא יסמנו את סופו של הקולנוע כפי שאנו מכירים אותו.

סונאר+D, המתמחה ביצירתיות דיגיטלית בפסטיבל סונאר, שמרה על טון של ספקנות טכנולוגית, אך הדגימה גם את הפוטנציאל האמנותי והיצירתי של AI. האירוע חקר את ההיבטים המאירים והמדאיגים של AI, כפי שתיארה קוראת הפסטיבל אנטוניה פולגוורה. היא ציינה כי האירוע מטרתו להציג את הפן המגוון של AI המתיחס ליישומיו המעוררי השראה בתחום המוזיקה עד להשפעותיו החברתיות המחלודיות יותר.

אחת מהדגשים כללה דיון על יכולתה של AI לשרף בעתיד האמנות, תוספת לשיחת המשך על הקשר בין טכנולוגיה ותרבות. צד היצירתי של AI נצהם עם התקנות אינטראקטיביות ופסיכואנליזה של זהות דיגיטלית, מספק חוויית מעוררת עניין למשתתפים.

אולם, לא כל הדיונים נתמכים ביישומי הAI. ההופעה של הפעילה סשה קוסטנזה-צ'וק דגימה את הסכנות של שימוש לא כוח בטכנולוגיה, מתארת איך AI עשויה להגות עם פעולות אלימות נוראיות ומציינת את השיקולים האתיים בהפעלת טכנולוגיה חזקה זו.

האתיקה של פיקוח AI על קודי גרעין מעלה שאלות חשובות:

1. כיצד ניתן לוודא את האמינות של מערכות AI שמצוים בשליטת נשק גרעיני? פיתוח מנגנוני ביטחון ובדיקות חוזק חיוניים להפחתת סיכוני השיגוגים לרקעים שגיאתיים או לחושים בAI.
2. האם מערכות נשק שבמערכת בקרתן AI יכולות להפעיל החלטות ללא התערבות בני אדם, והאם עליהן לעשות זאת? קיים דיון אם מערכות שמשולבות עם מבנה האדם במעגל ההחלטות הן נחוצות לשמירה על שליטה מוסרית ואסטרטגית על שימוש בנשקי גרעין.
3. מהן ההשלכות של דינמיקת רציפות AI בין המדינות? התחרות לפיתוח טכנולוגיית AI עליונה להגנתית עשויה להוביל לגידול בטנשניה ולמירוד את איוש השלום הבינלאומי.

אתגרים או טעויות ראשיים שקשורים לAI בקודי גרעין כוללים:

אתיקת המכונות: הפרוגרמה לאתיקה ולשיקול מוסרי למערכות AI, במיוחד לגבי מצבי חיים ומוות, היא אתגר שעוד לא נפתר.
שקיפות בתהליך הקבלת ההחלטות: תהליך הקבלת ההחלטות של AI עשוי להיות מעוון, מעלה שאלות בנוגע לאחריות ולכשלון של פעולות שנעשו על ידי מערכות AI.
תקנות בינלאומיות: קיימת חוסר בחוקים או בהסכמים בינלאומיים המוסמכים במיוחד בנוגע לשימוש בAI במערכות נשק גרעיני.

יתרונות וחסרונות הם גם קיימים בשיחה:

יתרונות:
יעילות ומהירות: AI יכולה לעבד מידע ולתאם תגובות הרבה מהר יותר מאשר בני אדם, מתן פוטנציאל ליתרונות במצבי ביטחוניים.
הפחתת טעויות בני האדם: AI עשוי להפחית את הסיכון לשגיאות בלתי כוויינות המובילות לשריפה בעקבות זיקות או שגיאות תפיסה.

חסרונות:
סיכון למלחמת שגיאות: התחפשות AI לנתונים או פרעות במערכת יכולות לפתוט קרינות גרעין בצורה בלתי מכוונת.
קושיים מוסריים: מסורת ההוראת הפקידות האתיות, כמו שימוש בנשקי גרעין, למכונות יכול לצמצם את הרגשיות או את המרחק שבין האדם למשקל של אפשרויות כאלה.

ניתן למצוא קישורים נלווים מומלצים לתחום העיקרי להעמקת היבואים בניהול ובאתיקה של AI שם:

RAND Corporation עשתה חקירות נרחבות בנוגע להשלכות הAI במלחמה.
Future of Life Institute תוקם בשביל תמיכה בAI בצורה בטוחה ומועילה, כולל הדיונים בנושא נשקי גרעין.
CSET מציע ניתוחים והמלצות בנוגע להשלכות הביטחוניות של טכנולוגיות חדשות כמו AI.

Privacy policy
Contact