התפתחות הבינה המלאכותית בקרב אווירי: ניסויים בצבא ארה"ב עם F16 אוטונומי

הנוף של קרב אווירי עשוי להיצפות על תמורה כאשר צבא ארצות הברית משתמש בבינה מלאכותית (AI) בתרגילי קרב בפועל, מאתגר את התפקיד המסורתי של טייסי אורליות. השימוש ב- AI ביישומים צבאיים היה נושא של דיון אינטנסיבי ופניקה, והתפתחויות אחרונות מצביעות על התקדמות משמעותית בתחום זה. חיל האוויר של ארצות הברית ביצע בדיקות בהן מטוס שנשלט על ידי AI, ידוע בשם VISTA (Variable Stability In-flight Simulator Test Aircraft), הילחם יד ביד עם טייס אנושי, מבחן את כישוריו בתרגילי קרב.

במהלך קרב כלובי דמיוני מעל בסיס חיל האוויר של אדוורדס בקליפורניה, המטוס השלוט על ידי AI והעמית האנושי שלו נתמחו במהירויות שעשוות להגיע עד ל-2000 קמ"ש. אף שפרטי ההתקפה והמנצח אינם חשופים למדי, האירוע הזה מסמל צעד משמעותי בבדיקת הקרב האווירי האוטונומי. אלגוריתמי AI עובדים בזמן אמת בכדי לבצע תנועות מהירות משקפות את אלו של טייסים לוחמים מאומנים, מציינים יכולת חשובה של מודעות מכונה בסביבות גבוהות עומק.

האספקה המשפיעה בבדיקות אלה נמצאת בהתקני הביטחון המוגדרים. אין צורך להפעלת מערכות הביטחון, מציין כי AI ניהל את הקרב באופן אוטונומי בלעדי כל שגיאה קריטית. AI קודמות בעלות היות פותחות על ידי Heron Systems כבר הציגו את הפוטנציאל להשיג ניצחונות על טייסים אנושיים, השגים ניצחונות בכל חמישה תרחישים בטורניר של DARPA.

למרות ההתקדמויות האלה, ביל גריי, טייס הבדיקות הראשי, הדגיש כי כישורי הקרב בכלובים הם רק חלק אחד מהיישום הרחב יותר של מערכות אוטונומיות. עניין הצבא בטכנולוגיה כזו נמען, שהוא מבטיח את האפשרות להבציע לחימות אוויריות מבלי לסכן את חיים של בני אדם. כשAI ממשיך להשתלט על השמיים, זה מתבהר מחד כך שטכנולוגיה כזו תצורף את עתידה של לחימת האוויר, פותח פרק חדש במערכות הבטחון שבהן עשויות לקחת דמות מכונות.

כאשר צבא ארצות הברית ממשיך לחקור את השימוש ב- AI בקרב אווירי, שאלות עיקריות, אתגרים ופולמוסים שונים עולים יחד עם הערכת היתרונות והחסרונות הפוטנציאליים של מערכות אלה.

שאלות מפתח ותשובות:
– כיצד AI עובדת עם מצבי חירום או תקלות בקרב? מערכות AI כמו VISTA מיועדות עם אלגוריתמים מורכבים בכדי לעבד מידע ולקבל החלטות בזמן אמת. אך טיפול במצבים בלתי צפויים מצריך למידה מלוכלכת ובדיקות מרובות על מנת להבטיח אמינות ובטיחות.
– חשיבות מוסרית מצייחת משימת נשק אוטונומי? הפוטנציאל להסיר את הקבלת ההחלטות האנושיות ממעשי כוח קטלני עולה בשאלות מוסריות חשובות בנוגע לאחריות, למסגרת ההכרעה, ולאפשרות שטעות מכונה תמשיך את האירועים הבלתי צפויים.

אתגרים ראשיים ופולמוסים:
– אוטונומיה נגד שליטה: השאיפה אחר מאזן בין האוטונומיה של מערכות AI עם גילוי הבינה האנושי נשארת אתגר עיקרי. יש דיון משמעותי על המידע המונקרנדי שנחוץ להכרעות בעברייניות בחיל-לחם.
– חוק הבינלאומי ותקנות: השילוב של AI במבצעים צבאיים חותר על חוק ההומניטרי הבינלאומי, כולל עקרונות כמו בידוד ושקילות. קיים דיאלוג גלובלי באופן קבוע בנוגע להסדרה של מערכות נשק אוטונומיות ותאמתן עם הטיפות הקיימות.

The source of the article is from the blog japan-pc.jp

Privacy policy
Contact