بحثهای اخیر به یک ویدیو درباره استفاده از یادگیری ماشین در عملیات نظامی اسرائیل در غزه متمرکز شده است. در یک کنفرانس در دانشگاه تل آویو در فوریه 2023، یک مقام ارشد از سازمان سایبراینتلیجنس اسرائیل درباره نحوه استفاده از هوش مصنوعی در حمله 2021 برای شناسایی رهبران حماس صحبت کرد. این مقام که به نام سرهنگ یوآو از واحد 8200 شناخته میشود، به کاربرد “پودر جادویی علم داده” اشاره کرد که برای شناسایی اهداف جدید بر مبنای ارتباطات شناخته شده استفاده شده است.
علیرغم انکار نیروهای دفاع اسرائیل از استفاده از هوش مصنوعی برای هدفگذاری تروریستهای مشکوک، داستان ارائهشده توسط سرهنگ یوآو نشان میدهد که یادگیری ماشین به واقع در عملیات آنان نقش داشته است. گزارش شدهاست که نیروهای دفاع اسرائیل از هوش مصنوعی برای کمک به ایجاد لیستهای اهداف استفاده کردند و واحد استخباراتی افتخار کرد که بیش از ۲۰۰ هدف جدید را از طریق این فناوری شناسایی کردهاند.
ابزار مورد اشاره به نام “لاوندر” گفتهشدهاست که در مرتبسازی و اولویتبندی دهها هزار هدف بالقوه در طول تضاد کمک کرده است، از بازخورد از افسران هوشیاری انسانی استفاده کرده و الگوریتم هوش مصنوعی را بهبود دادهاست. به گفته نیروهای دفاع اسرائیل، ارزیابی انسانی در نهایت در مرکز تصمیمگیری مانده است، با وجود کمک از تکنولوژیهای هوش مصنوعی.
حقایق منتشر شده منجر به بحثهایی درباره استفاده اخلاقی از هوش مصنوعی در عملیات نظامی شدهاست، با توجه به احتمال خطا و پیامدهای هدفگذاری مبتنی بر الگوریتم. نیروهای دفاع اسرائیل به برخی ادعاها به عنوان “بیاساس” پاسخ دادهاند و ادامه دادند که در مواقع نبرد، افراد و نه هوش مصنوعی تصمیمات بحرانی را میگیرند. اما پیدایش جزییات چنین مواردی تطور یکپارچهتر علم داده پیشرفته در جنگهای مدرن را نشان میدهد و سوالاتی درباره مسئولیتپذیری و آینده تکنولوژی نظامی ایجاب میکند.
The source of the article is from the blog maltemoney.com.br