استفاده از تکنولوژی DALL-E از OpenAI در عملیات نظامی

به گزارش پایگاه اینترسپت، در حالی که Microsoft به تازگی پیشنهاد استفاده از ابزار تولید تصویر DALL-E از OpenAI را برای کمک به وزارت دفاع (DoD) در ساخت نرم‌افزارهایی برای عملیات نظامی ارائه داده است. این فاش شد کوتاهی پس از اینکه OpenAI ماجراهای پیشین مربوط به کارهای نظامی خود را لغو کرده و اجازه همکاری‌های بالقوه در این زمینه داد.

ارائه مایکروسافت با عنوان “هوش مصنوعی زایشی با داده‌های DoD” شرح داده است که چگونه DoD می‌تواند از ابزارهای یادگیری ماشین OpenAI، از جمله ژنراتور متنی ChatGPT آن‌ها و ابزار تولید تصویر DALL-E، استفاده نماید. این ابزارها قابلیت اعمال در وظایف مختلفی را دارند، از تحلیل اسناد تا نگهداری ماشین، در محدوده عملیات نظامی. سرمایه‌گذاری قابل توجه مایکروسافت در OpenAI، رابطه کاری نزدیکی بین این دو شرکت ایجاد کرده است. با این حال، مایکروسافت و OpenAI به دلیل استفاده از رسانه‌ها بدون اجازه یا اعتبار با اقدامات قضایی روبرو شده‌اند.

مواد مستخرج از سند مایکروسافت از یک همایش آموزشی “سواد هوش مصنوعی” سازمان DoD در اکتبر 2023 گرفته شده بود. انواع شرکت‌های یادگیری ماشین، از جمله مایکروسافت و OpenAI، پیشنهادات و قابلیت‌های خود را به پنتاگون در این رویداد ارائه کرده بودند.

فایل‌های قابل دسترس عموم از وب‌سایت Alethia Labs، یک مشاوره غیرانتفاعی که بازاریابی فناوری را به دولت فدرال کمک می‌کند متناهی شدند. خبرنگار جک پولسون این مواد را به عنوان بخشی از بررسی گسترده‌تر خود از ارائه کشف کرد. Alethia Labs از سال گذشته به‌طور نزدیک با پنتاگون برای یکپارچگی سریع ابزارهای هوش مصنوعی کار می‌کند و از سال قبل قراردادهایی با دفتر اصلی هوش مصنوعی پنتاگون داشته است.

سوالات متداول

– چیست سامانه مدیریت نبرد؟
سامانه مدیریت نبرد یک مجموعه نرم‌افزاری فرمان‌دهی و کنترل است که توسط رهبران نظامی برای بررسی جامع وضعیت در صحنه‌های جنگی استفاده می‌شود. این اجازه را می‌دهد که اقداماتی مانند آتش اف کردن توپ‌ها، شناسایی اهداف حمله از سوی پهپادها و جابه‌جایی نیروها هماهنگ شود.
– چگونه DALL-E می‌تواند در سامانه‌های مدیریت نبرد کمک نماید؟
با استفاده از DALL-E، کامپیوترهای پنتاگون به‌طور تئوری می‌توانند قابلیت‌های “بینایی” خود را بهبود ببخشند. تصاویر تولیدی توسط DALL-E به این کامپیوترها اجازه می‌دهند تا شرایط در میدان نبرد را بهتر “ببینند” و درک کنند. این بهبود به طور چشمگیری در شناسایی اهداف و عملیات نابودی کمک خواهد کرد.
– آیا مایکروسافت قبلاً از DALL-E برای اهداف نظامی استفاده کرده است؟
به گفته مایکروسافت به The Intercept، در حالی که آن‌ها پیشنهاد دادند که از DALL-E برای آموزش نرم‌افزارهای میدان جنگ استفاده کنند، تاکنون اجرا انجام نشده است. مایکروسافت تأکید کرده است که این استفاده‌ها موارد استفاده ممکنی است که از طریق گفتگوهای مشتری مورد بحث قرار گرفته است.
– آیا OpenAI ابزاری را به وزارت دفاع فروخته است؟
OpenAI هیچ رابطه‌ای با پیشنهاد مایکروسافت به پنتاگون ندارد و ادعا کرده که هیچ ابزاری را به وزارت دفاع نفروخته است. سیاست‌های OpenAI با سختی ممنوع کردن استفاده از ابزارهای خود برای توسعه سلاح‌ها، ایجاد صدمه به دیگران یا تخریب مالکیت را پیگیری می‌کند.



معطوف به تمثیل‌گر لیز بورژوئه از OpenAI تکرار کرد که مدل‌های OpenAI تا کنون به صورت توصیف شده در اسناد ارائه‌ای به کار گرفته نشده‌اند. علاوه بر این، OpenAI هیچ شراکتی با آژانس‌های دفاعی به‌خصوص برای استفاده از API یا ChatGPT آن در چنین زمان‌بندی‌هایی ندارد.

با توجه به سیاست‌های پیشین OpenAI، یک کاربرد نظامی از DALL-E بازمانده بود. مایکروسافت روشن می‌کند که اگر پنتاگون از DALL-E یا ابزارهای OpenAI دیگر از طریق یک قرارداد با مایکروسافت استفاده کنند، آن‌ها باید مطابق سیاست‌های استفاده از مایکروسافت پایین آیند. با این حال، استفاده از فناوری OpenAI برای بهبود قابلیت‌های کشتار و تخریبی نظامی، نشانگر یک تغییر قابل توجه برای شرکت است که مأخذ آن توسعه هوش مصنوعی ایمن برای بهبود بشریت است.

برایانا روزن، یک سهمگذار مهمان در دانشکده بلاواتنیک دانشگاه آکسفورد با تمرکز بر اخلاق فناوری، بر اهمیت‌های اخلاقی اطراف چنین تکنولوژی‌هایی تأکید می‌کند. او آن نکته را مطرح می‌کند که استفاده از تکنولوژی‌های OpenAI توسط دولت‌ها، سودی منفی یا مثبت، اساساً یک انتخاب سیاسی است.

سند ارائه جزئیات صریحی را در مورد چگونگی استقرار DALL-E در سامانه‌های مدیریت نبرد ارائه نمی‌دهد. با این حال، اشارات آن به آموزش این سیستم‌ها، به یک کاربرد بالقوه در تهیه داده‌های آموزشی مصنوعی برای پنتاگون اشاره دارد. با ارایه نرم‌افزار نظامی با تعداد زیادی از تصاویر مصنوعی تولیدی توسط DALL-E، نرم‌افزار می‌تواند بهتر اهداف مربوطه را در صحنه‌های واقعی، مانند جایگاه‌های دشمنان در زمین، شناسایی نماید.

از نگرانی‌های اخلاقی، هایدی خلاف، یک مهندس ایمنی یادگیری ماشین که پیش‌تر با OpenAI همکاری داشته است، از دقت و قابلیت اعتماد در استفاده از DALL-E برای آموزش نرم‌افزارهای نظامی پرسش مطرح می‌کند. خلاف ادعا می‌کند که تصاویر زایشی DALL-E در حال حاضر مایوسی جهت‌های واقعی را ندارند که از کارایی آن‌ها برای تنظیم دقیق سیستم‌های مدیریت نبرد تحت‌الملکی می‌کند.

در پایان، در حالی که مایکروسافت پیشنهاد استفاده از DALL-E از OpenAI را برای عملیات نظامی ارائه داده است، تا کنون به تجربه عمل نپرداخته است. OpenAI ادعا کرده است که در این پیشنهاد خاص دخالت نداشته و بر تأکید خود بر پیشگیری از استفاده از ابزارهای خود برای اهداف مضر تاکید می‌کند. بالقوه DALL-E در سامانه‌های مدیریت نبرد هنوز به دیده نرسیده است، با توجه به دقت، ابعاد اخلاقی و مأموریت کلی OpenAI.

فاش شدن اینکه Microsoft پیشنهاد استفاده از ابزار تولید تصویر DALL-E از OpenAI را برای عملیات نظامی ارائه داده است، گفتگوها درباره ابعاد احتمالی و اخلاقیات مربوط به همکاری به وجود آورده است. همانطور که به گزارش پایگاه اینترسپت، ارائه مایکروسافت به وزارت دفاع (DoD) شرح داد که ابزارهای یادگیری ماشین OpenAI، از جمله ChatGPT و DALL-E، چگونه می‌تواند به وظایف داخل عملیات نظامی اعمال شود، دارای تحلیل اسناد و نگهداری ماشین است.

این همکاری پس از لغو ماجراهای پیشین OpenAI در زمینه کارهای نظامی صورت گرفته است، که امکان شراکت‌های بالقوه در این حوزه را فراهم می‌کند. سرمایه‌گذاری قابل توجه مایکروسافت در OpenAI رابطه کاری نزدیکی را نهاده است، هرچند هر دو شرکت برای استفاده از رسانه‌ها بدون اجازه یا اعتبار با دعاوی قانونی مواجه شده‌اند.

مواد ارائه مایکروسافت بر روی وب‌سایت Alethia Labs کشف شدند، یک مشاوره غیرانتفاعی که با دولت فدرال در زمینه بهره‌وری فناوری همکاری می‌کند. Alethia Labs به‌طور فعال با پنتاگون همکاری می‌کند و قرارداد‌ها با دفتر عمدتاً تخصصی هوش مصنوعی پنتاگون دارد. خبرنگار جک پولسون این مواد را به عنوان بخشی از تحقیقاتش کشف کرد.

تلاش‌مان تا الآن بر این بوده که یک مجموعه از داده‌ها، اطلاعات و اطلاعیه‌های مختلف انتخاب شده

The source of the article is from the blog toumai.es

Privacy policy
Contact