به گزارش پایگاه اینترسپت، در حالی که Microsoft به تازگی پیشنهاد استفاده از ابزار تولید تصویر DALL-E از OpenAI را برای کمک به وزارت دفاع (DoD) در ساخت نرمافزارهایی برای عملیات نظامی ارائه داده است. این فاش شد کوتاهی پس از اینکه OpenAI ماجراهای پیشین مربوط به کارهای نظامی خود را لغو کرده و اجازه همکاریهای بالقوه در این زمینه داد.
ارائه مایکروسافت با عنوان “هوش مصنوعی زایشی با دادههای DoD” شرح داده است که چگونه DoD میتواند از ابزارهای یادگیری ماشین OpenAI، از جمله ژنراتور متنی ChatGPT آنها و ابزار تولید تصویر DALL-E، استفاده نماید. این ابزارها قابلیت اعمال در وظایف مختلفی را دارند، از تحلیل اسناد تا نگهداری ماشین، در محدوده عملیات نظامی. سرمایهگذاری قابل توجه مایکروسافت در OpenAI، رابطه کاری نزدیکی بین این دو شرکت ایجاد کرده است. با این حال، مایکروسافت و OpenAI به دلیل استفاده از رسانهها بدون اجازه یا اعتبار با اقدامات قضایی روبرو شدهاند.
مواد مستخرج از سند مایکروسافت از یک همایش آموزشی “سواد هوش مصنوعی” سازمان DoD در اکتبر 2023 گرفته شده بود. انواع شرکتهای یادگیری ماشین، از جمله مایکروسافت و OpenAI، پیشنهادات و قابلیتهای خود را به پنتاگون در این رویداد ارائه کرده بودند.
فایلهای قابل دسترس عموم از وبسایت Alethia Labs، یک مشاوره غیرانتفاعی که بازاریابی فناوری را به دولت فدرال کمک میکند متناهی شدند. خبرنگار جک پولسون این مواد را به عنوان بخشی از بررسی گستردهتر خود از ارائه کشف کرد. Alethia Labs از سال گذشته بهطور نزدیک با پنتاگون برای یکپارچگی سریع ابزارهای هوش مصنوعی کار میکند و از سال قبل قراردادهایی با دفتر اصلی هوش مصنوعی پنتاگون داشته است.
سوالات متداول
– چیست سامانه مدیریت نبرد؟
سامانه مدیریت نبرد یک مجموعه نرمافزاری فرماندهی و کنترل است که توسط رهبران نظامی برای بررسی جامع وضعیت در صحنههای جنگی استفاده میشود. این اجازه را میدهد که اقداماتی مانند آتش اف کردن توپها، شناسایی اهداف حمله از سوی پهپادها و جابهجایی نیروها هماهنگ شود.
– چگونه DALL-E میتواند در سامانههای مدیریت نبرد کمک نماید؟
با استفاده از DALL-E، کامپیوترهای پنتاگون بهطور تئوری میتوانند قابلیتهای “بینایی” خود را بهبود ببخشند. تصاویر تولیدی توسط DALL-E به این کامپیوترها اجازه میدهند تا شرایط در میدان نبرد را بهتر “ببینند” و درک کنند. این بهبود به طور چشمگیری در شناسایی اهداف و عملیات نابودی کمک خواهد کرد.
– آیا مایکروسافت قبلاً از DALL-E برای اهداف نظامی استفاده کرده است؟
به گفته مایکروسافت به The Intercept، در حالی که آنها پیشنهاد دادند که از DALL-E برای آموزش نرمافزارهای میدان جنگ استفاده کنند، تاکنون اجرا انجام نشده است. مایکروسافت تأکید کرده است که این استفادهها موارد استفاده ممکنی است که از طریق گفتگوهای مشتری مورد بحث قرار گرفته است.
– آیا OpenAI ابزاری را به وزارت دفاع فروخته است؟
OpenAI هیچ رابطهای با پیشنهاد مایکروسافت به پنتاگون ندارد و ادعا کرده که هیچ ابزاری را به وزارت دفاع نفروخته است. سیاستهای OpenAI با سختی ممنوع کردن استفاده از ابزارهای خود برای توسعه سلاحها، ایجاد صدمه به دیگران یا تخریب مالکیت را پیگیری میکند.
معطوف به تمثیلگر لیز بورژوئه از OpenAI تکرار کرد که مدلهای OpenAI تا کنون به صورت توصیف شده در اسناد ارائهای به کار گرفته نشدهاند. علاوه بر این، OpenAI هیچ شراکتی با آژانسهای دفاعی بهخصوص برای استفاده از API یا ChatGPT آن در چنین زمانبندیهایی ندارد.
با توجه به سیاستهای پیشین OpenAI، یک کاربرد نظامی از DALL-E بازمانده بود. مایکروسافت روشن میکند که اگر پنتاگون از DALL-E یا ابزارهای OpenAI دیگر از طریق یک قرارداد با مایکروسافت استفاده کنند، آنها باید مطابق سیاستهای استفاده از مایکروسافت پایین آیند. با این حال، استفاده از فناوری OpenAI برای بهبود قابلیتهای کشتار و تخریبی نظامی، نشانگر یک تغییر قابل توجه برای شرکت است که مأخذ آن توسعه هوش مصنوعی ایمن برای بهبود بشریت است.
برایانا روزن، یک سهمگذار مهمان در دانشکده بلاواتنیک دانشگاه آکسفورد با تمرکز بر اخلاق فناوری، بر اهمیتهای اخلاقی اطراف چنین تکنولوژیهایی تأکید میکند. او آن نکته را مطرح میکند که استفاده از تکنولوژیهای OpenAI توسط دولتها، سودی منفی یا مثبت، اساساً یک انتخاب سیاسی است.
سند ارائه جزئیات صریحی را در مورد چگونگی استقرار DALL-E در سامانههای مدیریت نبرد ارائه نمیدهد. با این حال، اشارات آن به آموزش این سیستمها، به یک کاربرد بالقوه در تهیه دادههای آموزشی مصنوعی برای پنتاگون اشاره دارد. با ارایه نرمافزار نظامی با تعداد زیادی از تصاویر مصنوعی تولیدی توسط DALL-E، نرمافزار میتواند بهتر اهداف مربوطه را در صحنههای واقعی، مانند جایگاههای دشمنان در زمین، شناسایی نماید.
از نگرانیهای اخلاقی، هایدی خلاف، یک مهندس ایمنی یادگیری ماشین که پیشتر با OpenAI همکاری داشته است، از دقت و قابلیت اعتماد در استفاده از DALL-E برای آموزش نرمافزارهای نظامی پرسش مطرح میکند. خلاف ادعا میکند که تصاویر زایشی DALL-E در حال حاضر مایوسی جهتهای واقعی را ندارند که از کارایی آنها برای تنظیم دقیق سیستمهای مدیریت نبرد تحتالملکی میکند.
در پایان، در حالی که مایکروسافت پیشنهاد استفاده از DALL-E از OpenAI را برای عملیات نظامی ارائه داده است، تا کنون به تجربه عمل نپرداخته است. OpenAI ادعا کرده است که در این پیشنهاد خاص دخالت نداشته و بر تأکید خود بر پیشگیری از استفاده از ابزارهای خود برای اهداف مضر تاکید میکند. بالقوه DALL-E در سامانههای مدیریت نبرد هنوز به دیده نرسیده است، با توجه به دقت، ابعاد اخلاقی و مأموریت کلی OpenAI.
فاش شدن اینکه Microsoft پیشنهاد استفاده از ابزار تولید تصویر DALL-E از OpenAI را برای عملیات نظامی ارائه داده است، گفتگوها درباره ابعاد احتمالی و اخلاقیات مربوط به همکاری به وجود آورده است. همانطور که به گزارش پایگاه اینترسپت، ارائه مایکروسافت به وزارت دفاع (DoD) شرح داد که ابزارهای یادگیری ماشین OpenAI، از جمله ChatGPT و DALL-E، چگونه میتواند به وظایف داخل عملیات نظامی اعمال شود، دارای تحلیل اسناد و نگهداری ماشین است.
این همکاری پس از لغو ماجراهای پیشین OpenAI در زمینه کارهای نظامی صورت گرفته است، که امکان شراکتهای بالقوه در این حوزه را فراهم میکند. سرمایهگذاری قابل توجه مایکروسافت در OpenAI رابطه کاری نزدیکی را نهاده است، هرچند هر دو شرکت برای استفاده از رسانهها بدون اجازه یا اعتبار با دعاوی قانونی مواجه شدهاند.
مواد ارائه مایکروسافت بر روی وبسایت Alethia Labs کشف شدند، یک مشاوره غیرانتفاعی که با دولت فدرال در زمینه بهرهوری فناوری همکاری میکند. Alethia Labs بهطور فعال با پنتاگون همکاری میکند و قراردادها با دفتر عمدتاً تخصصی هوش مصنوعی پنتاگون دارد. خبرنگار جک پولسون این مواد را به عنوان بخشی از تحقیقاتش کشف کرد.
تلاشمان تا الآن بر این بوده که یک مجموعه از دادهها، اطلاعات و اطلاعیههای مختلف انتخاب شده
The source of the article is from the blog toumai.es