سازمان OpenAI ، شرکتی پشت ChatGPT ، به تازگی تغییراتی در سیاست استفاده خود ایجاد کرده است که دیگر استفاده از فناوری هوش مصنوعی خود را برای اهداف نظامی ممنوع نمیکند. سیاست ابتدایی به صورت صریح فعالیتهای مربوط به آسیبرسانی جسمانی، از جمله “توسعه اسلحه” و “نظامی و جنگ” را ممنوع میکرد. این به معنای این بود که فناوری نمیتوانست توسط نهادهای مانند وزارت دفاع آمریکا استفاده شود.
با این حال، سیاست به روز شده اکنون زبان مربوط به ممنوعیت استفاده نظامی را بلند میکند. اگرچه هنوز استفاده از هوش مصنوعی برای آسیبرسانی به خود و دیگران ممنوع است، ممنوعیت کلی قبلی در استفاده از “نظامی و جنگ” برداشته شده است. OpenAI میگوید که این بهروزرسانی بخشی از بازنویسی کامل صفحه سیاست آن بود تا آن را قابل فهمتر کند و شامل راهنمایی خاص خدمات باشد.
سیاست بازنگری شده تاکید بر اهمیت حداکثرسازی نوآوری و خلاقیت در هماهنگی با قوانین و ایجاد آسیبرسانی نکردن دارد. OpenAI معتقد است که کاربران باید انعطافپذیری برای استفاده از خدمات را به دلخواه خود داشته باشند، تا زمانی که به این اصول پایبند باشند. پیامدهای این تغییر سیاست هنوز مشخص نیست.
مهم است به این نکته اشاره کنیم که OpenAI در گذشته به خطرات مربوط به استفاده نظامی از فناوری خود اعتراف کرده است. یک مطالعه مشترک از محققان OpenAI در سال 2022 به مضرات محتمل استفاده از مدلهای زبانی بزرگ مانند ChatGPT برای جنگ اشاره کرد. علاوه بر این، ابزارهای هوش مصنوعی مانند ChatGPT به امکان تلاش برای تولید کدهای خبیث برای حملات سایبری حساس هستند.
حذف عبارات “نظامی و جنگ” از سیاست استفاده OpenAI نگرانیهایی درباره پیامدهای اخلاقی فناوری در محیطهای نظامی را به وجود میآورد. منتقدان ادعا میکنند که این تصمیم در زمانی اتخاذ شده است که استفاده از سامانههای هوش مصنوعی در جنگ، که معمولاً منجر به صدمات مدنی میشود، در حال حاضر یک مسئله مورد بحث است. OpenAI هنوز نظری را درباره این تغییر سیاست ارائه نکرده است.
The source of the article is from the blog tvbzorg.com