OpenAI از ممنوعیت استفاده نظامی از فناوری AI خودداری می‌کند

سازمان OpenAI ، شرکتی پشت ChatGPT ، به تازگی تغییراتی در سیاست استفاده خود ایجاد کرده است که دیگر استفاده از فناوری هوش مصنوعی خود را برای اهداف نظامی ممنوع نمی‌کند. سیاست ابتدایی به صورت صریح فعالیت‌های مربوط به آسیب‌رسانی جسمانی، از جمله “توسعه اسلحه” و “نظامی و جنگ” را ممنوع می‌کرد. این به معنای این بود که فناوری نمی‌توانست توسط نهادهای مانند وزارت دفاع آمریکا استفاده شود.

با این حال، سیاست به روز شده اکنون زبان مربوط به ممنوعیت استفاده نظامی را بلند می‌کند. اگرچه هنوز استفاده از هوش مصنوعی برای آسیب‌رسانی به خود و دیگران ممنوع است، ممنوعیت کلی قبلی در استفاده از “نظامی و جنگ” برداشته شده است. OpenAI می‌گوید که این به‌روزرسانی بخشی از بازنویسی کامل صفحه سیاست آن بود تا آن را قابل فهم‌تر کند و شامل راهنمایی خاص خدمات باشد.

سیاست بازنگری شده تاکید بر اهمیت حداکثر‌سازی نوآوری و خلاقیت در هماهنگی با قوانین و ایجاد آسیب‌رسانی نکردن دارد. OpenAI معتقد است که کاربران باید انعطاف‌پذیری برای استفاده از خدمات را به دلخواه خود داشته باشند، تا زمانی که به این اصول پایبند باشند. پیامدهای این تغییر سیاست هنوز مشخص نیست.

مهم است به این نکته اشاره کنیم که OpenAI در گذشته به خطرات مربوط به استفاده نظامی از فناوری خود اعتراف کرده است. یک مطالعه مشترک از محققان OpenAI در سال 2022 به مضرات محتمل استفاده از مدل‌های زبانی بزرگ مانند ChatGPT برای جنگ اشاره کرد. علاوه بر این، ابزارهای هوش مصنوعی مانند ChatGPT به امکان تلاش برای تولید کدهای خبیث برای حملات سایبری حساس هستند.

حذف عبارات “نظامی و جنگ” از سیاست استفاده OpenAI نگرانی‌هایی درباره پیامدهای اخلاقی فناوری در محیط‌های نظامی را به وجود می‌آورد. منتقدان ادعا می‌کنند که این تصمیم در زمانی اتخاذ شده است که استفاده از سامانه‌های هوش مصنوعی در جنگ، که معمولاً منجر به صدمات مدنی می‌شود، در حال حاضر یک مسئله مورد بحث است. OpenAI هنوز نظری را درباره این تغییر سیاست ارائه نکرده است.

The source of the article is from the blog tvbzorg.com

Privacy policy
Contact