ژانتکس های فناوری جهانی به تعهد به روش های توسعه هوش مصنوعی اخلاقی

به‌طور قابل‌توجهی، شرکت‌های فناوری برجسته، از جمله شرکت‌های بزرگی مانند مایکروسافت، آمازون و OpenAI، به‌صورت جمعی توافق کرده‌اند که به اجرای مجموعه‌ای از تعهدات داوطلبانه بپردازند که هدف آن اطمینان از توسعه ایمن مدل‌های پیشرفته هوش مصنوعی (AI) است. این توافق در سرمایه گذاری ایمنی هوش مصنوعی برگزار شده در سئول به اجرا درآمد.

نکات کلیدی از پیمان بین المللی ایمنی AI:

به عنوان بخشی از توافق، شرکت‌های فناوری از انواع مختلف کشورها در سراسر جهان مانند ایالات متحده، چین، کانادا، انگلیس، فرانسه، کره جنوبی و امارات متحده عربی تصمیم به اجرای چارچوب‌های ایمنی برای مدل‌های AI خود گرفته‌اند. چنین چارچوب‌هایی شامل اندازه‌گیری چالش‌های سیستم‌هایشان بوده و شامل “خطوط قرمز” می‌شود که مرزهای روشنی برای ریسک‌های ناپذیر تعیین می‌کند، از جمله مقابله با حملات سایبری خودکار و پیشگیری از تهدیدهای سلاح‌های بیولوژیک.

برای برطرف کردن شرایط بحرانی که از این سیستم‌های پیشرفته AI آشکار می‌شود، شرکت‌ها اعلام کردند که قصد دارند در صورت عدم تضمین کاهش ریسک‌های تعیین شده، “کلید قطع” را به‌صورت پتانسیلی معرفی کنند. این اقدام اضطراری باعث متوقف شدن توسعه مدل AI خواهد شد اگر این شرکت‌ها نتوانند اطمینان از کاهش ریسک‌های مشخص شده را فراهم سازند.

یگانگی بین‌المللی و تعهد به توسعه AI ایمن:

نخست‌وزیر انگلیس، در بیانیه‌ای تاکیدی بر اهمیت تاریخی پیمان کردار، رویکرد یگانه و وعده شفافیت و پاسخگویی از برخی از بزرگترین شرکت‌های AI دنیا داشت. او به توافق بی‌سابقه درباره تعهدات ایمنی AI اشاره کرد.

گام‌های آینده و چارچوب‌های حقوقی:

تعهدات انتخاب شده به مدل‌های نوینی که به عنوان “مدل‌های مرز” شناخته می‌شوند، که شامل AI تولیدی مانند مجموعه ChatGPT شرکت OpenAI است، تعلق دارند. در حالی که اتحادیه اروپا سعی کرده است که عمل ایجاد AI را محدود کند، دولت انگلیس رویکردی متناسب‌تر را برای تنظیم مدل‌های مرز بدون زمانبندی مشخص انتخاب کرده است.

این پیمان‌شناسی سه‌شنبه گامی برای گسترش مجموعه‌ای از تعهداتی بود که در نوامبر درباره توسعه نرم‌افزار AI تولیدی گرفته شده‌بود. همچنین اعلام کردند که فهرست بازخوردهایی از “بازیگران قابل اعتماد”، شامل دولت‌های اصلی خودشان، در تعهدهای ایمنی‌شان را در قبل از برگزاری اجلاس عملیات AI بعدی در فرانسه، که در اواخر سال 2025 برنامه‌ریزی شده است، جای خواهند گرفت.

سوالات و پاسخ‌های مهم:

س1: چه عمل‌کردهای AI اخلاقی وجود دارد؟
پ1: عمل‌کردهای AI اخلاقی به مجموعه اصول و راهنمایی‌هایی اطلاق می‌شود که هدف ایجاد سیستم‌های AI است که منصفانه، شفاف، پاسخگو و حفظ حریم شخصی و حقوق بشر باشند. دستورالعمل‌های اخلاقی معمولاً از جمله تضمین عدم تعدیل الگوریتم‌ها، رفتار مسئولانه با داده‌های شخصی، ایمنی و معتبریت سیستم‌های AI، و روشهای روشنی درباره فرایندهای تصمیم‌گیری AI شامل می‌شود.

س2: چرا تعهد شرکت‌های فناوری به زمینه AI اخلاقی اهمیت دارد؟
پ2: تعهد شرکت‌های فناوری به اهمیت اساسی است چرا که آن‌ها دارای منابع، گسترده امکان دسترسی و تخصص فنی هستند که به شدت فرایند توسعه AI را به صورت جهانی شکل می‌دهند. پایبندی آن‌ها به دستورالعمل‌های اخلاقی کمک به پیشگیری از سوء استفاده از فناوری AI می‌کند و باعث حل دست‌یابی‌های با ریسک احتمالی مرتبط با اجرای آن می‌شود، از این‌رو اعتماد عمومی به برنامه‌های AI ایجاد می‌شود.

س3: چه چالش‌هایی با توسعه AI اخلاقی همراه است؟
پ3: چالش‌ها شامل تضمین جمع‌آوری و پردازش بی‌طرفانه داده‌ها، پیچیدگی توسعه مدل‌های شفاف هنگامی که AI پیشرفته‌تر می‌شود، پتانسیل سوءاستفاده از AI برای مقوله‌های شرورانه، مشکل در تعریف و اجرای استانداردهای اخلاقی به صورت جهانی، و تعادل بین نوآوری و مقررات را شامل می‌شود.

چالش‌ها یا اختلافات کلیدی:
یکی از اختلافات احتمال این است که شرکت‌های جهانی بر ترکیب منفعت‌ها بر اخلاقیات تمرکز داشته و ممکن است از AI برای مقوله‌های خطرناک استفاده نمایند. همچنین جنبه داوطلبانه تعهدات سوال ایجاب می‌کند که آیا ممکن است شرکت‌ها از کار‌کردن با دستورالعمل‌های اخلاقی منحرف شوند.

یک چالش دیگر در تعادل بین ترویج نوآوری در AI و تضمین این است که این فناوری به طور اخلاقی توسعه و استفاده شود. برخی معتقدند که مقررات زیاد می‌تواند نوآوری را مختل کند، در حالی‌که دیگران باور دارند که قوانین سخت لازم هستند تا از سوءاستفاده‌های احتمالی جلوگیری شود.

موضوع دیگر با تعریف و سنجش رفتار “اخلاقی”، که ممکن است از نظر فرهنگ‌ها و چارچوب‌های حقوقی متفاوتی وجود داشته باشد.

مزایا و معایب:
مزایای عمل‌کردات توسعه AI اخلاقی شامل افزایش اعتماد مصرف‌کننده، ایجاد فناوری‌های منصفانه‌تر و منصفانه‌تر است و پیشگیری از سوءاستفاده از AI را. همچنین مسیر معیاری‌سازی رویکرد استاندارد به اخلاقیات AI راه می‌دهد که بسیار حیاثیت دارد با توجه به ماهیت بدون مرز فناوری و داده‌ها.

معایب ممکن است شامل کندی‌کردن نوآوری AI به علت نیاز به مداوم ارزیابی آثار اخلاقی و دشواری در رسیدن به توافقات بین‌المللی باشد. علاوه بر این، شرکت‌ها ممکن است با هزینه‌ها و تلاش‌های اضافی مرتبط با حفظ استانداردهای اخلاقی مواجه شوند.

برای کسب منابع و خواندن بیشتر درباره اخلاقیات AI و راهنمایی‌ها، می‌توانید به دامنه‌های عمده زیر مراجعه نمایید:

Microsoft
Amazon
OpenAI
European Commission (برای قانون AI اتحادیه اروپا)

Privacy policy
Contact