بهطور قابلتوجهی، شرکتهای فناوری برجسته، از جمله شرکتهای بزرگی مانند مایکروسافت، آمازون و OpenAI، بهصورت جمعی توافق کردهاند که به اجرای مجموعهای از تعهدات داوطلبانه بپردازند که هدف آن اطمینان از توسعه ایمن مدلهای پیشرفته هوش مصنوعی (AI) است. این توافق در سرمایه گذاری ایمنی هوش مصنوعی برگزار شده در سئول به اجرا درآمد.
نکات کلیدی از پیمان بین المللی ایمنی AI:
به عنوان بخشی از توافق، شرکتهای فناوری از انواع مختلف کشورها در سراسر جهان مانند ایالات متحده، چین، کانادا، انگلیس، فرانسه، کره جنوبی و امارات متحده عربی تصمیم به اجرای چارچوبهای ایمنی برای مدلهای AI خود گرفتهاند. چنین چارچوبهایی شامل اندازهگیری چالشهای سیستمهایشان بوده و شامل “خطوط قرمز” میشود که مرزهای روشنی برای ریسکهای ناپذیر تعیین میکند، از جمله مقابله با حملات سایبری خودکار و پیشگیری از تهدیدهای سلاحهای بیولوژیک.
برای برطرف کردن شرایط بحرانی که از این سیستمهای پیشرفته AI آشکار میشود، شرکتها اعلام کردند که قصد دارند در صورت عدم تضمین کاهش ریسکهای تعیین شده، “کلید قطع” را بهصورت پتانسیلی معرفی کنند. این اقدام اضطراری باعث متوقف شدن توسعه مدل AI خواهد شد اگر این شرکتها نتوانند اطمینان از کاهش ریسکهای مشخص شده را فراهم سازند.
یگانگی بینالمللی و تعهد به توسعه AI ایمن:
نخستوزیر انگلیس، در بیانیهای تاکیدی بر اهمیت تاریخی پیمان کردار، رویکرد یگانه و وعده شفافیت و پاسخگویی از برخی از بزرگترین شرکتهای AI دنیا داشت. او به توافق بیسابقه درباره تعهدات ایمنی AI اشاره کرد.
گامهای آینده و چارچوبهای حقوقی:
تعهدات انتخاب شده به مدلهای نوینی که به عنوان “مدلهای مرز” شناخته میشوند، که شامل AI تولیدی مانند مجموعه ChatGPT شرکت OpenAI است، تعلق دارند. در حالی که اتحادیه اروپا سعی کرده است که عمل ایجاد AI را محدود کند، دولت انگلیس رویکردی متناسبتر را برای تنظیم مدلهای مرز بدون زمانبندی مشخص انتخاب کرده است.
این پیمانشناسی سهشنبه گامی برای گسترش مجموعهای از تعهداتی بود که در نوامبر درباره توسعه نرمافزار AI تولیدی گرفته شدهبود. همچنین اعلام کردند که فهرست بازخوردهایی از “بازیگران قابل اعتماد”، شامل دولتهای اصلی خودشان، در تعهدهای ایمنیشان را در قبل از برگزاری اجلاس عملیات AI بعدی در فرانسه، که در اواخر سال 2025 برنامهریزی شده است، جای خواهند گرفت.
سوالات و پاسخهای مهم:
س1: چه عملکردهای AI اخلاقی وجود دارد؟
پ1: عملکردهای AI اخلاقی به مجموعه اصول و راهنماییهایی اطلاق میشود که هدف ایجاد سیستمهای AI است که منصفانه، شفاف، پاسخگو و حفظ حریم شخصی و حقوق بشر باشند. دستورالعملهای اخلاقی معمولاً از جمله تضمین عدم تعدیل الگوریتمها، رفتار مسئولانه با دادههای شخصی، ایمنی و معتبریت سیستمهای AI، و روشهای روشنی درباره فرایندهای تصمیمگیری AI شامل میشود.
س2: چرا تعهد شرکتهای فناوری به زمینه AI اخلاقی اهمیت دارد؟
پ2: تعهد شرکتهای فناوری به اهمیت اساسی است چرا که آنها دارای منابع، گسترده امکان دسترسی و تخصص فنی هستند که به شدت فرایند توسعه AI را به صورت جهانی شکل میدهند. پایبندی آنها به دستورالعملهای اخلاقی کمک به پیشگیری از سوء استفاده از فناوری AI میکند و باعث حل دستیابیهای با ریسک احتمالی مرتبط با اجرای آن میشود، از اینرو اعتماد عمومی به برنامههای AI ایجاد میشود.
س3: چه چالشهایی با توسعه AI اخلاقی همراه است؟
پ3: چالشها شامل تضمین جمعآوری و پردازش بیطرفانه دادهها، پیچیدگی توسعه مدلهای شفاف هنگامی که AI پیشرفتهتر میشود، پتانسیل سوءاستفاده از AI برای مقولههای شرورانه، مشکل در تعریف و اجرای استانداردهای اخلاقی به صورت جهانی، و تعادل بین نوآوری و مقررات را شامل میشود.
چالشها یا اختلافات کلیدی:
یکی از اختلافات احتمال این است که شرکتهای جهانی بر ترکیب منفعتها بر اخلاقیات تمرکز داشته و ممکن است از AI برای مقولههای خطرناک استفاده نمایند. همچنین جنبه داوطلبانه تعهدات سوال ایجاب میکند که آیا ممکن است شرکتها از کارکردن با دستورالعملهای اخلاقی منحرف شوند.
یک چالش دیگر در تعادل بین ترویج نوآوری در AI و تضمین این است که این فناوری به طور اخلاقی توسعه و استفاده شود. برخی معتقدند که مقررات زیاد میتواند نوآوری را مختل کند، در حالیکه دیگران باور دارند که قوانین سخت لازم هستند تا از سوءاستفادههای احتمالی جلوگیری شود.
موضوع دیگر با تعریف و سنجش رفتار “اخلاقی”، که ممکن است از نظر فرهنگها و چارچوبهای حقوقی متفاوتی وجود داشته باشد.
مزایا و معایب:
مزایای عملکردات توسعه AI اخلاقی شامل افزایش اعتماد مصرفکننده، ایجاد فناوریهای منصفانهتر و منصفانهتر است و پیشگیری از سوءاستفاده از AI را. همچنین مسیر معیاریسازی رویکرد استاندارد به اخلاقیات AI راه میدهد که بسیار حیاثیت دارد با توجه به ماهیت بدون مرز فناوری و دادهها.
معایب ممکن است شامل کندیکردن نوآوری AI به علت نیاز به مداوم ارزیابی آثار اخلاقی و دشواری در رسیدن به توافقات بینالمللی باشد. علاوه بر این، شرکتها ممکن است با هزینهها و تلاشهای اضافی مرتبط با حفظ استانداردهای اخلاقی مواجه شوند.
برای کسب منابع و خواندن بیشتر درباره اخلاقیات AI و راهنماییها، میتوانید به دامنههای عمده زیر مراجعه نمایید:
– Microsoft
– Amazon
– OpenAI
– European Commission (برای قانون AI اتحادیه اروپا)