خبرگان فناوری انگلستان اعم از OpenAI، Google DeepMind، Microsoft و Meta، از دولت انگلستان خواستار افزایش سرعت در آزمایشهای ایمنی سیستمهای هوش مصنوعی (AI) هستند. علاوه بر این که این شرکتها تعهد دادهاند که آخرین مدلهای جدید AI خود را برای مرور توسط موسسه ایجاد شده از سوی AI Safety Institute (AISI) باز کنند، آنها درخواست دقت در آزمونها، زمانبندی، و فرآیند بازخورد را دارند.
برخلاف تعهدات حقوقی ملزم کننده، این تعهدات داوطلبانه نشان میدهد که چالشهای وابستگی به خود تعیین مقررات صنعت در حوزهٔ به سرعت درحال تکامل هوش مصنوعی وجود دارد. در پاسخ، دولت انگلستان بر اهمیت ضرورت الزم از مقررات بعدی برای حفظ سامانها برای اطمینان از ایمنی سیستمهای هوش مصنوعی تأکید کردهاست.
آیسی که از سوی دولت حمایت میشود و نقش کلیدی را در دیدگاه نخستوزیر ریشی ساناک برای انگلستان به عنوان رهبری در تأمین مخاطرات پتانسیلی هوش مصنوعی در نظر گرفته میشود، قبلاً شروع به آزمایش مدلهای موجود هوش مصنوعی در بازار کردهاست. همچنین دسترسی به مدلهای رونمایی نشده مانند Gemini Ultra از Google را دارد. تمرکز این آزمایشها بر روی کاهش خطرات مربوط به سوءاستفاده از AI، به خصوص در حوزه امنیت سایبری است. همکاری با مرکز ملی امنیت سایبری در مقر GCHQ دارای تخصص در این حوزه حیاتی است.
قراردادهای دولتی اخیر نشان میدهد که آیسی 1 میلیون پوند برای تهیه قابلیتها برای آزمون تواناییهای چتبازیهای هوش مصنوعی در مقابل شکست دادن قفل زندان و مقاومت در برابر حملات حفرهگری (spear-phishing) اختصاص دادهاست. به علاوه، AISI در حال توسعه دستگاههای اتوماسیون شده برای تسهیل تحلیل معکوس کد منبع است، که امکان ارزیابی جامع مدلهای هوش مصنوعی را فراهم میکند.
گوگل دیپمایند تعهد خود را در همکاری با AISI بیان کردهاست، هدف آن ارتقای ارزیابی و شیوههای ایمنی مدلهای هوش مصنوعی است. با این حال، OpenAI و Meta از دادن نظر در این مورد خودداری کردهاند.
کلیا، فشار همتایان فناوری انگلستان برای آزمونهای ایمنی هوش مصنوعی نشانگر اهمیت توسعه و تنظیم مسئولانه است تا خطرات پتانسیلی مرتبط با پیشرفت هوش مصنوعی را درست آدرس دهد. تمرکز دولت بر مقررات الزامی و همکاری صنعتی به منظور تأمین ایمنی و مسئولیت در حوزهٔ به سرعت رشد کنندهٔ فناوری AI است.
The source of the article is from the blog motopaddock.nl