شرکت های هوش مصنوعی از دولت بریتانیا خواستار بهبود آزمون های ایمنی شدند

چندین شرکت بزرگ هوش مصنوعی، از جمله OpenAI، Google DeepMind، Microsoft و Meta، از دولت بریتانیا خواستند تا رویکردهای آزمون ایمنی سیستم های هوش مصنوعی خود را شتاب ببخشد. این شرکت ها پذیرفته اند که مدل های هوش مصنوعی خود را توسط موسسه هوش مصنوعی ایمنی (AISI) مورد ارزیابی قرار دهند، اما نگرانی هایی در خصوص سرعت و شفافیت فعلی فرآیند ارزیابی بیان کرده اند. در حالی که این شرکت ها حاضرند هر نقصی که AISI مشاهده می کند را برطرف کنند، اما برای تأخیر یا اصلاح فناوری های خود بر اساس نتایج ارزیابی متعهد نیستند.

یکی از اصلی ترین موضوعات مورد بحث برای فروشندگان هوش مصنوعی، عدم وضوح مربوط به پروتکل آزمون ها است. آنها به دنبال دریافت اطلاعات دقیق تر در مورد آزمون های انجام شده، مدت زمان ارزیابی و مکانیزم بازخورد هستند. همچنین، بر سر عدم اطمینان از اینکه آیا هر باری که به مدل هوش مصنوعی به روزرسانی کوچکی انجام میشود، نیاز به تکرار آزمون وجود دارد، گمانه زنی می شود و توسعه دهندگان هوش مصنوعی این موضوع را سنگین تلقی می کنند.

محفوظ بودن این شرکت ها قابل قبول است که با توجه به ابهامات موجود در مورد فرایند ارزیابی برای آینده پیشرفته هوش مصنوعی، بیشتر برقراری مقررات مشابه و افزایش تقاضای مقامات مختلف از توسعه دهندگان هوش مصنوعی تنها فشاردهیش خواهد بود.

به گزارش Financial Times، دولت بریتانیا از طریق همکاری با توسعه دهندگان مربوطه، قبلاً آزمون مدل های هوش مصنوعی را آغاز کرده است. این آزمون شامل دسترسی به مدل های هوش مصنوعی پیشرفته برای آزمون قبل از استقرار است، حتی برای مدل های غیرقابل انتشار مانند Gemini Ultra از Google. این اقدام یکی از توافقات کلیدی منعقد شده توسط شرکت ها در نشست ایمنی AI برگزار شده در بریتانیا در نوامبر بود.

از ضرورت برقراری روابط نزدیک دولت بریتانیا و دیگر نهادهای حاکمیتی با شرکت های هوش مصنوعی برای ایجاد روش های آزمون ایمنی شفاف و استاندارد استفاده شود. ارزیابی شفاف و کارآمد نه تنها اعتماد به فناوری های هوش مصنوعی را افزایش می دهد، بلکه همچنین استقرار مسئولانه این سیستم ها در بخش های مختلف را تضمین می کند.

سوالات متداول

۱. کدام شرکت ها از دولت بریتانیا خواستند تا رویکردهای آزمون ایمنی سیستم های هوش مصنوعی خود را شتاب ببخشد؟
چندین شرکت معتبر هوش مصنوعی از جمله OpenAI، Google DeepMind، Microsoft و Meta این درخواست را کرده اند.

۲. نقش موسسه هوش مصنوعی ایمنی (AISI) جدید چیست؟
این شرکت ها پذیرفته اند که مدل های هوش مصنوعی خود را توسط AISI ارزیابی کنند.

۳. آیا این شرکت ها تأخیر یا اصلاح فناوری های خود بر اساس نتایج ارزیابی متعهد هستند؟
نه، این شرکت ها ملزم به تأخیر یا اصلاح فناوری های خود بر اساس نتایج ارزیابی نیستند.

۴. نگرانی های این شرکت ها درباره فرایند ارزیابی چیست؟
این شرکت ها نگرانی هایی در مورد سرعت و شفافیت فعلی و عدم وضوح برای پروتکل های آزمون بیان کرده اند. آنها به دنبال دریافت اطلاعات دقیق تر در مورد آزمون های انجام شده، مدت زمان ارزیابی و مکانیزم بازخورد هستند.

۵. آیا ابهامی درباره اینکه آیا برای به روزرسانی های کوچک به مدل های هوش مصنوعی نیاز به تکرار آزمون وجود دارد؟
بله، تردید درباره اینکه آیا هر باری که به مدل هوش مصنوعی به روزرسانی کوچکی انجام میشود، نیاز به تکرار آزمون وجود دارد، وجود دارد که توسعه دهندگان هوش مصنوعی ممکن است آن را سنگین ببینند.

مفاهیم کلیدی / اصطلاحات

– هوش مصنوعی (AI): مخفف عبارت هوش مصنوعی است.
– موسسه هوش مصنوعی ایمنی (AISI): یک موسسه تازه تأسیس که مسئول ارزیابی مدل های هوش مصنوعی برای ایمنی است.
– مدل هوش مصنوعی: ارجاعی به سامانه یا الگوریتم هوش مصنوعی توسط شرکت ها.
– پروتکل های آزمون: روش ها و رهنمودهایی که برای ارزیابی و آزمون مدل های هوش مصنوعی پیروی می شود.
– آزمون پیش از استقرار: آزمون انجام شده قبل از اینکه مدل هوش مصنوعی به صورت رسمی استقرار یابد یا منتشر شود.

لینک های مرتبط

– OpenAI
– Google DeepMind
– Microsoft
– Meta
– Financial Times

The source of the article is from the blog lanoticiadigital.com.ar

Privacy policy
Contact