گروه‌های تحقیقاتی OpenAI پس از تغییرات رهبری دوباره تنظیم می‌شوند

گروه همدرستی برتر OpenAI منحل می‌شود

به گامی استراتژیک بعد از رفتن ایلیا سوتسکوور، عالم کبیر OpenAI، شرکت گروه همدرستی برتر خود را که به تضمین بی‌خطری و فواید اجتماعی هوش مصنوعی کلان (AGI) در آینده می‌پردازد، منحل کرده است. تصمیم با لحاظ رفتن سوتسکوور اتخاذ شده و نمایانگر یک تخصیص مجدد قابل توجه جهت و جدول زمانی سازمان است.

طموح هوش مصنوعی بسیار باهوش

گروه همدرستی برتر که در ماه گذشته تشکیل شده بود، با هدف توسعه تکنولوژی جهت تأثیر گذاری بر هوش مصنوعی بسیار باهوش برای عمل در هم‌اهنگی با دلایل انسانی را دنبال می‌کرد. این یک تلاش بود تا پیشتازانه پتانسیل‌های ریسک‌های AGI که قادر به تصمیم‌گیری خودکار و فعالیت اقتصادی پایدار است را نظارت کند. اولاً، این گروه تحقیقاتی مجاز از منابع محاسباتی OpenAI بر عهده داشت، که به 20% رسید.

تغییر مسئولیت‌های تحقیقاتی

اکنون که گروه منحل شده، لو رو گرفت و یک گروه داخلی دیگر زیر نظر عضو بنیادی جان اسکولمن را به تمامی امیداواران بسپارده است، هرچند کارایی و جهت تحقیقات آینده تحت رهبری جدید هنوز قابل مشاهده نیست. پیش از این تغییر، گروه همدرستی برتر هنوز راهکاری برای تسلیم کردن هوش مصنوعی بسیار باهوش ارائه نداده بود، با اینکه هدف کلی شرکت توسعه هوش مصنوعی بوده که برای انسانیت امن و مفید باشد.

سوتسکوور، یک شخصیت کلیدی در ظهور OpenAI و توسعه‌های پیشرو مانند ChatGPT، یکی از چهار نفری بود که موقتاً مدیرعامل سام التمان را کنار زدند، که در پی اعتراض‌های گسترده کارمندان، بلافاصله بعدی بازگشت. برای جانباز سوتسکوور، همچنین هم‌مدیران هیی که در تخلیه موقت التمان ایفای نقش کردند، کنار رفتند.

استعفاها در پی محدودیت منابع

پایان گروه همدرستی برتر توسط همراه خویش این گروه، سابقه دار جان لایک، که به دلایل فقر منابع و تفاوت در اولویت‌های شرکت، به عنوان دلایل رفتن اش نقل نمود. دیگران در OpenAI باور دارند که از جمله پژوهشگران لئوپولد آشنبرنر، پاول ایزمایلوف، ویلیام ساندرز، همچنین پژوهشگران سیاست و حکمرانی هوش مصنوعی کالن اوکیف و دنیل کوکوتاجلو، از سازمان رفته‌اند، در برخی موارد به دلایل ادعاهای فاش کردن رازهای شرکت.

مهم‌ترین سوالات و پاسخ‌ها:

1. چیست هوش مصنوعی کلان (AGI)؟
هوش مصنوعی کلان (AGI) توانایی فرضی یک سامانه هوش مصنوعی را به تفهم کردن، یادگیری، و به کار گرفتن دانش به نحوی که از یک انسان قابل تمیزنه باشد، اشاره دارد. AGI می‌تواند قادر به تصمیم گیری خودکار و حل مشکلات در محدوده وسیعی از زمینه‌ها باشد.

2. چرا هم‌اهنگی در هوش مصنوعی مهم است؟
هم‌اهنگی در هوش مصنوعی حیاتی است تا اطمینان حاصل شود که سیستم‌های هوش مصنوعی بر طبق ارزش‌ها و اصول اخلاقی انسانی عمل کنند. هوش مصنوعی غیرهمراه یا گم‌راه، به ویژه در سطح AGI، می‌تواند ریسک‌های قابل توجهی ایجاد کند اگر اهداف و تصمیم‌گیری‌های اش با سلامت و نیت‌های انسانی هم‌خوان نباشند.

3. عواقب منحل شدن تیم هم‌اهنگی برتر OpenAI چیست؟
پایان گروه همدرستی برتر ممکن است نشانه‌ای از تغییر در تمرکز یا استراتژی OpenAI در خصوص ایمنی و اخلاق هوش مصنوعی باشد. این امر سوالاتی در مورد اینکه چگونه سازمان نیازهای خود را برای توسعه هوش مصنوعی ایمن و مفید بدون یک تیم مخصوص برای هم‌اهنگی AGI حفظ می‌کند، را ایجاد می‌کند.

چالش‌ها و اختلافات سرشار:

تخصیص منابع: زمینه هوش مصنوعی، به ویژه AGI، به منابع محاسباتی قابل توجهی نیاز دارد. تصمیمات مربوط به چگونگی تخصیص این منابع می‌تواند بر روی سرعت و جهت تحقیقات تأثیر بگذارد. OpenAI با چالش‌هایی در توزیع منابع روبرو است، همچنین توسط استعفای جان لایک نشان داده شده است.
ایمنی و اخلاق هوش مصنوعی: توسعه ایمنی AGI یک موضوع مورد بحث و چالش است. اطمینان حاصل کردن از اینکه فناوری های هوش مصنوعی آینده خسارت نخواهند زد و در هم‌اهنگی با ارزش‌های انسانی خواهند بود، یک چالش اخلاقی و فنی اساسی است که هنوز بحل نگردیده است.
رهبری و جهت: OpenAI تغییرات رهبری مهمی را تجربه کرده است. رهبری نقشی حیاتی در هدایت ماموریت سازمان و تمرکز تحقیقات دارد. جدایی از شخصیت‌های مهم می‌تواند مداومت و جهت پروژه‌های بلندمدت را مختل کند.

مزایا و معایب:

مزایای بازترتیب دادن گروه‌های تحقیقاتی ممکن است شامل شود:
تمرکز بیشتر: سایر تیم‌ها در OpenAI امکان دارد اکنون تمرکز واضحتری داشته باشند یا منابع بیشتری را برای تعقیب جنبه‌های مختلف اما مشابه مهم توسعه هوش مصنوعی داشته باشند.
جهت جدید: رهبری جدید ممکن است دیدگاه‌های تازه و رویکردهای نوآورانه را به چالش های سازمان بیاورد.

معایب ممکن است شامل شود:
از دست دادن تخصص خاص: منحل کردن یک گروه از متخصصین فوکوس‌گذاری بر هماهنگی ممکن است منجر به از دست دادن دانش تخصصی و پیشرفت در این حوزه بحرانی شود.
ریسک عدم هماهنگی: بدون یک تیم مخصوص، ریسک افزایش یافته ممکن است که توسعه AGI به خوبی همراه با ارزش‌های انسانی و ایمنی مدنظر قرار نگیرد.

برای اطلاعات مرتبط در مورد هوش مصنوعی و OpenAI، لطفا به لینک زیر مراجعه فرمایید:
OpenAI.

The source of the article is from the blog portaldoriograndense.com

Privacy policy
Contact