گروه همدرستی برتر OpenAI منحل میشود
به گامی استراتژیک بعد از رفتن ایلیا سوتسکوور، عالم کبیر OpenAI، شرکت گروه همدرستی برتر خود را که به تضمین بیخطری و فواید اجتماعی هوش مصنوعی کلان (AGI) در آینده میپردازد، منحل کرده است. تصمیم با لحاظ رفتن سوتسکوور اتخاذ شده و نمایانگر یک تخصیص مجدد قابل توجه جهت و جدول زمانی سازمان است.
طموح هوش مصنوعی بسیار باهوش
گروه همدرستی برتر که در ماه گذشته تشکیل شده بود، با هدف توسعه تکنولوژی جهت تأثیر گذاری بر هوش مصنوعی بسیار باهوش برای عمل در هماهنگی با دلایل انسانی را دنبال میکرد. این یک تلاش بود تا پیشتازانه پتانسیلهای ریسکهای AGI که قادر به تصمیمگیری خودکار و فعالیت اقتصادی پایدار است را نظارت کند. اولاً، این گروه تحقیقاتی مجاز از منابع محاسباتی OpenAI بر عهده داشت، که به 20% رسید.
تغییر مسئولیتهای تحقیقاتی
اکنون که گروه منحل شده، لو رو گرفت و یک گروه داخلی دیگر زیر نظر عضو بنیادی جان اسکولمن را به تمامی امیداواران بسپارده است، هرچند کارایی و جهت تحقیقات آینده تحت رهبری جدید هنوز قابل مشاهده نیست. پیش از این تغییر، گروه همدرستی برتر هنوز راهکاری برای تسلیم کردن هوش مصنوعی بسیار باهوش ارائه نداده بود، با اینکه هدف کلی شرکت توسعه هوش مصنوعی بوده که برای انسانیت امن و مفید باشد.
سوتسکوور، یک شخصیت کلیدی در ظهور OpenAI و توسعههای پیشرو مانند ChatGPT، یکی از چهار نفری بود که موقتاً مدیرعامل سام التمان را کنار زدند، که در پی اعتراضهای گسترده کارمندان، بلافاصله بعدی بازگشت. برای جانباز سوتسکوور، همچنین هممدیران هیی که در تخلیه موقت التمان ایفای نقش کردند، کنار رفتند.
استعفاها در پی محدودیت منابع
پایان گروه همدرستی برتر توسط همراه خویش این گروه، سابقه دار جان لایک، که به دلایل فقر منابع و تفاوت در اولویتهای شرکت، به عنوان دلایل رفتن اش نقل نمود. دیگران در OpenAI باور دارند که از جمله پژوهشگران لئوپولد آشنبرنر، پاول ایزمایلوف، ویلیام ساندرز، همچنین پژوهشگران سیاست و حکمرانی هوش مصنوعی کالن اوکیف و دنیل کوکوتاجلو، از سازمان رفتهاند، در برخی موارد به دلایل ادعاهای فاش کردن رازهای شرکت.
مهمترین سوالات و پاسخها:
1. چیست هوش مصنوعی کلان (AGI)؟
هوش مصنوعی کلان (AGI) توانایی فرضی یک سامانه هوش مصنوعی را به تفهم کردن، یادگیری، و به کار گرفتن دانش به نحوی که از یک انسان قابل تمیزنه باشد، اشاره دارد. AGI میتواند قادر به تصمیم گیری خودکار و حل مشکلات در محدوده وسیعی از زمینهها باشد.
2. چرا هماهنگی در هوش مصنوعی مهم است؟
هماهنگی در هوش مصنوعی حیاتی است تا اطمینان حاصل شود که سیستمهای هوش مصنوعی بر طبق ارزشها و اصول اخلاقی انسانی عمل کنند. هوش مصنوعی غیرهمراه یا گمراه، به ویژه در سطح AGI، میتواند ریسکهای قابل توجهی ایجاد کند اگر اهداف و تصمیمگیریهای اش با سلامت و نیتهای انسانی همخوان نباشند.
3. عواقب منحل شدن تیم هماهنگی برتر OpenAI چیست؟
پایان گروه همدرستی برتر ممکن است نشانهای از تغییر در تمرکز یا استراتژی OpenAI در خصوص ایمنی و اخلاق هوش مصنوعی باشد. این امر سوالاتی در مورد اینکه چگونه سازمان نیازهای خود را برای توسعه هوش مصنوعی ایمن و مفید بدون یک تیم مخصوص برای هماهنگی AGI حفظ میکند، را ایجاد میکند.
چالشها و اختلافات سرشار:
– تخصیص منابع: زمینه هوش مصنوعی، به ویژه AGI، به منابع محاسباتی قابل توجهی نیاز دارد. تصمیمات مربوط به چگونگی تخصیص این منابع میتواند بر روی سرعت و جهت تحقیقات تأثیر بگذارد. OpenAI با چالشهایی در توزیع منابع روبرو است، همچنین توسط استعفای جان لایک نشان داده شده است.
– ایمنی و اخلاق هوش مصنوعی: توسعه ایمنی AGI یک موضوع مورد بحث و چالش است. اطمینان حاصل کردن از اینکه فناوری های هوش مصنوعی آینده خسارت نخواهند زد و در هماهنگی با ارزشهای انسانی خواهند بود، یک چالش اخلاقی و فنی اساسی است که هنوز بحل نگردیده است.
– رهبری و جهت: OpenAI تغییرات رهبری مهمی را تجربه کرده است. رهبری نقشی حیاتی در هدایت ماموریت سازمان و تمرکز تحقیقات دارد. جدایی از شخصیتهای مهم میتواند مداومت و جهت پروژههای بلندمدت را مختل کند.
مزایا و معایب:
مزایای بازترتیب دادن گروههای تحقیقاتی ممکن است شامل شود:
– تمرکز بیشتر: سایر تیمها در OpenAI امکان دارد اکنون تمرکز واضحتری داشته باشند یا منابع بیشتری را برای تعقیب جنبههای مختلف اما مشابه مهم توسعه هوش مصنوعی داشته باشند.
– جهت جدید: رهبری جدید ممکن است دیدگاههای تازه و رویکردهای نوآورانه را به چالش های سازمان بیاورد.
معایب ممکن است شامل شود:
– از دست دادن تخصص خاص: منحل کردن یک گروه از متخصصین فوکوسگذاری بر هماهنگی ممکن است منجر به از دست دادن دانش تخصصی و پیشرفت در این حوزه بحرانی شود.
– ریسک عدم هماهنگی: بدون یک تیم مخصوص، ریسک افزایش یافته ممکن است که توسعه AGI به خوبی همراه با ارزشهای انسانی و ایمنی مدنظر قرار نگیرد.
برای اطلاعات مرتبط در مورد هوش مصنوعی و OpenAI، لطفا به لینک زیر مراجعه فرمایید:
OpenAI.
The source of the article is from the blog portaldoriograndense.com