یک پژوهشگر سابق OpenAI به نام لئوپلد آشنبرنر به تازگی یک مقاله 165 صفحهای جامع درباره هوش مصنوعی (AI) منتشر کرده است. در این مقاله، او به تقدم سریع فناوریهای هوش مصنوعی پرداخته و پیامدهای گسترده آن برای جامعه و امنیت را بررسی میکند.
سیستم AI تحلیلی GPT-4 بسیار موثر بوده ونقل قولهای آشنبرنر را به طور خلاصه تبدیل به بصیرتهای قابل درک کرده است. این ابزار که توسط کارفرمای پیشین آشنبرنر توسعه یافته است، بخشی از پیشبینیهای او درباره تکامل هوش مصنوعی را برجسته میکند.
آشنبرنر در تیم هماهنگی فوقالعاده OpenAI کار میکرد که درگیر کاهش مخاطرات هوش مصنوعی بود و در آوریل اخراج شد. این استعفا، همراه با دیگران، در پی نگرانیهایی درباره تعهد شرکت به امنیت هوش مصنوعی بود. دلیل اخراج او مدعی شد که او اطلاعاتی را درباره آمادگی شرکت برای هوش مصنوعی پیشرفته منتشر کرده بود، یک ادعا که او آنرا به عنوان یک پیشمتن برای اخراج میپنداشت.
کارشناسان منطقهای اظهار میکنند که مقاله آشنبرنر، به طور چشمگیری از جزئیات محرمانه درباره OpenAI خالی است. به جای آن، از دادههای به طور عمومی در دسترس، دیدگاههای شخصی، تخصص فنی و گپو گفت در کافههای سان فرانسیسکو استفاده کرده تا داستانهایش را ساخته باشد.
خلاصهای که توسط ChatGPT توسط AI تولید شده، دیدگاههای آشنبرنر را به 57 کلمه مختصر کرده و نظرات او را درباره پتانسیل تحولی هوش مصنوعی عمومی و فوقالعاده تاکید کرده است. علاوه بر این، پیشبینی میشود که پیشرفتهای فناوری مهمی در آینده نزدیک صورت خواهد گرفت، که از مدلهای فعلی مانند GPT-4 به یک هوش مصنوعی پیشرفتهتر منجر خواهد شد، که توسط قدرت محاسباتی و کارایی الگوریتمی تسریع مییابد.
در کل، آشنبرنر یک جهانی را پیشبینی میکند که هوش مصنوعی با سرعتی بیسابقه پیش میروند، با توانایی هممیزنی با قدرت شناختی انسانها در تحقیقات و مهندسی هوش مصنوعی تا سال 2027، یک قفله است که ممکن است منجر به ‘انفجار هوشی’ شود. او درباره چالشهای اقتصادی، اخلاقی و امنیتی قابل توجهی که این پیشرفت میتواند به دنبال داشته باشد، هشدار میدهد، ضرورت سرمایهگذاری در زیرساختهای محکم و رویههای محافظتی دقیق در مقابل سوءاستفاده را فشرده میکند، در حالی که در مورد انقلاب جامعهای بیاندیشد.
مهمترین سوالات و پاسخها:
س: چه پیامدهایی میتواند داشته باشد که هوش مصنوعی به توان شناختی انسان در تحقیقات و مهندسی میرسد؟
پ: این پیامدهای احتمالی شامل پیشرفت تحولی در زمینههای مختلف، تغییرات اقتصادی عظیم، مسائل اخلاقی مرتبط با خودخواهی و حقوق هوشهای مصنوعی، جابهجایی شغلی و نگرانیهای امنیتی درباره سوءاستفاده از AI است. همچنین احتمال وجود ‘انفجار هوشی’ وجود دارد که در آن هوشمصنوعیها ممکن است به سرعت خود را بهبود دهند و منجر به نتایجی که سخت میشود پیشبینی یا کنترل آنها بشود.
س: چگونه میتوان اطمینان از ایمنی و توسعه اخلاقی هوش مصنوعی داشت؟
پ: برای اطمینان از ایمنی باید در تحقیقات هماهنگی هوش مصنوعی سرمایهگذاری کرد و مقررات بینالمللی را راهاندازی کرد، تدابیر امنیتی قوی را توسعه داد و فیلترها ایجاد نمود. توسعه اخلاقی میتواند توسط گفتگوی موضوعی علوم شامل اخلاقیات، فناوران، سیاستگذاران و سایر ذینفعان عام به عمل آید تا هدایت نصب هوش مصنوعی مسئولانه فراهم شود.
چالشها و اختلافات کلیدی:
مسئله امنیت و کنترل بحرانی است؛ کنترل سیستمهای هوش مصنوعی فوقپیشرفته چالشهای بزرگی را در بر دارد. اختلاف دیگر در تأثیر هوش مصنوعی بر اشتغال است؛ هرچه سیستمهای هوش مصنوعی قابلیت بیشتری پیدا کنند، ممکن است کارگران را در صنایع مختلف جایگزین کنند. به علاوه، مسأله حفظ حریم شخصی و تبعیض داده وجود دارد؛ سیستمهای هوش مصنوعی باید با دادههای گسترده آموزش داده شوند، که امری مبنی بر نقض حقوق شخصی و تقویت تبعیضهای اجتماعی است.
مزایا:
توسعه هوش مصنوعی میتواند منجر به پیشرفتهایی در بهبود بهداشت، آموزش شخصی، استفاده کارآمد انرژی و حل چالشهای جهانی پیچیده مانند تغییرات آب و هوا شود. این ممکن است درک ما از هوش به عنوان یک پدیده را افزایش دهد.
معایب:
اگر به ارزشهای انسانی همگام نشود، هوش مصنوعی ممکن است صدمه به آورد. خطر نابرابری اقتصادی را در پی دارد؛ زیرا کسانی که در کنترل تکنولوژیهای هوش مصنوعی قدرتمند هستند، ممکن است ثروت و قدرت ناپنداری به دست آورند. همچنین، پتانسیل اسلحه خودکار و دولتهای نظارتی اختیاری مسائل اخلاقی و امنیتی مهمی را به وجود میآورد.
برای باقی ماندن در جریان دیدگاه کلان درباره هوش مصنوعی، میتوانید به نهادهای مربوطه مراجعه کرده و پژوهشها و برگزاری گفتگوهای آنها را دسترسی پیدا کنید:
– OpenAI، که بر روی هر دو پیشبرد هوش دیجیتال و اطمینان از اینکه مزایای آن به اشتراک گذاشته شوند تمرکز دارد: OpenAI
– موسسه آینده زندگی، که روی چالشهای وجودی در برابر بشریت تمرکز میکند، به خصوص خطر وجودی از هوش مصنوعی پیشرفته: Future of Life Institute
– مرکز مطالعه خطر وجودی، یک مرکز تحقیقاتی بینرشتهای که بر روی مطالعه خطراتی که تهدید انقراض بشریت هستند که نمیتوانند به طور قابل اطمینان کنترل شوند تمرکز دارد: CSER
– موسسه تحقیقات هوش مصنوعی ماشینی، که بر روی توسعه نظریههای رفتار منطقی برای سیستمهای هوش مصنوعی و سایر تحقیقات نظری مرتبط با اطمینان از آنکه سیستمهای هوش مصنوعی تأثیر مثبتی داشته باشند تمرکز دارد: MIRI