چشم اندازی بر هوش مصنوعی: قدرتی که نمی‌توان از آن گذشت

هوش مصنوعی (AI) پس از ظهور ChatGPT و GPT-4 به قدرتی برتر در جهان ما تبدیل شده است. با اعلام قابلیت‌های جدید تقریباً هر هفته، بحث مربوط به هوش مصنوعی فشرده تر شده است. آیا آن دنیای بهتری را ایجاد خواهد کرد یا منجر به از دست دادن شغل‌ها و فقر بشری خواهد شد؟ قدرت هوش مصنوعی عمومی (AGI)، که در آن هوش مصنوعی قادر است در همه مهارت‌های شناختی از بشر پیشی بگیرد، نگرانی‌ها را درباره کنترل و خطرات بالقوه، مانند آنچه در فیلم “ترمیناتور” نشان داده شده است، به وجود می‌آورد.

کتاب “موج آینده: هوش مصنوعی، قدرت و بزرگترین دوجانبه قرن 21” نوشتهٔ مصطفی سلیمان، هم‌آفرین DeepMind AI، نظریاتی ارزشمند در مورد این مسئله پیچیده ارائه می‌دهد. سوابق سلیمان در حوزه هوش مصنوعی باعث می‌شود که دیدگاه‌های او در مورد آینده بشر با هوش مصنوعی، معتبریت قابل توجهی داشته باشند.

سلیمان چهار ویژگی کلیدی هوش مصنوعی را برجسته می‌کند. اولاً، آن فناوری ناهمتقارنی است که قادر به تولید مقدار زیادی متن است و احتمالاً امکان اجرای پهپادهای مرگبار را با منابع حداقل برای عملکرد به میزان بیشتری رقم خواهد زد. ثانیاً، هوش مصنوعی قابلیت فراگیری فوق‌العاده‌ای دارد که سرعت رشد آن در هر زمینهٔ دیگری را تجاوز می‌کند. سوماً، هوش مصنوعی فناوریِ مصرف محدود مانند یک اشعه ایکس نیست و قابلیت تحت پوشش قرار گرفتن در هر جنبهٔ زندگی روزمره، جامعه و اقتصاد را دارد. و در آخر، هوش مصنوعی دارای خودکاری است که آن را قادر می‌سازد به خودآموزش بپردازد و به طور آزمایشی پیش‌بینی‌ناپذیری خود را افزایش دهد.

با این حال، چالش‌های نظارت بر هوش مصنوعی به اندازه قابل توجهی بزرگ هستند. برخلاف مسائل قابل اندازه‌گیری مانند نظارت بر انتشارات خودرو، به سختی می‌توان فناوری کاربرد عمومی همچون هوش مصنوعی را محدود نمود. علاوه بر این، پژوهشگران و مخترعان، با انگیزه و آرمان‌های خود، ممکن است نتوانند توانایی خود در ابتکار را محدود کنند. انگیزه‌های اقتصادی برای توسعه هوش مصنوعی بسیار بزرگ است و سودهایی که می‌توان به دست آورد، قابل تصور نیست. علاوه بر این، در حالی که نیروگاه‌های هسته‌ای به صورت کامل نظارت می‌شوند، ساخت ابزارهای هوش مصنوعی همچنان در دسترس افراد قرار دارد که نگرانی را درباره استفادهٔ نادرست از هوش مصنوعی قدرتمند توسط عوامل شرور به وجود آورده است.

سلیمان چند راه‌حل برای مقابله با این چالش‌ها پیشنهاد می‌دهد. اجرای یک چارچوب ایمنی فنی قوی، مشابه آنچه در نیروگاه‌های هسته‌ای اجرا می‌شود، می‌تواند تضمین کند که توسعهٔ مسئولانهٔ هوش مصنوعی صورت بگیرد. بررسی دشوار برای ابزارهای هوش مصنوعی جدید و آزمون‌های منظم برای شناسایی ضعف‌ها و خطرات عمده نیز لازم است. دولت‌ها می‌توانند از رویدادهایی مانند “هک سرخ” سالانهٔ هندوستان، که در آن حملات کنترل شده برای شناسایی آسیب‌پذیری‌ها شبیه‌سازی می‌شوند، نتیجه‌گیری کنند.

همچنین ضروری است که هنگام پیشرفت هوش مصنوعی، یک توازن بین بهره‌برداری از فواید بالقوه آن و کاهش خطرات تضمین شود. تنظیمات و توسعهٔ مسئولانه، برای تأمین اینکه هوش مصنوعی به خدمت بشر و سیاره‌مان باشد، ضروری هستند.

The source of the article is from the blog hashtagsroom.com

Privacy policy
Contact