یک مطالعه اخیر توسط محققان دانشگاه استونی بروک نورای که تغییراتی در نگرشهای مردم آمریکا نسبت به هوش مصنوعی (AI) را نشان میدهد. این مطالعه که دادههای جمعآوری شده در سالهای 2021 و 2023 را مقایسه کرده است، نشان میدهد که در حالی که اعتماد به تواناییهای هوش مصنوعی افزایش یافته است، اعتراض به گسترش حقوق بشر به سیستمهای پیشرفته هوش مصنوعی در حال افزایش است.
تحت رهبری جیسون جونز، استاد همکار دپارتمان جامعهشناسی، و استیون اسکینا، استاد آموزشی دپارتمان علوم کامپیوتر، این مطالعه به منظور درک نظرات عمومی درباره هوش مصنوعی به همراه پیشرفتهای فناوریای اخیر انجام شد. راهاندازی ربات گپتی چتگپتی OpenAI در اواخر سال 2022 به عنوان نقطه تمرکز برای بررسی محققان عمل آمد.
این مطالعه دو گروه از تقریباً 500 نفر بالای 18 ساله آمریکایی را دربرگرفته بود، یک گروه در مارس 2021 و دیگری در آوریل 2023 مورد بررسی قرار گرفتند. شرکتکنندگان مورد سؤال قرار گرفتند که نظرات خود در مورد امکان ساخت یک سیستم کامپیوتری قادر به انجام هر وظیفه فکریای است که یک انسان میتواند انجام دهد، آیا چنین سیستمی باید توسعه یابد و آیا یک هوش مصنوعی کلی (AGI) باید حقوقی مانند انسان داشته باشد یا خیر.
برای اطمینان از نمونه تصادفی و نماینده، محققان در ابتدا از گوگل سرویسها به عنوان پلتفرم جمعآوری داده استفاده کردند. اما با توقف گوگل سرویسها در اواخر سال 2022، آنها به پلتفرم دیگری به نام Prolific برای نمونه دوم بروند.
تحلیل دادهها نشان داد که تغییر قابل توجهی در نظر عمومی درباره دستیابی به AGI و حقوق مرتبط با آن اتفاق افتاده است. در سال 2023، در حالی که اعتقاد به دستیابی به AGI قویتر شده بود، اما مخالفت بیشتری در اختیار دادن حقوق مشابه انسان به این سیستمها وجود داشت. با این حال، در نظر عمومی تغییر قابل توجهی در مورد توسعه AGI وجود نداشت، با توجه به مشاهده ضعیفی که مورد توجه در ساخت آن وجود داشت.
جونز و اسکینا بر جهت ضرورت مطالعات بیشتر برای بهتر درک نگرشهای عمومی نسبت به هوش مصنوعی تأکید کردند، آنها قصد دارند تا این بهار مطالعه را تکرار کرده و از همان روشهای استفاده شده در سال 2023 استفاده کنند و به منظور گسترش یافتن یافتههای خود باشند.
پرسشهای متداول:
سوال: هوش مصنوعی کلی (AGI) چیست؟
پاسخ: هوش مصنوعی کلی به یک سیستم کامپیوتری یا هوش مصنوعی اشاره دارد که دارای توانایی انجام هر کار فکریای است که یک انسان میتواند انجام دهد.
سوال: چرا محققان دو دوره زمانی متمایز را برای نظرسنجی خود انتخاب کردند؟
پاسخ: با مقایسه دادهها از سالهای 2021 و 2023، محققان هدفشان بررسی این بود که آیا نگرشها نسبت به هوش مصنوعی در طول زمان تغییر کردهاند، به ویژه با توجه به پیشرفتهای فناوری اخیر.
سوال: پلتفرمی که محققان در ابتدا برای جمعآوری داده استفاده کردند چی بود؟
پاسخ: محققان در ابتدا از گوگل سرویسها برای جمعآوری داده به دلیل توانایی ارائه نمونههای تصادفی و نماینده استفاده کردند. اما بعد از توقف گوگل سرویسها، آنها به یک پلتفرم دیگر به نام Prolific برای نمونه دوم بروند.
سوال: آیا در نظر عمومی تغییر قابل توجهی در مورد توسعه AGI وجود داشت؟
پاسخ: نه، هیچ تغییر قابل توجهی در نظر عمومی درباره توسعه AGI وجود نداشت. هر دو نمونه، مقدار ضعیفی را به ساخت آن نشان دادند.
سوال: آیا در نظر عمومی تغییر قابل توجهی در مورد گسترش حقوق بشر به سیستمهای AGI وجود داشت؟
پاسخ: بله، مطالعه نشان داد که اعتراضات به اختیار دادن حقوق مشابه انسان به سیستمهای AGI در حال افزایش است، با وجود اعتقاد بیشتر به امکان دستیابی به AGI.
سوال: یافتههای اصلی مطالعه چی هستند؟
پاسخ: این مطالعه نشان داد که اعتماد به تواناییهای هوش مصنوعی در طول زمان افزایش یافته است. با این حال، اعتراضات به گسترش حقوق بشر به سیستمهای AGI در حال افزایش است. مطالعه همچنین نشان داد که هیچ تغییر قابل توجهی در نظر عمومی درباره توسعه AGI وجود ندارد.
سوال: برنامههای آینده محققان چی هستند؟
پاسخ: محققان قصد دارند برای بهتر درک نگرشهای عمومی نسبت به هوش مصنوعی مطالعات بیشتری انجام دهند. آنها قصد دارند تا با استفاده از همان روشهای استفاده شده در سال 2023 مطالعه را تکرار کرده و به منظور گسترش یافتههای خود از آن بهره ببرند.
اصطلاحات:
– هوش مصنوعی کلی (AGI): ارجاع دهنده به سیستم کامپیوتری یا هوش مصنوعی است که دارای توانایی انجام هر کار فکریای است که یک انسان میتواند انجام دهد.
– گوگل سرویسها: یک پلتفرم استفاده شده در ابتدا توسط محققان برای جمعآوری داده. این پلتفرم نمونههای تصادفی و نماینده برای نظرسنجیها فراهم میکند.
– Prolific: یک پلتفرم جایگزین مورد استفاده محققان برای جمعآوری داده پس از توقف گوگل سرویسها.
منابع مرتبط:
– دانشگاه استونی بروک
– شرکت OpenAI
The source of the article is from the blog shakirabrasil.info