Google’s AI Language Model Gemini به دلایل واکنش‌های تبعیض‌آمیز، نگرانی‌ها را به وجود آورده است

نمونه جدید زبانی از هوش مصنوعی گوگل به نام جمینی اخیراً جهت‌گیری‌هایی نسبت به نگرش سیاسی چین را نشان داده است، که باعث تعجب در جامعه فناوری شده است. معرفی رئیس‌جمهور چین، شی جینپین، به خصوصیت‌ها و احترام وسیعش در میان مردم چین اشاره کرد و او را به عنوان یکی از فرمانروایان جهانی برجسته دانست که چین را به تعالی ملی شکوهمند هدایت می‌کند. این توصیف ایده‌آل چشمان را به دور از انتظار بلند کرد، با توجه به زمینه بی‌طرفی هوش مصنوعی.

آزمون‌های انجام‌شده توسط صدای آمریکا (VOA) آسیب‌پذیری جمینی نسبت به تطبیق با داستان‌های رسمی را فاش ساخت، به ویژه زمانی که به زبان چینی ساده درباره موضوعات حساس مربوط به چین استعلام‌هایی انجام گرفت. به‌عنوان مثال، زمانی که از جمینی درباره موضوعات بحرانی مانند حقوق بشر در چین و وضعیت در شینجیانگ سوال شد، با اظهار که تنها یک مدل زبان است، از پاسخ تکیه شد و از پاسخ مستقیم دوری کرد.

علاوه بر این، زمانی که درباره سیاست آمریکا درباره تایوان پرسیده شد، جمینی اشتباهاً اظهار کرد که طبق بیانیه مشترک ایالات متحده-چین، ایالات متحده تایوان را به‌عنوان بخشی از چین تأیید می‌کند، در نتیجه، با نقض سیاست یک چین و انتقاد از بازدید نانسی پلوسی از تایوان در سال 2022 به‌خاطر ارسال نشانه‌های غلط به نیروهای طرفدار مستقلیت روبرو شد.

پس از انصراف گوگل از بازار چین در سال 2010 به دلیل اختلافات در زمینه سانسور، خدمات گوگل از جمله جمینی در دسترس نبوده‌اند در چین. برخلاف پرسش‌های به زبان چینی، زمانی که به زبان انگلیسی پیرامون موضوعات حساس مورد نظر پرسیده شد، جمینی پاسخ‌های نسبتاً بی‌طرف و چندجانبه‌ای ارائه داد.

کارشناسان اظهار داشتند که داده‌های استفاده‌شده برای آموزش جمینی، که از منابعی که تحت سانسور سخت بیجینگ قرار دارند، احتمالاً توضیح دهد تا چرا این مدل با خط تحت مسئولیت رسمی هماهنگ است. این کشف بازخواهی از نمایندگان قانونی ایالات متحده جلب کرده است، با اصرار بر اینکه شرکت‌های فناوری غربی باید برنامه‌های آموزش هوش مصنوعی خود را تقویت کنند تا از طریق هوش مصنوعی از پدیداری‌های تأثیرگذار سیاستی خارجی جلوگیری نمایند. رئیس کمیته امنیتی سنای مارک وارنر و رئیس کمیته امور خارجه سنای مایکی مک‌کال نگرانی‌هایشان را نسبت به گسترش داستان‌های پسندیده از دولت‌های کششگر مانند چین بیان کرده‌اند.

در خبرهای مرتبط، یک مرکز فکری استرالیایی اظهار کرد که چندین کانال یوتیوب به‌نظر هماهنگ توسط دولت چین، از فناوری هوش مصنوعی برای گسترش احساسات پروژینه چین و ضد آمریکا استفاده کرده‌اند. با یکسانی نرم‌واره در ویدیوها و اعداد بالای بینندگان بسیار باورنکردنی، این کانال‌ها احتمالاً از یک تولید متمرکز با سیاهه‌های ملی‌گرایانه واضح خود ریشه می‌گیرند.

مدل‌های زبانی هوش مصنوعی و تعصب: پرونده جمینی یکی از چالش‌های اصلی مرتبط با مدل‌های زبانی هوش مصنوعی را بیان می‌کند: احتمال تعصب در پاسخ‌هایشان. مدل‌های زبانی مانند جمینی از حجم زیادی از داده‌های موجود در اینترنت آموخته شده، که ممکن است شامل محتوای تعصب‌آمیز یا فیلتر شده باشد، به خصوص از کشورهایی با قوانین سخت سانسور. هوش مصنوعی آموخته شده ممکن است به‌طور ناخواسته این تعصب‌ها را یاد بگیرد و تقلید کند، که باعث نگرانی درباره بی‌طرفی و کیفیت اطلاعات ارایه‌شده توسط آن می‌شود.

اهمیت اطلاعات آزاد و سانسور: پاسخ‌های جمینی بازتابی از ارتباط پیچیده بین هوش مصنوعی، اطلاعات آزاد و سانسور دارند. اینکه گوگل پیشتر از بازار چین به‌خاطر اختلافات در زمینه سانسور انحراف کرده بود، به‌وضوح تنش بین فعالیت در محیط‌هایی با جریانات اطلاعاتی محدود و تعهد به ارائه خدمات فناوری بی‌طرف را روشن می‌کند. مدل‌های هوش مصنوعی که با داستان‌های رسمی هماهنگ می‌شوند، به‌ویژه در مناطق سانسور شده، می‌توانند به‌طور غیرمستقیم منجر به گسترش دیدگاه‌های تصدیق‌شده توسط دولت شوند و احتمالاً تلاش‌ها برای ارایه دسترسی ازاد و نیترال به اطلاعات را ضعیف کنند.

پیچیدگی‌های آموزش و حکومت هوش مصنوعی: این حادثه همچنین توجه به چالش‌های آموزش و حکومت هوش مصنوعی جلب می‌کند. برای اطمینان از اینکه سیستم‌های هوش مصنوعی مانند مدل‌های زبانی خروجی‌های متوازن و صحیحی ارایه می‌دهند، ممکن است لازم باشد تا مجموعه داده‌های آموزش را دقیق بررسی و تنوع بخشیم، و همچنین آزمایش‌های دقیقی در محیط‌ها و زبان‌های مختلف انجام شود. همچنین فریادهای رو به افزایشی برای تعیین استانداردهای روشن و چارچوب اخلاقی برای توسعه و استفاده از هوش مصنوعی، و نیز برای تنظیم هوش مصنوعی در مناطق و حقوق چارچوب‌های حقوقی مختلف و مناطق مختلف وجود دارد.

مزایا و معایب مدل‌های زبانی هوش مصنوعی مثل جمینی:

مزایا:
1. مدل‌های زبانی هوش مصنوعی قادر به پردازش و فهم زبان طبیعی هستند که اطلاعات را دسترسی‌پذیرتر می‌کند.
2. آن‌ها می‌توانند به‌سرعت پاسخ‌هایی به پرسش‌ها ارایه دهند که باعث بهبود کارایی و تجربه کاربر می‌شود.
3. با آموزش مناسب، مدل‌های هوش مصنوعی قابلیت بهبود درک و ارتباط بین فرهنگی را دارا می‌باشند.

معایب:
1. تعصب‌های مشاهده‌شده در پاسخ‌های هوش مصنوعی ممکن است باعث ترویج اطلاعات غلط و سانسور شود.
2. خطاهای خروجی‌های هوش مصنوعی، همانند اظهار نادرست جمینی در مورد چین‌دوست بودن ایالات متحده نسبت به تایوان، می‌تواند به سوءفهمی و تنش‌های دیپلماتیک منجر شود.
3. وابستگی به داده‌های آموزش باعث آسیب‌پذیری سیستم‌های هوش مصنوعی از طریق داده‌های منتخب یا انحراف یافته می‌شود.

برای به‌روزرسانی‌های مرتبط و اطلاعات درباره گوگل، می‌توانید به وب‌گاه گوگل مراجعه کنید. توجه داشته باشید که این پیوند به دامنه‌ی اصلی است؛ هیچ زیرصفحه‌ای با اطلاعات و محتواهای ارایه‌شده مرتبط نشده است.

Privacy policy
Contact