گام‌های شناور احراز واقعیت هوش مصنوعی: بررسی هوش مصنوعی گوگل مورد انتقاد برای عدم دقت

در حوزه هوش مصنوعی، گوگل پس از آنکه کاربران شناسایی کردند که تابع جدید “بررسی هوش مصنوعی” آن، پاسخ‌های غلط فاکتوآلی را به پرسش‌ها ارائه می‌داد، با پیامدهای منفی روبرو شد. این ویژگی که دو هفته پیش معرفی شده بود، برای ساده‌تر کردن وظیفه پاسخ به سوالات پیچیده طراحی شده بود تا پاسخ‌های جمع‌بندی شده را در بالای صفحه جستجوی گوگل نشان دهد.

مواردی که هوش مصنوعی پیشنهاد‌های عجیبی ارائه کرد، از قبیل استفاده از پنیر برای تعمیر پیتزا یا خوردن سنگ برای بهره‌مندی از فواید بهداشتی، همراه با یک تئوری توطئه غیرمعتبر درباره دین رئیس‌جمهور سابق باراک اوباما، پرسش‌هایی درباره قابلیت اطمینان پاسخ‌های مولد هوش مصنوعی پیش آورد.

یک مطالعه انجام شده توسط شروع‌آپ هوش مصنوعی وکتارا نشان داد که چت‌بات‌ها اطلاعات را در یک محدوده قابل توجهی از موارد ساختگی کاذب می‌کنند که گاهی تا 27% می‌رسد. این موارد اطلاعات غلط، که اغلب با عنوان “وهم” شناخته می‌شوند، از مدل‌های زبان بزرگ (LLMs)، مانند چت‌جیپت از اوپن‌ای‌آی و ژمینی از گوگل، بر می‌آید که برنامه‌ریزی شده‌اند تا پاسخ‌ها را بر اساس تشخیص الگو، نه دقت واقعیتی، پیش‌بینی کنند.

متخصصان هوش مصنوعی روشن‌نمودند که چرا چنین وهم‌هایی بوجود می‌آیند. اگر داده‌های آموزش ناقص یا پیش‌داوری شده باشند، خروجی هوش مصنوعی ممکن است گمراه‌کننده باشد. حنان وزان، از آرتفکت، فرایند هوش مصنوعی را به تفکر انسانی تشبیه می‌کند – ما قبل از صحبت کردن فکر می‌کنیم و درست مانند انسان می‌کند، از دیتابیس بزرگ خود برای پیش‌بینی دنباله کلمات بهره می‌جوید. علاوه بر این، الکساندر سوخارفسکی از کوانتوم‌بلاک، یک شرکت مکینزی، پیشنهاد می‌دهد که به هوش مصنوعی به عنوان یک “تکنولوژی هیبرید” اشاره شود و اهمیت محاسبات ریاضی پاسخ‌ها بر اساس داده‌های مشاهده شده را تاکید می‌کند.

گوگل اقرار می‌کند که این وهم‌ها ممکن است از مجموعه داده‌های کافی، فرض‌های نادرست یا تعصب‌های زیرین در اطلاعات به وجود آید. این شرکت بزرگ جستجویی توجه کرد که چنین گام‌های اشتباهی هوش مصنوعی می‌تواند منجر به پیامدهای جدی مانند تشخیص‌های پزشکی نادرست که مداخله‌های پوچ را فعال کند.

کیفیت نسبت به حجم داده، ایر گور سوو از گروه اچ‌تی‌ای‌سی گفته که در حالی که “وهم‌های” هوش مصنوعی ممکن است خلاقیت را زمینه‌ساز کند، نیاز فوری به آموزش مدل‌های هوش مصنوعی برای تمایز بین حقیقت و داستان وجود دارد. اوپن‌ای‌آی شروع به همکاری با سازمان‌های رسمی رسانه‌ای معتبر مانند آکسل اسپرینگر و نیوز کورپ برای آموزش مدل‌های هوش مصنوعی خود از داده‌های قابل اطمینانتر نموده است و اهمیت داده‌های ورودی با کیفیت بر حجم خالص تاکید دارد. این تدابیر گام مهمی در راستای افزایش دقت و قابل اعتمادی چت‌بات‌های هوش مصنوعی می‌باشند.

سوالات و پاسخ‌های مهم:
چرا مدل‌های هوش مصنوعی مانند گوگل پاسخ‌های غلط فاکتوآلی ارائه می‌دهند؟ مدل‌های هوش مصنوعی ممکن است به دلیل تعصب‌ها، خطاها یا کمبود داده‌های آموزشی، به علاوه طراحی ذاتی آنها که الگوی تشخیص را به دقت واقعیتی ترجیح می‌دهد، پاسخ‌های نادرست ارائه کنند.

چه چالش‌های کلیدی در صحت اطلاعات هوش مصنوعی وجود دارد؟ چالش‌های اصلی شامل اطمینان از کیفیت داده‌های استفاده شده برای آموزش مدل‌های هوش مصنوعی، غلبه بر تعصب‌های ذاتی و توسعه روش‌هایی برای هوش مصنوعی برای تمایز بین اطلاعات دقیق و ساختگی می‌باشد.

چه انتقاداتی را گوگل در ارتباط با ویژگی “بررسی هوش مصنوعی” خود مواجه شد؟ گوگل به خاطر ویژگی هوش مصنوعی جدید خود در ارائه پاسخ‌های نادرست مورد انتقاد قرار گرفت، شامل درمان‌های نامناسب و گسترش تئوری‌های توطئهی منکر شده بود.

چالش‌ها یا اختلافات کلیدی:
یکی از اصلی‌ترین اختلافات در صحت اطلاعات هوش مصنوعی شامل تعادل بین آزادی هوش مصنوعی برای ایجاد محتوای خلاق و نیاز به اطمینان از دقت اطلاعاتی است که ارائه می‌دهد. موضوع دیگری که اختلاف نظر ایجاد می‌کند، مسئولیت اخلاقی شرکت‌های فناوری برای جلوگیری از گسترش اطلاعات نادرست و آگاه‌سازی کاربران درباره محدودیت‌های محتوای تولید شده توسط هوش مصنوعی می‌باشد.

مزایا:
– سیستم‌بندی بازیابی اطلاعات
– کمک به کاربران در پرسش‌های پیچیده
– امکان ایجاد خلاقیت از طریق پاسخ‌های غیرمعمول

معایب:
– ریسک گسترش اطلاعات نادرست
– احتمال وقوع پیامدهای جدی، به خصوص در زمینه‌های حساس مانند بهداشت
– کاهش اعتماد به سیستم‌های هوش مصنوعی به دلیل خروجی‌های نادرست

برای کاوش بیشتر درباره زمینه‌های هوش مصنوعی گوگل، افراد علاقمند می‌توانند به دامنه اصلی گوگل برای اطلاعات بیشتر مراجعه کنند: گوگل.

منبع دیگری برای آموزش درباره هوش مصنوعی و پیشرفت در این زمینه می‌تواند روی وبگاه اوپن‌ای‌آی پیدا شود: اوپن‌ای‌آی.

و برای بیشتر بررسی کردن درباره هوش مصنوعی مسئول و پیامدهای اخلاقی آن، می‌توان درخصوصیاتی موجود در وب‌گاه انستیتوی آینده زندگی مطلع شد: انستیتوی آینده زندگی.

[تعبیه]https://www.youtube.com/embed/jLu3LbozZUc[/تعبیه]

Privacy policy
Contact