تحقیق نشان می‌دهد آسیب‌پذیری هوش مصنوعی در برابر خطاهای ساده

تحقیقات اخیر نقاط ضعف چشمگیری در سیستم‌های هوش مصنوعی (AI) را برجای گذاشته است: میل آنها به انجام خطاهای غیرمنطقی که به نظر ساده به انسان‌ها می‌آید. یک تیم تحقیقاتی در دانشگاه کالج لندن ارزیابی ژرفی از توانایی منطقی بودن AI به شبیه فکر انسانی انجام داد.

آزمون‌هایی که به مدل‌های AI اجرا شد روز روشن کرد که این مدل‌ها فاصله بزرگی با منطق انسانی دارند و اغلب به جواب‌های نادرستی منجر می‌شوند حتی زمانی که منطق به نظر فهمیده شود. مدل Lama شرکت Meta بطور قابل توجهی حروف واکهی و حروف ساکن را اشتباه می‌کند که منجر به خطاهایی می‌شود که بسیاری از انسان‌ها به راحتی از آنها پرهیز می‌کنند.

بعضی از چت‌بات‌های AI رفتاری بسیار محتاطانه از خود نشان می‌دادند، تا جایی که برای پاسخ به سوالات بی‌خطر حتی بر مبنای تدابیر اخلاقی امتناع از پاسخ دادن می‌کردند. این محافظت‌گرایی نشان می‌دهد که احتمالاً ویژگی‌های محافظتی بظاهر بیش از حد یا میل به احتیاط بیش از اندازه در AI جاساز شده است.

اگرچه ChatGPT-4، در میان مدل‌های AI آزمایش شده، بالاترین نرخ دقت را نشان داد، محققان اعتراف کردند که به راه‌هایی که به پاسخ‌های صحیح می‌رسد، گیج شده‌اند.

یافته‌های این مطالعه نشان می‌دهند که ریسک‌های مرتبط با استقرار مدل‌های AI در برنامه‌های حیاتی بیش از پیش مشهود است. در حالی که AI به توسعه بیشتر می‌پردازد، واضح شده است که ممکن است آن به اندازه تصورات قبلی که از تقلید فرایندهای فکری انسانی داشته، ماهر نباشد که چالش‌هایی برای ادغام و قابلیت اعتماد آینده ایجاد می‌کند.

اهمیت درک ضعف‌های AI

به فهمیدن ضعف‌های هوش مصنوعی برای اطمینان از ایمنی، قابلیت اعتماد و پیوستگی سیستم‌های مبتنی بر AI امری حیاتی است. AI‌ها به طور فزاینده‌ای در حوزه‌هایی که پیامدهای جدی از جمله حوزه بهداشت، اقتصاد و رانندگی خودکار را دارا هستند، استقرار می‌یابند که اشتباهاتی می‌توانند دارای تبعات جدی باشند. بنابراین، شناخت و کاهش نقاط ضعف در استدلال AI یک حوزه حیاتی از تحقیقات پیوسته است.

چالش‌ها و اختلافات اصلی

یکی از چالش‌های اصلی در توسعه AI ایجاد سیستم‌هایی است که بتوانند اطلاعات را با درک نانوشتنی انسان‌ها فهمیده و پردازش کنند. این شامل مقاومت در برابر ابهام، سیاق و کاربرد استدلال با استدلال معقول متضاد به انسان‌ها است. یک اختلاف مربوط، مقداری که AI باید به استدلال شبیه به انسانی پایبند باشد چیست، زیرا نقاط قوت آن ممکن است در حوزه‌های متفاوتی نظیر شناخت انسانی باشند.

مزایای استدلال AI

– AI قادر است داده‌ها را در مقیاس و سرعتی که از توانایی‌های انسانی بی‌نظیری است پردازش و تجزیه‌وتحلیل کند.
– آن می‌تواند الگوها و ارتباطاتی را در مجموعه داده‌های بزرگ کشف کند که ممکن است برای انسان‌ها قدرت تشخیص ناپذیر باشد.
– AI می‌تواند بدون نیاز به استراحت بدون آنکه نیاز به استراحت داشته باشد، به‌کار ادامه دهد و عملکردی ثابت حفظ کند.

معایب استدلال AI

– AI ممکن است از فهم درست، استدلال ساده و انسجام عمومی کمبود داشته باشد و اشتباهات انجام دهد.
– مدل‌های فعلی AI ممکن است با سیاق مشکل داشته باشند و اطلاعات را خارج از داده‌های آموزش خود اشتباه تفسیر کنند.
– خطر پیچوندگی نیز وجود دارد که AI در داده‌های شناخته شده عملکرد خوبی انجام دهد اما در داده‌های جدید و نامعلوم ناموفق باشد.

برای کسب اطلاعات بیشتر درباره AI و تحقیقات مرتبط از دیدگاه گسترده‌تر، می‌توانید به این وب‌گاه‌ها مراجعه کنید:

DeepMind
OpenAI
Google AI

هر یک از این نهادها در تحقیقات پیشرو AI عمیقاً درگیر هستند و با مسائل قابلیت اعتماد و توانایی استدلال AI مبارزه می‌کنند.

Privacy policy
Contact