در حوزه هوش مصنوعی، گوگل پس از آنکه کاربران شناسایی کردند که تابع جدید “بررسی هوش مصنوعی” آن، پاسخهای غلط فاکتوآلی را به پرسشها ارائه میداد، با پیامدهای منفی روبرو شد. این ویژگی که دو هفته پیش معرفی شده بود، برای سادهتر کردن وظیفه پاسخ به سوالات پیچیده طراحی شده بود تا پاسخهای جمعبندی شده را در بالای صفحه جستجوی گوگل نشان دهد.
مواردی که هوش مصنوعی پیشنهادهای عجیبی ارائه کرد، از قبیل استفاده از پنیر برای تعمیر پیتزا یا خوردن سنگ برای بهرهمندی از فواید بهداشتی، همراه با یک تئوری توطئه غیرمعتبر درباره دین رئیسجمهور سابق باراک اوباما، پرسشهایی درباره قابلیت اطمینان پاسخهای مولد هوش مصنوعی پیش آورد.
یک مطالعه انجام شده توسط شروعآپ هوش مصنوعی وکتارا نشان داد که چتباتها اطلاعات را در یک محدوده قابل توجهی از موارد ساختگی کاذب میکنند که گاهی تا 27% میرسد. این موارد اطلاعات غلط، که اغلب با عنوان “وهم” شناخته میشوند، از مدلهای زبان بزرگ (LLMs)، مانند چتجیپت از اوپنایآی و ژمینی از گوگل، بر میآید که برنامهریزی شدهاند تا پاسخها را بر اساس تشخیص الگو، نه دقت واقعیتی، پیشبینی کنند.
متخصصان هوش مصنوعی روشننمودند که چرا چنین وهمهایی بوجود میآیند. اگر دادههای آموزش ناقص یا پیشداوری شده باشند، خروجی هوش مصنوعی ممکن است گمراهکننده باشد. حنان وزان، از آرتفکت، فرایند هوش مصنوعی را به تفکر انسانی تشبیه میکند – ما قبل از صحبت کردن فکر میکنیم و درست مانند انسان میکند، از دیتابیس بزرگ خود برای پیشبینی دنباله کلمات بهره میجوید. علاوه بر این، الکساندر سوخارفسکی از کوانتومبلاک، یک شرکت مکینزی، پیشنهاد میدهد که به هوش مصنوعی به عنوان یک “تکنولوژی هیبرید” اشاره شود و اهمیت محاسبات ریاضی پاسخها بر اساس دادههای مشاهده شده را تاکید میکند.
گوگل اقرار میکند که این وهمها ممکن است از مجموعه دادههای کافی، فرضهای نادرست یا تعصبهای زیرین در اطلاعات به وجود آید. این شرکت بزرگ جستجویی توجه کرد که چنین گامهای اشتباهی هوش مصنوعی میتواند منجر به پیامدهای جدی مانند تشخیصهای پزشکی نادرست که مداخلههای پوچ را فعال کند.
کیفیت نسبت به حجم داده، ایر گور سوو از گروه اچتیایسی گفته که در حالی که “وهمهای” هوش مصنوعی ممکن است خلاقیت را زمینهساز کند، نیاز فوری به آموزش مدلهای هوش مصنوعی برای تمایز بین حقیقت و داستان وجود دارد. اوپنایآی شروع به همکاری با سازمانهای رسمی رسانهای معتبر مانند آکسل اسپرینگر و نیوز کورپ برای آموزش مدلهای هوش مصنوعی خود از دادههای قابل اطمینانتر نموده است و اهمیت دادههای ورودی با کیفیت بر حجم خالص تاکید دارد. این تدابیر گام مهمی در راستای افزایش دقت و قابل اعتمادی چتباتهای هوش مصنوعی میباشند.
سوالات و پاسخهای مهم:
– چرا مدلهای هوش مصنوعی مانند گوگل پاسخهای غلط فاکتوآلی ارائه میدهند؟ مدلهای هوش مصنوعی ممکن است به دلیل تعصبها، خطاها یا کمبود دادههای آموزشی، به علاوه طراحی ذاتی آنها که الگوی تشخیص را به دقت واقعیتی ترجیح میدهد، پاسخهای نادرست ارائه کنند.
– چه چالشهای کلیدی در صحت اطلاعات هوش مصنوعی وجود دارد؟ چالشهای اصلی شامل اطمینان از کیفیت دادههای استفاده شده برای آموزش مدلهای هوش مصنوعی، غلبه بر تعصبهای ذاتی و توسعه روشهایی برای هوش مصنوعی برای تمایز بین اطلاعات دقیق و ساختگی میباشد.
– چه انتقاداتی را گوگل در ارتباط با ویژگی “بررسی هوش مصنوعی” خود مواجه شد؟ گوگل به خاطر ویژگی هوش مصنوعی جدید خود در ارائه پاسخهای نادرست مورد انتقاد قرار گرفت، شامل درمانهای نامناسب و گسترش تئوریهای توطئهی منکر شده بود.
چالشها یا اختلافات کلیدی:
یکی از اصلیترین اختلافات در صحت اطلاعات هوش مصنوعی شامل تعادل بین آزادی هوش مصنوعی برای ایجاد محتوای خلاق و نیاز به اطمینان از دقت اطلاعاتی است که ارائه میدهد. موضوع دیگری که اختلاف نظر ایجاد میکند، مسئولیت اخلاقی شرکتهای فناوری برای جلوگیری از گسترش اطلاعات نادرست و آگاهسازی کاربران درباره محدودیتهای محتوای تولید شده توسط هوش مصنوعی میباشد.
مزایا:
– سیستمبندی بازیابی اطلاعات
– کمک به کاربران در پرسشهای پیچیده
– امکان ایجاد خلاقیت از طریق پاسخهای غیرمعمول
معایب:
– ریسک گسترش اطلاعات نادرست
– احتمال وقوع پیامدهای جدی، به خصوص در زمینههای حساس مانند بهداشت
– کاهش اعتماد به سیستمهای هوش مصنوعی به دلیل خروجیهای نادرست
برای کاوش بیشتر درباره زمینههای هوش مصنوعی گوگل، افراد علاقمند میتوانند به دامنه اصلی گوگل برای اطلاعات بیشتر مراجعه کنند: گوگل.
منبع دیگری برای آموزش درباره هوش مصنوعی و پیشرفت در این زمینه میتواند روی وبگاه اوپنایآی پیدا شود: اوپنایآی.
و برای بیشتر بررسی کردن درباره هوش مصنوعی مسئول و پیامدهای اخلاقی آن، میتوان درخصوصیاتی موجود در وبگاه انستیتوی آینده زندگی مطلع شد: انستیتوی آینده زندگی.
[تعبیه]https://www.youtube.com/embed/jLu3LbozZUc[/تعبیه]
The source of the article is from the blog japan-pc.jp