مدل‌های هوش مصنوعی جدید توسط Anthropic حدود توانایی‌ها و ایمنی را گسترش می‌دهند

Anthropic، یک بازیکن جدید واعد در زمینه هوش مصنوعی، به تازگی مدل‌های هوش مصنوعی جدید خود را که به صورت جمعی به نام Claude 3 شناخته می‌شوند، معرفی کرده است. این مدل‌ها دارای توانمندی‌های چشمگیری هستند که توانایی‌هایی که توسط شرکت‌های فناوری بزرگ مانند OpenAI و Google ارائه شده‌اند را فراتر می‌رود. Opus، مدل پیشرفته‌ترین در خانواده Claude 3 از Anthropic، در آزمون‌های مختلف از قدرت و استدلال یک هوش مصنوعی ارتقا یافته، نسبت به برنامه‌های هوش مصنوعی پیشرو در صنعت، عملکرد بهتری داشته است.

علاوه بر Opus، خط تولید Claude 3 شامل Sonnet و Haiku، دو مدل کمی کم‌هوش‌تر است. Opus و Sonnet اکنون در 159 کشور قابل دسترسی هستند، در حالی که Haiku هنوز منتشر نشده است. دانیلا آمودی، هم‌موسس Anthropic، برجسته کرد که Claude 3، به ویژه Opus، نسبت به نسخه قبلی‌اش، یعنی Claude 2، درک بهتری از خطر نشان می‌دهد. این ارزیابی بهبود یافته از خطر، این مدل را قادر می‌سازد تا به سوالات پیچیده بطور موثر پاسخ دهد.

Anthropic که توسط پیشینه‌هایی از کارمندان OpenAI در سال 2021 تأسیس شده است، به سرعت به عنوان یک رقیب برتر در صنعت هوش مصنوعی ظاهر شده است. با پشتیبانی قابل توجهی از سرمایه گذاری سرمایه‌گذاری و پشتیبانی از شرکت‌های فناوری مانند آمازون و گوگل، Anthropic آماده است تا در منظر سریع‌تغییر هوش مصنوعی، گامی بردارد.

یکی از ویژگی‌های قابل توجه مدل‌های Claude 3، توانایی تحلیل انواع مختلف اسناد مانند تصاویر، نمودارها و نمودارهای فنی است. با این حال، این مدل‌ها قادر به تولید تصاویر نیستند. Anthropic تأکید کرده است که تمام مدل‌های Claude 3 توانمندی‌های بهبود یافته‌ای در تحلیل، ایجاد محتوا، تولید کد و مکالمات چندزبانه دارند.

هرچند مدل‌های Claude 3 هوش بسیار قابل توجهی را نشان می‌دهند، Anthropic دو ضعف کلیدی را که در یک گزارش فنی آدرس می‌دهد، تایید کرده است. این مدل‌ها گاهاً تجربه وهم‌بینی می‌کنند، داده‌های بصری را اشتباه تفسیر می‌کنند و ممکن است نتوانند تصاویر مضر را به درستی شناسایی کنند. شناسایی چالش‌های احتمالی را در نظر گرفته و روش‌ها و سیاست‌هایی را برای جلوگیری از سوءاستفاده از تکنولوژی خود توسعه می‌دهد، به خصوص در ارتباط با اطلاعات غلط در انتخابات ریاست‌جمهوری پیش‌رو در سال 2024.

هرچند Anthropic برای مدل‌های بسیار قادر و ایمن تلاش می‌کند، این شرکت می‌پذیرد که کمال دست‌نیافتنی است. با این حال، امودی می‌گوید که آن‌ها به‌کارفرمایی خود برای اطمینان از اینکه مدل‌ها بین توانمندی و ایمنی تعادل بهینه‌ای برقرار کنند، با دقت کار کرده‌اند. احتمالاً هنوز مواردی وجود داشته باشد که مدل‌ها اطلاعات نادرستی تولید کنند، امّا Anthropic به بهبود مداوم تعهد دارد و هدف دارد تا موارد چنین رویدادهایی را به حداقل برساند.

پرسش‌های متداول:

The source of the article is from the blog zaman.co.at

Privacy policy
Contact