Anthropic، یک بازیکن جدید واعد در زمینه هوش مصنوعی، به تازگی مدلهای هوش مصنوعی جدید خود را که به صورت جمعی به نام Claude 3 شناخته میشوند، معرفی کرده است. این مدلها دارای توانمندیهای چشمگیری هستند که تواناییهایی که توسط شرکتهای فناوری بزرگ مانند OpenAI و Google ارائه شدهاند را فراتر میرود. Opus، مدل پیشرفتهترین در خانواده Claude 3 از Anthropic، در آزمونهای مختلف از قدرت و استدلال یک هوش مصنوعی ارتقا یافته، نسبت به برنامههای هوش مصنوعی پیشرو در صنعت، عملکرد بهتری داشته است.
علاوه بر Opus، خط تولید Claude 3 شامل Sonnet و Haiku، دو مدل کمی کمهوشتر است. Opus و Sonnet اکنون در 159 کشور قابل دسترسی هستند، در حالی که Haiku هنوز منتشر نشده است. دانیلا آمودی، همموسس Anthropic، برجسته کرد که Claude 3، به ویژه Opus، نسبت به نسخه قبلیاش، یعنی Claude 2، درک بهتری از خطر نشان میدهد. این ارزیابی بهبود یافته از خطر، این مدل را قادر میسازد تا به سوالات پیچیده بطور موثر پاسخ دهد.
Anthropic که توسط پیشینههایی از کارمندان OpenAI در سال 2021 تأسیس شده است، به سرعت به عنوان یک رقیب برتر در صنعت هوش مصنوعی ظاهر شده است. با پشتیبانی قابل توجهی از سرمایه گذاری سرمایهگذاری و پشتیبانی از شرکتهای فناوری مانند آمازون و گوگل، Anthropic آماده است تا در منظر سریعتغییر هوش مصنوعی، گامی بردارد.
یکی از ویژگیهای قابل توجه مدلهای Claude 3، توانایی تحلیل انواع مختلف اسناد مانند تصاویر، نمودارها و نمودارهای فنی است. با این حال، این مدلها قادر به تولید تصاویر نیستند. Anthropic تأکید کرده است که تمام مدلهای Claude 3 توانمندیهای بهبود یافتهای در تحلیل، ایجاد محتوا، تولید کد و مکالمات چندزبانه دارند.
هرچند مدلهای Claude 3 هوش بسیار قابل توجهی را نشان میدهند، Anthropic دو ضعف کلیدی را که در یک گزارش فنی آدرس میدهد، تایید کرده است. این مدلها گاهاً تجربه وهمبینی میکنند، دادههای بصری را اشتباه تفسیر میکنند و ممکن است نتوانند تصاویر مضر را به درستی شناسایی کنند. شناسایی چالشهای احتمالی را در نظر گرفته و روشها و سیاستهایی را برای جلوگیری از سوءاستفاده از تکنولوژی خود توسعه میدهد، به خصوص در ارتباط با اطلاعات غلط در انتخابات ریاستجمهوری پیشرو در سال 2024.
هرچند Anthropic برای مدلهای بسیار قادر و ایمن تلاش میکند، این شرکت میپذیرد که کمال دستنیافتنی است. با این حال، امودی میگوید که آنها بهکارفرمایی خود برای اطمینان از اینکه مدلها بین توانمندی و ایمنی تعادل بهینهای برقرار کنند، با دقت کار کردهاند. احتمالاً هنوز مواردی وجود داشته باشد که مدلها اطلاعات نادرستی تولید کنند، امّا Anthropic به بهبود مداوم تعهد دارد و هدف دارد تا موارد چنین رویدادهایی را به حداقل برساند.
پرسشهای متداول:
The source of the article is from the blog zaman.co.at