Cím

Az Anthropic által bemutatott új AI modellek határokat döngetnek a képességek és biztonság terén

Az Anthropic, az artificial intelligence területén ígéretes új szereplő, nemrég bemutatta legújabb AI modelljeit, amelyeket összefoglalóan Claude 3-ként ismernek. Ezek a modellek lenyűgöző képességekkel rendelkeznek, túllépve az OpenAI és a Google által kínált lehetőségeket. Az Anthropic Opus nevű legfejlettebb modellje túlszárnyalta az iparágvezető AI programokat különböző tesztek során, amelyek mérni szoktak egy AI szakértelmét és gondolkodási képességeit.

Az Opus mellett a Claude 3 sorozat tartalmazza a Sonnet és a Haiku nevű, két kicsit kevésbé intelligens modellt. Az Opus és a Sonnet most már elérhető 159 országban, míg a Haiku még nem került piacra. Az Anthropic társalapítója, Daniela Amodei, kiemelte, hogy a Claude 3, különösen az Opus, magasabb kockázatmegértést mutat fel elődjéhez, a Claude 2-hez képest. Ennek a fejlett kockázatértékelésnek köszönhetően a modell hatékonyan reagálhat bonyolult kérdésekre.

Az Anthropic, 2021-ben voltak OpenAI alkalmazottai által alapítva, gyorsan az AI iparág egyik vezető versenytársává vált. Jelentős kockázati tőkebevonás révén, beleértve a tech óriások, mint az Amazon és a Google támogatását, az Anthropic kész arra, hogy nyomot hagyjon a gyorsan változó AI tájban.

Az egyik megjegyzendő tulajdonsága a Claude 3 modelleknek az, hogy képesek elemződni különböző dokumentumtípusokat, például képeket, táblázatokat és műszaki diagramokat. Azonban ezek a modellek nem tudnak maguktól képeket generálni. Az Anthropic hangsúlyozza, hogy az összes Claude 3 modell javított képességeket mutatnak elemzésben, tartalom létrehozásban, kódgenerálásban és többnyelvű beszélgetésekben.

Bár a Claude 3 modellek kiváló intelligenciát mutatnak, az Anthropic elismer két fő gyengeséget, amelyre egy technikai fehér könyvben reagál. A modellek időnként hallucinációkat tapasztalhatnak, félreértelmezve a vizuális adatokat, és képtelenek lehetnek felismerni káros képeket. Felismerve a potenciális kihívásokat, az Anthropic aktívan fejleszti a technológiája visszaéléseinek megelőzésére szolgáló politikákat és módszereket, különösen a 2024-es elnökválasztási időszakban fennálló félretájékoztatás tekintetében.

Bár az Anthropic a magasan képzett és biztonságos modellekért törekszik, a vállalat elismeri, hogy az tökéletesség elérhetetlen. Amodei azonban azt állítja, hogy kitartóan dolgoztak azért, hogy biztosítsák, hogy a modellek optimális egyensúlyt találjanak a képesség és a biztonság között. Lehetnek még olyan esetek, amikor a modellek pontatlan információkat generálnak, de az Anthropic elkötelezett a folyamatos fejlődés és az ilyen esetek minimalizálása mellett.

Az Anthropic és áttörő Claude 3 modellek megjelenése friss nézőpontot hoz a versengő AI tájba. Elképesztő képességeikkel ezek a modellek készen állnak arra, hogy átértelmezzék, hogyan lehet kihasználni az AI technológiát különböző területeken, miközben foglalkoznak a fontos biztonsági és felelősségteljes használat aspektusaival.

The source of the article is from the blog radiohotmusic.it

Privacy policy
Contact