Nové modely AI od společnosti Anthropic posouvají hranice schopností a bezpečnosti

Anthropic, slibný nový aktér v oblasti umělé inteligence, nedávno představil své nejnovější modely AI, kolektivně známé jako Claude 3. Tyto modely se mohutně chlubí schopnostmi, které přesahují ty nabízené giganty v oboru, jako jsou OpenAI a Google. Opus od Anthropic, nejpokročilejší model v rodině Claude 3, překonal přední programy umělé inteligence v různých testech měřících odbornost a schopnosti úsudku AI.

Kromě Opusu zahrnuje řada Claude 3 modely Sonnet a Haiku, dva trochu méně inteligentní modely. Opus a Sonnet jsou nyní dostupné ve 159 zemích, zatímco Haiku ještě nebyl uveden na trh. Spoluzakladatel Anthropic, Daniela Amodei, zdůraznila, že Claude 3, zejména Opus, prokázal zvýšené porozumění riziku ve srovnání se svým předchůdcem, Claude 2. Toto zlepšené hodnocení rizika umožňuje modelu účinně reagovat na složité otázky.

Anthropic, založený bývalými zaměstnanci OpenAI v roce 2021, rychle vystoupil jako vedoucí konkurent v oboru umělé inteligence. S významným financováním ze strany rizikového kapitálu, včetně podpory od gigantů jako Amazon a Google, je Anthropic připraven udělat dojem na rychle se rozvíjející krajinu umělé inteligence.

Jednou z pozoruhodných vlastností modelů Claude 3 je jejich schopnost analyzovat různé typy dokumentů, jako jsou obrázky, grafy a technické diagramy. Avšak tyto modely samy nedokáží generovat obrázky. Anthropic zdůraznil, že všechny modely Claude 3 prokazují zlepšené schopnosti v analýze, tvorbě obsahu, generování kódu a vícejazyčných konverzacích.

Přestože modely Claude 3 prokazují pozoruhodnou inteligenci, Anthropic uznává dvě klíčové slabiny, na které odkazuje v technické bílé knize. Modely občas zažívají halucinace, nesprávné interpretace vizuálních dat, a mohou selhat v rozpoznání škodlivých obrázků. Vzhledem k možným výzvám Anthropic aktivně vyvíjí politiky a metody k prevenci zneužití své technologie, zejména co se týče dezinformací během nadcházejících prezidentských voleb v roce 2024.

I když Anthropic usiluje o vysoce schopné a bezpečné modely, společnost uznává, že dokonalost není dosažitelná. Nicméně Amodei trvá na tom, že se poctivě snažili zajistit, aby modely dosáhly optimální rovnováhy mezi schopnostmi a bezpečností. Může se stát, že modely přesto vygenerují nepřesné informace, ale Anthropic je zavázán k neustálému zdokonalování a cílí na minimalizaci takových incidentů.

The source of the article is from the blog aovotice.cz

Privacy policy
Contact