Tytuł

Nowe modele sztucznej inteligencji stworzone przez Anthropic przesuwają granice możliwości i bezpieczeństwa

Anthropic, obiecujący nowy gracz w dziedzinie sztucznej inteligencji, niedawno ujawnił swoje najnowsze modele AI, zbiorowo znane jako Claude 3. Modele te mają imponujące zdolności, przewyższające te oferowane przez gigantów technologicznych, takich jak OpenAI i Google. Opus, najbardziej zaawansowany model w rodzinie Claude 3 stworzony przez Anthropic, wyprzedził wiodące programy AI w różnych testach mierzących ekspertyzę i zdolności rozumowania AI.

Oprócz Opusa, linia Claude 3 obejmuje modele Sonnet i Haiku, dwa nieco mniej inteligentne. Opus i Sonnet są teraz dostępne w 159 krajach, podczas gdy Haiku jeszcze nie został wydany. Daniela Amodei, współzałożycielka Anthropic, podkreśliła, że Claude 3, w szczególności Opus, demonstruje wyższe zrozumienie ryzyka w porównaniu z poprzednikiem, modelem Claude 2. To ulepszone ocenianie ryzyka pozwala modelowi skutecznie reagować na złożone pytania.

Anthropic, założony przez byłych pracowników OpenAI w 2021 roku, szybko wyłonił się jako wiodący konkurent w branży sztucznej inteligencji. Dzięki znacznym funduszom ze środków venture capital, w tym wsparciu gigantów technologicznych takich jak Amazon i Google, Anthropic jest gotów zaznaczyć swoją obecność w dynamicznie zmieniającej się przestrzeni AI.

Jedną z ważnych cech modeli Claude 3 jest zdolność do analizy różnych typów dokumentów, takich jak obrazy, wykresy i techniczne diagramy. Jednakże te modele nie są w stanie generować obrazów samodzielnie. Anthropic podkreślił, że wszystkie modele Claude 3 wykazują poprawione zdolności w analizie, tworzeniu treści, generowaniu kodu i wielojęzycznych rozmowach.

Mimo że modele Claude 3 wykazują niezwykłą inteligencję, Anthropic dostrzega dwa kluczowe słabości, którymi zajmuje się w białej księdze technicznej. Modele czasami doświadczają halucynacji, błędnie interpretując dane wizualne, oraz mogą nie rozpoznać szkodliwych obrazów. Rozpoznając potencjalne wyzwania, Anthropic aktywnie opracowuje zasady i metody zapobiegania nadużyciom swojej technologii, szczególnie dotyczącym dezinformacji podczas nadchodzących wyborów prezydenckich w 2024 roku.

Mimo że Anthropic dąży do posiadania bardzo zdolnych i bezpiecznych modeli, firma uznaje, że doskonałość jest nieosiągalna. Niemniej jednak Amodei podkreśla, że pracowali sumiennie, aby zapewnić, że modele osiągną optymalny balans między zdolnościami a bezpieczeństwem. Mogą zdarzyć się sytuacje, w których modele generują nieprawidłowe informacje, ale Anthropic zobowiązuje się do ciągłego doskonalenia i dążenia do minimalizacji takich przypadków.

The source of the article is from the blog macholevante.com

Privacy policy
Contact