Modelele noi de AI create de Anthropic își extind limitele capacităților și siguranței

Anthropic, un nou jucător promițător în domeniul inteligenței artificiale, a dezvăluit recent ultimele sale modele de AI, cunoscute colectiv sub numele de Claude 3. Aceste modele se laudă cu capacități impresionante, depășind cele oferite de giganții tehnologici precum OpenAI și Google. Opus de la Anthropic, cel mai avansat model din familia Claude 3, a depășit programele AI de frunte din industrie în diferite teste care măsoară expertiza și abilitățile de raționament ale unui AI.

În plus față de Opus, seria Claude 3 include Sonnet și Haiku, două modele ușor mai puțin inteligente. Opus și Sonnet sunt deja accesibile în 159 de țări, în timp ce Haiku urmează să fie lansat. Daniela Amodei, cofondatoarea Anthropic, a subliniat faptul că Claude 3, în special Opus, demonstrează o înțelegere crescută a riscului în comparație cu predecesorul său, Claude 2. Această evaluare îmbunătățită a riscului permite modelului să răspundă eficient la întrebări complexe.

Anthropic, fondată de foști angajați OpenAI în 2021, a apărut rapid ca un competitor de frunte în industria AI. Cu o finanțare semnificativă de capital de risc, inclusiv sprijin din partea giganților tehnologici precum Amazon și Google, Anthropic are potențialul de a marca teren în peisajul în continuă evoluție al AI-ului.

Una dintre caracteristicile remarcabile ale modelelor Claude 3 este capacitatea lor de a analiza diferite tipuri de documente, cum ar fi imagini, diagrame și scheme tehnice. Cu toate acestea, aceste modele nu pot genera imagini ele însele. Anthropic a subliniat că toate modelele Claude 3 demonstrează capacități îmbunătățite în analiză, generare de conținut, generare de cod și conversații multilingve.

Chiar dacă modelele Claude 3 prezintă o inteligență remarcabilă, Anthropic recunoaște două slăbiciuni cheie pe care le abordează într-un document tehnic. Modelele experimentează uneori halucinații, interpretând greșit datele vizuale, și pot nu reuși să recunoască imagini dăunătoare. Conștientizând provocările potențiale, Anthropic dezvoltă activ politici și metode pentru a preveni utilizările nepotrivite ale tehnologiei sale, în special referitor la dezinformare în timpul viitoarelor alegeri prezidențiale din 2024.

În timp ce Anthropic se străduiește să aibă modele foarte capabile și sigure, compania recunoaște că perfecțiunea este inaccesibilă. Cu toate acestea, Amodei menține că au lucrat cu dili-gență pentru a se asigura că modelele găsesc un echilibru optim între capacitate și siguranță. Este posibil să existe încă situații în care modelele generează informații inexacte, dar Anthropic este dedicat îmbunătățirii continue și își propune să minimizeze astfel de situații.

Sosirea Anthropic și a modelelor sale inovatoare Claude 3 aduce o perspectivă proaspătă pe peisajul competitiv al AI-ului. Cu capacitățile lor fără precedent, aceste modele sunt gata să redefinească modul în care tehnologia AI poate fi folosită în diferite domenii, abordând totodată aspectele cruciale ale siguranței și utilizării responsabile.

The source of the article is from the blog publicsectortravel.org.uk

Privacy policy
Contact