Nye Tendenser inden for Enterprise AI: Muligheder og Udfordringer

Virksomheder verden over er vakt op til virkeligheden ved den hastigt udviklende teknologi, som er kunstig intelligens (AI). Denne udvikling har ført til fremkomsten af populære chatbots som ChatGPT og Gemini. Ledere, der er involveret i køb og salg af AI-teknologi, er imidlertid fast besluttede på at fremme implementeringen af enterprise AI ud over dets spæde begyndelse. Nylige tiltag fra top AI-udbydere afspejler denne forpligtelse, da de præsenterer forretningsfokuserede opdateringer og innovative AI-modeller til stor sprogbehandling.

En virksomhed med fokus på enterprise, Cohere, har introduceret en topmoderne sprogmodel (LLM) kaldet R+. Udviklet til Microsoft Azure og Oracle sigter denne nye løsning på at forbedre præcisionen og relevansen af LLM’er samtidig med at den tilbyder understøttelse til 10 sprog. På den anden side har OpenAI udvidet sine muligheder, hvilket gør det muligt for virksomheder at finjustere og tilpasse AI-modeller. Derudover har Amazon udvidet sine enterprise-værktøjer ved at integrere AI-modeller fra Mistral, en fransk virksomhed.

Alligevel peger en ny undersøgelse foretaget af Writer AI, en virksomhed med fokus på enterprise, som lancerede sin egen Palmyra LLM i januar, på visse bekymringer vedrørende udviklingen af AI-løsninger til virksomheder. Ifølge undersøgelsen rapporterede kun 17% af de 500 adspurgte ledere om succes med deres internt udviklede generative AI-værktøjer, mens 61% stod over for præcisionsspørgsmål.

FAQs

Hvad er generativ AI?

Generativ AI er en gren af kunstig intelligens, der omfatter skabelsen af kunstige data eller indhold, såsom tekst, billeder eller videoer, af en AI-model.

Hvad er sprogmodeller (LLM’er)?

Sprogmodeller (LLM’er) er AI-modeller specielt designet til at analysere og forstå menneskelig sprog. De kan generere tekst eller give indsigter baseret på naturlig sproginput.

Hvordan fungerer finjustering af AI-modeller?

Finjustering af AI-modeller indebærer ændring af forudtrænede modeller for at forbedre deres præstation i specifikke opgaver eller kontekster. Denne proces giver virksomheder mulighed for at tilpasse modellerne i henhold til deres unikke krav.

I jagten på at integrere AI i virksomheders aktiviteter må virksomheder opnå en fin balance mellem at beskytte følsomme oplysninger og udforske AI-modellernes potentiale. Navrina Singh, grundlægger og administrerende direktør for Credo AI, en AI-styringsplatform, understreger behovet for forsigtighed. Hun foreslår, at virksomheder bør teste AI-systemer inden for kontrollerede miljøer for at mindske risici forbundet med uudforskede områder såsom toksicitet, hallucinationer, IP-lækager og andre emergente udfordringer.

En anden væsentlig barriere, der hindrer implementeringen af enterprise-grade AI, er bekymringer vedrørende nøjagtigheden og sikkerheden af data. En undersøgelse foretaget af Writer AI viste, at 95% af respondenterne mener, at yderligere sikkerhedsforanstaltninger er nødvendige, mens 94% udtrykte bekymringer om databeskyttelse.

John Roese, Global CTO hos Dell, drager en parallel mellem store sprogmodeller og søgemaskiner. Han antyder, at udelukkende at stole på offentlige AI-modeller kan føre virksomheder til at miste en betydelig konkurrencefordel ved at gå på kompromis med deres data.

The source of the article is from the blog exofeed.nl

Privacy policy
Contact