Ny Vinkling på Framtiden för Företagens AI

Företagens artificiella intelligens (AI) har varit i fokus med framväxten av populära chattrobotar som ChatGPT och Gemini. Experter som är involverade i inköp och försäljning av AI-teknik är fast beslutna att driva användningen av företagens AI bortom dess inledande fas. Nyliga framsteg av ledande AI-leverantörer återspeglar detta engagemang, då de presenterar affärsinriktade uppdateringar och innovativa AI-modeller för stor språkbehandling.

Ett företag med inriktning på företag, Cohere, har introducerat en toppmodern språkmodell (LLM) kallad R+. Utvecklad för Microsoft Azure och Oracle, syftar denna lösning till att förbättra noggrannheten och relevansen hos LLM:er samtidigt som den erbjuder stöd för 10 språk. Å andra sidan har OpenAI utökat sina möjligheter, vilket möjliggör för företag att finjustera och anpassa AI-modeller. Dessutom har Amazon ytterligare utökat sina företagsverktyg genom att integrera AI-modeller från Mistral, ett franskt företag.

I en ny undersökning genomförd av Writer AI, en start-up med inriktning på företag som lanserade sin egen Palmyra LLM i januari, belyses vissa farhågor angående utvecklingen av AI-lösningar för företag. Enligt undersökningen rapporterade endast 17% av de 500 befrågade företagsledarna framgång med sina internt byggda generativa AI-verktyg, medan 61% stötte på noggrannhetsproblem. Även om dessa resultat kan verka gynnsamma för ett företag som tillhandahåller privata AI-lösningar till företag, bidrar de också till den pågående debatten om huruvida företagen bör bygga sina egna AI-verktyg eller dra nytta av teknik från externa källor.

Trots dessa farhågor indikerar flera prognoser betydande tillväxt inom olika aspekter av företagens AI. Reklambranschen, i synnerhet, förväntas gynnas avsevärt. En rapport från Bloomberg Intelligence förutspår att reklamutgifter drivna av generativ AI kan växa från 4,6 miljarder dollar år 2023 till hisnande 206 miljarder dollar år 2032. Dessutom förväntar sig analytiker betydande tillväxt av intäkter från programvara för konsumenter och e-handel, med uppskattningar som projicerar en ökning från 995 miljoner dollar år 2023 till 45 miljarder dollar år 2032.

Vid en AI-evenemang organiserat av Bloomberg Intelligence uttryckte företagsledare ansvariga för att sälja AI-modeller och beräkningskraft sina observationer om det ökande intresset från företag. Framstegen inom AI-modeller, tillsammans med en ökad beräkningskraft, har väckt detta nytillkomna intresse. Vissa experter anser dock att användningen av generativ AI inom företagssektorn fortfarande är i sin linda.

Enligt Brian Venturo, medgrundare och strategichef på CoreWeave, en molnbaserad beräkningsleverantör, har inte den sanna potentialen för företagens anammande realiserats ännu. Venturo påpekar: ”När jag hör människor säga att företagsappar för närvarande är begränsade, har jag svårt att förstå användningsområdet. Det känns som om vi bara skrapar på ytan, skapar banala applikationer utan att fullt ut utnyttja kraften hos generativ AI.”

Neerav Kingsland, chef för globala konton på Anthropic, bekräftar att förra året primärt fokuserades på bevisföringsförsök snarare än fullskalig implementering av företagskunder. Dock börjar denna trend att förändras. Anthropics modeller används för rättsliga analyser av LexisNexis, finansiella analyser av hedgefonder som Bridge Water och Jane Street Capital, och chattsummeringar av plattformar som Slack.

Medan vissa företagsledare fortfarande är missnöjda med framstegen inom generativ AI-adoptering, ser andra redan fördelarna med att utveckla sina egna AI-verktyg internt. Företag som Mastercard anser att byggandet av generativa AI-verktyg hjälper till att främja ad

FAQ

Vad är generativ AI?
Generativ AI är en gren av artificiell intelligens som innebär skapandet av konstgjorda data eller innehåll, som text, bilder eller videor, av en AI-modell.

Vad är språkmodeller (LLMs)?
Språkmodeller (LLMs) är AI-modeller specifikt utformade för att analysera och förstå mänskligt språk. De kan generera text eller ge insikter baserat på naturlig språklig input.

Hur fungerar finjustering av AI-modeller?
Finjustering av AI-modeller innebär att modifiera förtränade modeller för att förbättra deras prestanda i specifika uppgifter eller sammanhang. Denna process möjliggör för företag att anpassa modellerna enligt sina unika krav.

I strävan att integrera AI i företagsoperationer måste företagen hitta en balansgång mellan att skydda känslig information och utforska potentialen hos AI-modeller. Navrina Singh, grundare och VD för Credo AI, en AI-styrelseplattform, betonar behovet av försiktighet. Hon föreslår att företag bör testa AI-system inom kontrollerade miljöer för att mildra riskerna som är associerade med outforskade områden såsom toxicitet, hallucinationer, IP-läckage och andra framväxande utmaningar. Singh påpekar: ”Vi måste prioritera förklarbarhet och transparens i dessa system. Utan en heltäckande förståelse för hur de fungerar och reagerar riskerar vi att möta okända konsekvenser.”

En annan betydande hinder som hindrar implementeringen av företagsklassificerad AI är farhågor kring data noggrannhet och datasäkerhet. Writers AI:s undersökning upptäckte att 95% av respondenterna anser att ytterligare säkerhetsåtgärder är nödvändiga, medan 94% uttryckte oro kring dataskydd.

John Roese, global CTO på Dell, drar en parallell mellan stora språkmodeller och sökmotorer. Han föreslår att enbart förlita sig på offentliga AI-modeller kan leda företag till att förlora en betydande konkurrensfördel genom att kompromissa deras data. Roese kommenterar: ”Offentliga stora språkmodeller liknar sökmotorer i det avseendet att de har flera funktionaliteter. Företag ger emellertid upp en betydande fördel när de anförtror sina data till dessa offentliga AI-modeller.”

Kommande AI-anmälningar och andra nyheter

The source of the article is from the blog crasel.tk

Privacy policy
Contact