Tekngiganter går videre med avancerede AI-chatbots

De kolossale datakrav og den tunge beregningskraft, der kræves for at drive AI-chatbots til topydelse, understreger den kontinuerlige udvikling inden for kunstig intelligensområdet. Uforstærket læring, en afgørende proces for at forbedre AI’s ydeevne, er primært afhængig af menneskelig feedback for at forfine AI’s svarkvalitet. Som en konsekvens bliver de mere data, der fødes ind i disse modeller, jo mere præcise og pålidelige de bliver, hvilket reducerer hyppigheden af ‘hallucinationer’ eller forkerte output.

Det indbyggede drive mod ‘gigantisme’ kræver overvældende beregningsstyrke under læringsprocessen og senere for at betjene millioner af brugere. For eksempel havde ChatGPT i marts en aktiv brugerbase på 200 millioner individer. Leveringen af sådanne beregningskapaciteter forudsætter en hidtil uset tilgængelighed af hardware, software og energi – der markerer en ny æra i datalogihistorien.

Oprettelsen og vedligeholdelsen af disse storskalasproglige systemer kræver økonomiske forpligtelser, som kun et udvalgt fåtal af store teknologititaner har råd til. Tech-giganterne — Meta, Microsoft, Google og Amazon — investerede angiveligt 32 milliarder dollars i deres teknologiske infrastruktur alene i de første fire måneder af 2004 for at støtte voksende AI-funktionaliteter.

Dette sætter en formidabel indgangsbarriere i et marked, der forventes at nå en værdiansættelse på 1 billion dollars inden 2031. At mindske denne indgangsbarriere er blevet et fokuspunkt, hvor der er gjort fremskridt mod nye læringsmodeller, der markant reducerer behovet for menneskelig indgriben i data tuning. Disse innovative modeller, som ses i løsninger fra det europæiske startup Mistral og startups som Claude af Anthropic eller Metas kommende Llama 3, hævdes også at være op til syv gange mere energieffektive end dem, der anvendes af OpenAI og Google Gemini.

For nylig har forskere hos Amazon introduceret en metode (model disgorgement) til at rense uønskede data og fejl fra AI-modeller uden at genstarte fra bunden.

Alligevel kommer måske den mest forstyrrende innovation fra udviklingen af mindre, specialiserede og omkostningseffektive AI-systemer. Disse formindskede modeller er i stand til at fungere inden for smartphones, kameraer og sensorer, og gør dermed avancerede AI-evner tilgængelige for mindre virksomheder og fagfolk uden behov for skyen eller internetforbindelse, hvilket adresserer privatlivs- og databeskyttelsesbekymringer mere effektivt.

Denne uge markerede frigivelsen af Microsofts Phi-3 og Apples OpenELM, familier af sproglige modeller, der fungerer med færre beregningsressourcer og er offentligt tilgængelige. Microsofts Phi-3-serie, ifølge Sébastien Bubeck, vicepræsident for generativ AI-forskning hos Microsoft, afviger fra branchetendenserne ved at fokusere på håndterbare modeller som Phi-3 mini som et levedygtigt alternativ til de større systemer, som der blev samarbejdet om med OpenAI. Phi-3’s robuste ydeevne, lignende ChatGPT’s gratis version 3.5, tilskrives den omhyggelige kuratering af træningsdata, som sikrer kvalitet og nøjagtighed.

Apple, der deler en lignende filosofi, designede OpenELM til at trives på iPhone og andre enheder ved at afbalancere ydeevne med systemkrav, hvilket tillader lokal betjening direkte på brugerens enhed.

Vigtigheden og udfordringerne ved avancerede AI-chatbots

Den kontinuerlige udvikling af AI-chatbots fører til betydelige fremskridt inden for naturlig sprogbehandling og brugerinteraktion. Et kritisk spørgsmål er at sikre, at chatbots kan give nøjagtige og relevante oplysninger samtidig med at opretholde sammenhængende og kontekstbevidste samtaler. Dette kræver omfattende data og avancerede algoritmer, hvilket ofte kræver betydelig beregningskraft og økonomiske ressourcer.

Nøglespørgsmål og svar:

1. Hvorfor er beregningskraft afgørende for AI-chatbots?
Beregningskraft er afgørende for at træne AI-modeller på store datasæt og for at behandle flere brugerforespørgsler samtidig, hvilket er nødvendigt for at levere hurtige og nøjagtige svar.

2. Hvad er betydningen af ‘gigantisme’ i AI?
‘Gigantisme’ henviser til tendensen med at skabe stadig større AI-modeller, der kræver flere data og beregningsressourcer for at opnå bedre ydeevne og mere menneskelignende interaktions-evner.

3. Hvordan påvirker investeringer fra tech-giganterne AI-markedet?
Tunge investeringer fra store virksomheder skaber en indgangsbarriere for mindre virksomheder på grund af de høje omkostninger forbundet med at udvikle og vedligeholde avancerede AI-systemer.

4. Hvad er ‘hallucinationer’ i AI-sammenhæng?
‘Hallucinationer’ henviser til tilfælde, hvor AI giver forkerte eller meningsløse oplysninger som følge af utilstrækkelig træning eller begrænsninger i forståelse af kontekst.

5. Hvad er fordelene ved mindre, specialiserede AI-modeller?
Mindre modeller kan fungere på enheder med mindre beregningskraft, hvilket gør avanceret AI tilgængelig for en bredere målgruppe, samtidig med at bekymringer vedrørende privatliv og databeskyttelse håndteres.

Nøgleudfordringer og kontroverser:

Adgang til Data: Avancerede AI-systemer kræver massive datasæt til træning, hvilket rejser bekymringer om brugerprivatliv og etisk brug af data.

Beregnings- og Energikostnader: Den beregningskraft, der er nødvendig for disse AI-systemer, har miljømæssige konsekvenser på grund af den krævede energi og understreger behovet for mere energieffektive modeller.

Markedsdominans: De høje indgangsomkostninger styrker tech-giganternes dominans og kan potentielt kvæle innovation og konkurrence på AI-området.

Privatliv og Sikkerhed: Med integrationen af AI i dagligdagen er der øgede risici for personlig privatliv og bekymringer over sikkerheden af AI-systemer mod ondsindet brug.

Fordele og Ulemper ved avancerede AI-chatbots:

Fordele

– Effektiv Kundeservice: AI-chatbots kan håndtere mange kundeinteraktioner samtidigt og give hurtige og nøjagtige svar.
– Tilgængelighed: Mindre AI-systemer kan bruges på personlige enheder, hvilket udvider deres tilgængelighed.
– Privatliv: Drift af AI-systemer lokalt på en enhed kan styrke brugerprivatliv og datasikkerhed.

Ulemper

– Høje Omkostninger: Udviklingen og vedligeholdelsen af avancerede AI-systemer kræver betydelige økonomiske investeringer, som ikke alle virksomheder har råd til.
– Beregningskrav: Intensive beregningskrav kan bidrage til miljømæssige konsekvenser og kræve betydelig energi.
– Kvalitetsstyring: At sikre, at AI-systemet genererer nøjagtige og pålidelige oplysninger, forbliver en udfordring, især i mindre skala modeller.

For dem, der er interesserede i at lære mere om tech-giganterne, der går foran med AI, er følgende links til deres hoveddomæner:

Microsoft
Apple
Google
Amazon
Meta

Bemærk venligst, at disse links vil føre dig til disse virksomheders hovedsider, som giver en oversigt over deres forskellige teknologier, herunder AI-chatbots og andre innovationer.

The source of the article is from the blog be3.sk

Privacy policy
Contact