Nvidia Udvider Styrken af Forbruger-GPU’er inden for Lokal AI-Anvendelse

Nvidia, en fremtrædende aktør inden for kunstig intelligens (AI)-industrien, understreger yderligere sine evner inden for forbrugergrafikbehandlingsenheder (GPUs) til “lokale” AI-anvendelser. Disse GPU’er er traditionelt blevet brugt til gaming formål; dog har Nvidia forbedret deres nyeste grafikkort, såsom RTX 4060 Super, RTX 4070 Ti Super og RTX 4080 Super, for at imødekomme AI-modeller uden at være afhængig af cloud-infrastruktur.

Efterspørgslen efter Nvidias virksomheds-GPUs, som har en pris på titusinder af dollars og ofte bruges i systemer med flere GPU’er, der arbejder sammen, har spillet en betydelig rolle i at drive Nvidias salg og øge dets markedsværdi til over 1 billion dollars.

Mens gaming stadig er det primære fokus for de nye forbrugerniveau grafikchips, hævder Nvidia, at de også er i stand til effektivt at håndtere AI-applikationer. For eksempel siges det, at RTX 4080 Super genererer AI-videoindhold 150% hurtigere end sin forgænger. Derudover forventes softwareforbedringer, som nyligt er udviklet af Nvidia, at forbedre hastigheden af sprogmodelbehandling med op til fem gange.

Nvidia forudser, at der vil opstå nye AI-applikationer i det kommende år, og forventer, at den øgede proceskraft, tilbudt af deres GPU’er, vil fungere som en katalysator. Microsoft forventes at frigive Windows 12, en version af deres operativsystem, der fuldt ud kan udnytte AI-chips, hvilket yderligere fremskynder AI-udviklingen.

Derudover udforsker Nvidia aktivt forskellige AI-anvendelser. I samarbejde med Adobe bruger virksomheden deres nye chip til at generere billeder gennem Adobe Photoshops Firefly-generator og muliggøre baggrundsfjernelse under videokald. Desuden udvikler Nvidia også værktøjer, der giver spiludviklere mulighed for at inkorporere generativ AI, såsom dialoggenerering for ikke-spilbare karakterer, i deres titler.

Nvidias seneste chip-annonceringer demonstrerer deres intention om at konkurrere med Intel, AMD og Qualcomm inden for lokal AI, hvilket indikerer en ændring fra deres tidligere fokus på server-GPU’er. Dette skift stemmer overens med industrien, der udforsker mere effektive måder at implementere AI på, hvor “AI-pcer” udstyret med specialiserede komponenter til maskinlæring opstår som en potentiel løsning.

Ved at udvide kapaciteterne af deres forbruger-GPU’er og fremme lokale AI-modeller sammen med cloud-baserede løsninger sigter Nvidia mod at tilbyde fleksibilitet til AI-udviklere og brugere, så de kan vælge den mest passende tilgang til deres specifikke behov.

The source of the article is from the blog maestropasta.cz

Privacy policy
Contact