Samarbete mellan Databricks och NVIDIA för att förbättra data- och AI-arbetsbelastningar

Databricks, det ledande företaget inom data och AI, har nyligen meddelat ett utökat samarbete och åtagande om djupare tekniska integrationer med NVIDIA under företagets flaggskeppskonferens GTC 2024. Tillsammans strävar Databricks och NVIDIA efter att optimera data- och AI-arbetsbelastningar på Databricks Data Intelligence Platform.

Detta samarbete bygger på NVIDIAs engagemang i Databricks Series I-finansieringsrunda och visar deras gemensamma vision för att främja Databricks arbetsbelastningar med NVIDIA-accelererad beräkning och mjukvara. Målet är att skapa mervärde för kunder och ge dem förbättrade insikter och resultat med förbättrad effektivitet.

Genom att utnyttja NVIDIAs accelererade beräkningsförmåga kan Databricks accelerera datahanteringen och därigenom leverera större värde till organisationer. Detta samarbete mellan Databricks och NVIDIA möjliggör för företag att påskynda sin AI-utveckling och implementering.

Det centrala fokuset för samarbetet ligger inom området generativa AI-lösningar. Databricks Data Intelligence Platform har redan blivit brett adopterad av organisationer för att bygga och anpassa generativa AI-modeller baserade på sina egna data och specifika affärsbehov. Genom samarbetet mellan Databricks Mosaic AI och NVIDIA arbetar båda företagen tillsammans för att driva fram utvecklingen av att bygga och distribuera generativa AI-modeller på Databricks plattform.

Det är viktigt att notera att Databricks använder NVIDIA H100 Tensor Core GPU:er för träning av generativa AI-modeller. Dessa GPU:er är specifikt optimerade för utveckling av stora språkmodeller. Denna kombination av Databricks plattform och NVIDIAs accelererade beräkningsförmåga ger kunderna en effektiv och skalbar lösning för att anpassa språkmodeller.

När det gäller modellimplementering använder Databricks NVIDIAs accelererade beräkning och mjukvara genom hela stacken. En viktig mjukvarukomponent som används av Databricks Mosaic AI Model Serving är NVIDIAs TensorRT-LLM-mjukvara. Denna mjukvara säkerställer optimal prestanda, kostnadseffektivitet, skalbarhet och total effektivitet av lösningen.

Dessutom planerar Databricks att integrera nativt stöd för NVIDIAs accelererade beräkning i sin nästa generations vektoriserade frågemotor som kallas Photon. Denna integration syftar till att förbättra frågeprestanda och göra datawarehousing samt analysarbetsbelastningar mer strömlinjeformade och effektiva för kunderna.

Databricks erbjuder också betydande stöd för maskininlärning (ML) och djupinlärningsarbetsbelastningar. Deras plattform inkluderar förbyggd djupinlärningsinfrastruktur med NVIDIAs GPU:er, och Databricks Runtime for ML erbjuder förkonfigurerat GPU-stöd. Detta gör att användare snabbt kan komma igång med NVIDIAs infrastruktur och upprätthålla enhetlighet över ML-miljön. Databricks stöder NVIDIAs Tensor Core GPU:er på alla tre stora molnleverantörer, vilket möjliggör högpresterande ennod- och distribuerade träningar för ML-arbetsbelastningar.

I framtiden strävar Databricks och NVIDIA efter att ytterligare stärka organisationer för att skapa sina nästa generationers data- och AI-applikationer med kvalitet, hastighet och smidighet med hjälp av Data Intelligence Platform.

FAQ

1. Vad är Databricks?
Databricks är ett ledande företag inom data och AI som erbjuder Data Intelligence Platform. Det gör det möjligt för organisationer att förena och demokratisera sina data-, analys- och AI-förmågor.

2. Vad är NVIDIA?
NVIDIA är ett erkänt teknologiföretag som är specialiserat på accelererad beräkning. Det tillhandahåller GPU:er och mjukvarulösningar som signifikant förbättrar prestandan för AI och andra dataintensiva arbetsbelastningar.

Källor:
Databricks webbplats
NVIDIA webbplats

The source of the article is from the blog smartphonemagazine.nl

Privacy policy
Contact