GPU-instanser i molnet - Hyr Nvidia L4

Kraftfull prestanda för AI träning AI inferens, rendering, högintensiva beräkningar och multimedia.

Kör avancerade arbetslaster direkt i molnet – utan att köpa och drifta egen hårdvara. Våra GPU-instanser är byggda för företag, utvecklare och kreatörer som kräver hög prestanda, låg latency och full kontroll.

Varför Hexabyte GPU?

Modern hårdvara – Nvidia L4 (PCIe Gen 4) med 24 GB GDDR6 och energieffektiv Ada Lovelace-arkitektur.

Flexibla instanser – Skala upp eller ner efter behov.

Lokal infrastruktur – Låga svarstider inom EU, servrar placerade i Umeå, Sverige.

Transparent prissättning – Även mest prestanda för pengarna.

Passar perfekt för

NVIDIA L4

24GB GDDR6

Massivt grafikminne för stora modeller och dataset.

PCIe Gen 4 Passthrough

Full kontroll över hela GPU:n, ingen delning med andra kunder.

Upp till 30,3 TFLOPS FP32

Rå beräkningskraft för AI och rendering.

AI-optimerad Ada Lovelace-arkitektur

Specialiserad för AI inferens, AI träning och videoprocessing.

Energieffektiv prestanda

2,5x bättre prestanda per watt jämfört med tidigare generationer.

Låga svarstider inom EU

Serverhall i Umeå, Sverige.

Prisexempel Nvidia L4 GPU-instanser

L4-familjen består av GPU-servrar med Nvidia L4 GPUer, AMD EPYC 7713 CPUer, DDR4 RAM och high-IOPS lokala NVMe-diskar i RAID.

l4.gpu1

€0.36
/ timme
eller
€238.82
/ månad

l4.gpu2

€0.39
/ timme
eller
€261.36
/ månad

l4.gpu3

€0.44
/ timme
eller
€294.45
/ månad

l4.dual-gpu

€0.97
/ timme
eller
€653.36
/ månad
Räknat på 672 timmar per månad. Vid en hel månads användning på samma instans överstiger kostnaden inte det fasta månadspriset.

Egna publika IP-adresser

1st IPv4-adress och 1st IPv6-adress ingår per instans.

Förnybar el

Våra servrar drivs av el från Umeå Energi som levererar förnybar el. Under 2022 bestod energin av 72% vattenkraft, 10% vindkraft, 16% biokraft och 2% solenergi, läs mer på Umeå Energis hemsida.

NVMe SSD istället för hårddiskar

Vi vet att våra kunder prioriterar hastighet, därför sker all datalagring på NVMe SSD av enterprisemodeller. Snabbare och mer strömsnåla! All data replikeras på tre olika diskar.

Vi är vår egen internetleverantör

Internet till våra tjänster levereras av oss via vårt egna AS-nummer. Stabil och säker uppkoppling - Utan trafikbegränsning!

FAQ

En GPU-instans i molnet är en virtuell maskin hos en molnleverantör med en GPU (grafikkort) monterad till virtuella maskinen. GPUn kan vara antingen delad vGPU eller en hel GPU via PCIe-passthrough. 

En vanlig VPS med CPU är bra för generella applikationer, men vissa arbetslaster kräver den parallella processkraften i en GPU. Med en GPU-instans kan du:

  • Träna och köra AI- och ML-modeller betydligt snabbare
  • Rendera grafik och 3D i realtid
  • Köra videotranscoding i stor skala
  • Dra nytta av CUDA, TensorRT och andra NVIDIA-optimerade bibliotek
    Kort sagt: CPU för generellt arbete, GPU för accelererad beräkning.

Alla våra GPU-instanser kommer med dedikerad NVMe-lagring lokalt i servern. Denna disk används som scratchdisk eller primär lagring och levererar extremt hög IOPS och låg latens, jämfört med traditionell nätverkslagring. För arbetslaster som AI-träning, databearbetning och videobearbetning innebär det att du får mycket snabbare åtkomst till data.

Vi erbjuder flexibel fakturering per timme där du endast betalar för den tid din instans är igång. För kunder som vill ha långsiktig drift visar vi även max månadspris. Debitering av inlagt betalkort sker automatiskt och det finns inga bindningstider – du kan starta och stoppa dina GPU-instanser när du vill.

Företag kan ansöka om faktura som betalsätt genom att skicka in ett supportärende i cloud-plattformen.

Du får full root-åtkomst till din GPU-instans och kan installera egna drivrutiner, bibliotek och programvaror. Det innebär att du kan sätta upp allt från Docker-containers med PyTorch/TensorFlow till fulla virtuella arbetsstationer (vWS) med t.ex. Remote Desktop eller NICE DCV.

Supporten hanteras via tickets direkt i vårt cloud-system, och du kan skriva på både svenska och engelska. Våra tekniker finns i Sverige och hjälper dig med driftrelaterade frågor, instanshantering och felsökning.

Nej. Alla våra GPU-planer inkluderar bara dedikerade NVIDIA L4-GPUer, anslutna via PCIe-passthrough. Det betyder att du inte delar GPU-resurser med andra kunder – till skillnad från vissa molnleverantörer som erbjuder “delad vGPU” med lägre prestanda. Hos oss är prestandan förutsägbar och garanterad.

Absolut. NVIDIA L4 är utmärkt för både AI-inferens och modellträning. Kortet har stöd för FP32, FP16 och INT8, vilket gör det effektivt för både träning och optimerad inferens. Du kan använda populära ramverk som TensorFlow, PyTorch och JAX utan problem.

Vi använder cookies.