GPU-instanser i molnet - Hyr Nvidia L4
Kraftfull prestanda för AI träning AI inferens, rendering, högintensiva beräkningar och multimedia.
Kör avancerade arbetslaster direkt i molnet – utan att köpa och drifta egen hårdvara. Våra GPU-instanser är byggda för företag, utvecklare och kreatörer som kräver hög prestanda, låg latency och full kontroll.
- Servrar & datalagring i EU (Umeå, Sverige)
- Fakturering per timme
- Prisvärt
Varför Hexabyte GPU?
Modern hårdvara – Nvidia L4 (PCIe Gen 4) med 24 GB GDDR6 och energieffektiv Ada Lovelace-arkitektur.
Flexibla instanser – Skala upp eller ner efter behov.
Lokal infrastruktur – Låga svarstider inom EU, servrar placerade i Umeå, Sverige.
Transparent prissättning – Även mest prestanda för pengarna.
Passar perfekt för
- AI & Machine Learning – AI träning, AI inferens och databehandling.
- Rendering & Video – Stable Diffusion, 3D-rendrering, videokodning och realtidsstreaming.
- Högpresterande beräkningar – Finansmodeller, simuleringar och forskningsprojekt.
- Virtuella arbetsstationer – CAD, GIS och andra GPU-tunga applikationer.
NVIDIA L4
24GB GDDR6
Massivt grafikminne för stora modeller och dataset.
PCIe Gen 4 Passthrough
Full kontroll över hela GPU:n, ingen delning med andra kunder.
Upp till 30,3 TFLOPS FP32
Rå beräkningskraft för AI och rendering.
AI-optimerad Ada Lovelace-arkitektur
Specialiserad för AI inferens, AI träning och videoprocessing.
Energieffektiv prestanda
2,5x bättre prestanda per watt jämfört med tidigare generationer.
Låga svarstider inom EU
Serverhall i Umeå, Sverige.
Prisexempel Nvidia L4 GPU-instanser
L4-familjen består av GPU-servrar med Nvidia L4 GPUer, AMD EPYC 7713 CPUer, DDR4 RAM och high-IOPS lokala NVMe-diskar i RAID.
l4.gpu1
- 1x Nvidia L4 GPU
- 4 vCPU
- 16 GB RAM
- 100 GB NVMe Storage
l4.gpu2
- 1x Nvidia L4 GPU
- 8 vCPU
- 32 GB RAM
- 500 GB Storage
l4.gpu3
- 1x Nvidia L4 GPU
- 16 vCPU
- 64 GB RAM
- 1 TB Storage
l4.dual-gpu
- 2x Nvidia L4 GPU
- 32 vCPU
- 128 GB RAM
- 2.5 TB Storage
Egna publika IP-adresser
1st IPv4-adress och 1st IPv6-adress ingår per instans.
Förnybar el
Våra servrar drivs av el från Umeå Energi som levererar förnybar el. Under 2022 bestod energin av 72% vattenkraft, 10% vindkraft, 16% biokraft och 2% solenergi, läs mer på Umeå Energis hemsida.
NVMe SSD istället för hårddiskar
Vi vet att våra kunder prioriterar hastighet, därför sker all datalagring på NVMe SSD av enterprisemodeller. Snabbare och mer strömsnåla! All data replikeras på tre olika diskar.
Vi är vår egen internetleverantör
Internet till våra tjänster levereras av oss via vårt egna AS-nummer. Stabil och säker uppkoppling - Utan trafikbegränsning!
FAQ
En GPU-instans i molnet är en virtuell maskin hos en molnleverantör med en GPU (grafikkort) monterad till virtuella maskinen. GPUn kan vara antingen delad vGPU eller en hel GPU via PCIe-passthrough.
En vanlig VPS med CPU är bra för generella applikationer, men vissa arbetslaster kräver den parallella processkraften i en GPU. Med en GPU-instans kan du:
- Träna och köra AI- och ML-modeller betydligt snabbare
- Rendera grafik och 3D i realtid
- Köra videotranscoding i stor skala
- Dra nytta av CUDA, TensorRT och andra NVIDIA-optimerade bibliotek
Kort sagt: CPU för generellt arbete, GPU för accelererad beräkning.
Alla våra GPU-instanser kommer med dedikerad NVMe-lagring lokalt i servern. Denna disk används som scratchdisk eller primär lagring och levererar extremt hög IOPS och låg latens, jämfört med traditionell nätverkslagring. För arbetslaster som AI-träning, databearbetning och videobearbetning innebär det att du får mycket snabbare åtkomst till data.
Vi erbjuder flexibel fakturering per timme där du endast betalar för den tid din instans är igång. För kunder som vill ha långsiktig drift visar vi även max månadspris. Debitering av inlagt betalkort sker automatiskt och det finns inga bindningstider – du kan starta och stoppa dina GPU-instanser när du vill.
Företag kan ansöka om faktura som betalsätt genom att skicka in ett supportärende i cloud-plattformen.
Du får full root-åtkomst till din GPU-instans och kan installera egna drivrutiner, bibliotek och programvaror. Det innebär att du kan sätta upp allt från Docker-containers med PyTorch/TensorFlow till fulla virtuella arbetsstationer (vWS) med t.ex. Remote Desktop eller NICE DCV.
Supporten hanteras via tickets direkt i vårt cloud-system, och du kan skriva på både svenska och engelska. Våra tekniker finns i Sverige och hjälper dig med driftrelaterade frågor, instanshantering och felsökning.
Nej. Alla våra GPU-planer inkluderar bara dedikerade NVIDIA L4-GPUer, anslutna via PCIe-passthrough. Det betyder att du inte delar GPU-resurser med andra kunder – till skillnad från vissa molnleverantörer som erbjuder “delad vGPU” med lägre prestanda. Hos oss är prestandan förutsägbar och garanterad.
Absolut. NVIDIA L4 är utmärkt för både AI-inferens och modellträning. Kortet har stöd för FP32, FP16 och INT8, vilket gör det effektivt för både träning och optimerad inferens. Du kan använda populära ramverk som TensorFlow, PyTorch och JAX utan problem.