Denne dedikerte AI-serveren er bygget for stabil og forutsigbar drift av moderne AI-løsninger. Med AMD EPYC 16 kjerner, 64 GB RAM, NVMe RAID1 og NVIDIA L4 GPU får du en energieffektiv plattform for AI-inferens, web-tjenester og utvikling – med drift, backup og strøm inkludert til fast pris.
Serveren kan leveres ferdig satt opp for både utvikling og produksjon.
I stedet for å utvikle via eksterne API-er, tunneler, porter og tokens, jobber applikasjonene direkte på samme server.
Det gir mindre kompleksitet, høyere sikkerhet og langt raskere utvikling.
Bruksområder
Denne løsningen passer spesielt godt for:
- Lokal eller privat AI-drift (uten delt sky)
- LLM-baserte tjenester (LLaMA, OpenAI-kompatible APIer)
- AI-inferens med høy ytelse per watt
- Web- og API-tjenester med lav responstid
- Native, docker, containere og virtualisering
- Prosjekter som krever forutsigbare kostnader
- Rask og effektiv læring kun på deres egne prosjekter/dokumenter
Spesifikasjon
- CPU: AMD EPYC – 16 kjerner / 32 tråder (boost opptil 5.4 GHz)
- RAM: 64 GB (opsjon 192 GB RAM)
- Lagring: 2× NVMe SSD i RAID1
- GPU: NVIDIA L4 (24 GB VRAM, optimal for AI-inferens)
- Nettverk: Tilpasset produksjonsbruk
NVIDIA L4 – kort forklart
NVIDIA L4 er utviklet spesifikt for AI-inferens og kontinuerlig drift, og gir svært høy ytelse per watt. Den egner seg godt til både språkmodeller, bilde-AI og API-baserte tjenester i produksjon.
Drift og sikkerhet
Inkludert i prisen:
- Drift og overvåkning
- Backup av system og data
- Sikker nettverkskonfigurasjon
- Stabil infrastruktur for kontinuerlig bruk
- Optimalisering opp mot deres ønsket bruk
- Klikk her for eksempel teknisk struktur på serveren.
Pris
8 500 kr per måned for 64 GB varianten – alt inkludert (eks. mva)
Fast pris uten skjulte kostnader. Prisen forutsetter 24 måneder binding.