Sådan installerer du DeepSeek på din egen server
Du har sikkert hørt om DeepSeek, den nye hurtige og billige AI, men vidste du at den også er OpenSource? Det betyder at du kan køre den lokalt fra en kraftig PC uden behov for internetadgang. I denne guide gennemgår vi, hvordan du sætter DeepSeek op via Ollama – en platform, der gør det nemt at køre AI-modeller lokalt.
Ønsker du blot at benytte DeepSeek til almindelig brug, anbefales det blot at du bruger deres App, eller hjemmeside. Det er ganske gratis og kræver ingen opsætning.
Hvad er Ollama?
Ollama er et open source-værktøj, der forenkler installation og kørsel af store sprogmodeller (LLM) på din egen hardware. Det understøtter flere AI-modeller, herunder DeepSeek, og kræver kun få kommandoer for at komme i gang.
Trin-for-trin guide til installation
Trin 1: Installer Ollama
Først skal du installere Ollama på din server eller lokale maskine. Åbn en terminal og indtast følgende kommandoer:
curl -fsSL https://ollama.com/install.sh | sh
sudo systemctl start ollama
sudo systemctl enable ollama
Dette henter og installerer Ollama og sætter det op som en baggrundstjeneste.
Trin 2: Hent DeepSeek-modellen
Når Ollama kører, kan du hente DeepSeek-modellen med en kommando. Nedenfor ses standardmodellen. Men du kan faktisk vælge mellem flere modeller, herunder: 7b, 13b, 33b. Alt efter hvilke krav samt hvor kraftig hardware du har til din AI opsætning.
ollama pull deepseek-ai/deepseek-coder
Hvad betyder 7b, 13b eller 33b?
Tallene refererer til antallet af parametre i modellen (f.eks. 7 milliarder = 7b). Mere betyder:
- 7b: Letvægtsmodel til basistasks (f.eks. simpel kode eller tekst). Kræver mindst hardware – fungerer på en alm. bærbar PC med 16GB RAM.
- 13b: Mere avanceret til komplekse spørgsmål. Kræver en stationær PC eller server med 32GB RAM og en GPU til hurtigere svar.
- 33b: Professionel model til kompleks logik og store datasæt. Kræver serverhardware med 64GB+ RAM og en kraftig GPU (f.eks. NVIDIA A100).
Brug kommandoen ollama pull deepseek-ai/deepseek-coder:7b
for at vælge en specifik version. Udelades “:7b”, henter den automatisk den nyeste version.
Trin 3: Kør DeepSeek lokalt
Start DeepSeek ved at indtaste:
ollama run deepseek
Du kan nu interagere med AI’en direkte i terminalen. Prøv at stille et spørgsmål som: “Hvordan laver jeg en Python-funktion til at beregne primtal?”
Trin 4: Brug DeepSeek via API (valgfrit)
Hvis du vil integrere DeepSeek i dine egne apps, kan du bruge Ollamas API:
curl http://localhost:11434/api/generate -d '{
"model": "deepseek",
"prompt": "Hvordan sorterer jeg en liste i Python?"
}'
Hardwarekrav
For at køre DeepSeek optimalt anbefales følgende minimumskrav:
- CPU: 8+ kerner (Intel i7/AMD Ryzen 7 eller bedre)
- RAM:
- 7b: 16GB
- 13b: 32GB
- 33b: 64GB+
- GPU: Valgfrit, men stærkt anbefalet: NVIDIA RTX 3090/4090 eller A100 med 8GB+ VRAM (især til 13b/33b)
- Lagring: 20GB+ ledig plads (33b kan kræve 100GB+)
- OS: Linux (Ubuntu 22.04+ anbefales) eller Windows via WSL2
Seneste kommentarer