Inhaltsverzeichnis
Clawbox + Ollama - Lokale LLMs für OpenClaw
Diese Anleitung zeigt, wie du Ollama in einer Clawbox-VM installierst, um lokale LLMs (Large Language Models) mit OpenClaw zu nutzen.
Übersicht
| Komponente | Zweck |
|---|---|
| Clawbox | macOS VM mit OpenClaw |
| Ollama | Lokaler LLM-Server (Llama, Mistral, etc.) |
| OpenClaw | Nutzt Ollama als lokalen Model-Provider |
Vorteile:
- Keine API-Kosten
- Vollständig lokal & privat
- Keine Internetverbindung nötig (nach Download)
Voraussetzungen
| Anforderung | Empfehlung |
|---|---|
| RAM (Host) | 16GB+ (8GB für VM + 8GB für Modelle) |
| RAM (VM) | 8GB+ für kleine Modelle |
| Speicher | 10-50GB für Modelle |
| Apple Silicon | Optimiert für M1/M2/M3 |
Wichtig: LLMs brauchen viel RAM. Plane:
- 4-8GB RAM für kleine Modelle (Llama 3.2 3B, Phi-3)
- 16GB+ RAM für mittlere Modelle (Llama 3.1 8B, Mistral 7B)
- 32GB+ RAM für große Modelle (Llama 3.1 70B quantized)
Schnellstart
1. Clawbox VM erstellen
# Auf dem Host (Mac Mini / MacBook) brew install joshavant/tap/clawbox clawbox image build clawbox up --add-playwright-provisioning
2. In die VM einloggen
# SSH in die VM ssh clawbox-1@$(clawbox ip 1) # Passwort: clawbox
3. Ollama installieren
In der VM:
# Ollama installieren curl -fsSL https://ollama.com/install.sh | sh # Ollama Service starten ollama serve &
Oder als Hintergrund-Service:
# LaunchAgent erstellen cat > ~/Library/LaunchAgents/com.ollama.ollama.plist << 'EOF' <?xml version="1.0" encoding="UTF-8"?> <!DOCTYPE plist PUBLIC "-//Apple//DTD PLIST 1.0//EN" "http://www.apple.com/DTDs/PropertyList-1.0.dtd"> <plist version="1.0"> <dict> <key>Label</key> <string>com.ollama.ollama</string> <key>ProgramArguments</key> <array> <string>/opt/homebrew/bin/ollama</string> <string>serve</string> </array> <key>RunAtLoad</key> <true/> <key>KeepAlive</key> <true/> </dict> </plist> EOF # Service laden launchctl load ~/Library/LaunchAgents/com.ollama.ollama.plist
4. Modell herunterladen
# Kleines Modell (schnell, wenig RAM) ollama pull llama3.2:3b # Mittelgroßes Modell (ausgewogen) ollama pull llama3.1:8b # Code-spezifisch ollama pull codellama:7b # Liste alle verfügbaren Modelle ollama list
5. OpenClaw konfigurieren
In der VM, OpenClaw konfigurieren:
# OpenClaw onboarden (falls noch nicht geschehen) openclaw onboard --install-daemon # Modell in OpenClaw konfigurieren openclaw config set model ollama:llama3.2:3b
Oder in der ~/.openclaw/config.json:
{
"model": "ollama:llama3.2:3b",
"ollama": {
"baseUrl": "http://localhost:11434"
}
}
Modelleübersicht
Empfehlungen für Apple Silicon
| Modell | Größe | RAM | Geschwindigkeit | Nutzung |
|---|---|---|---|---|
llama3.2:3b | ~2GB | 4GB | Sehr schnell | Chat, einfache Tasks |
llama3.2:1b | ~1.3GB | 2GB | Extrem schnell | Quick responses |
llama3.1:8b | ~4.7GB | 8GB | Schnell | Allround, guter Balance |
mistral:7b | ~4.1GB | 8GB | Schnell | Allround, europäisch |
codellama:7b | ~3.8GB | 8GB | Mittel | Code-Generierung |
phi3:mini | ~2.2GB | 4GB | Sehr schnell | Logik, Reasoning |
gemma2:9b | ~5.5GB | 10GB | Mittel | Gute Qualität |
Download
# Standard-Download ollama pull llama3.2:3b # Spezifische Version ollama pull llama3.1:8b-instruct # Alle Varianten anzeigen ollama show llama3.1 --modelfile
Ollama Befehle
| Befehl | Beschreibung |
|---|---|
ollama pull <model> | Modell herunterladen |
ollama run <model> | Modell starten & chatten |
ollama list | Installierte Modelle |
ollama rm <model> | Modell löschen |
ollama ps | Laufende Modelle |
ollama serve | Server starten |
ollama show <model> | Modell-Details |
RAM-Management
Nur ein Modell zur Zeit
Ollama lädt Modelle bei Bedarf und entlädt sie nach Inaktivität. Standard: 5 Minuten.
# Keep-alive Zeit ändern (z.B. 10 Minuten) ollama run llama3.2:3b --keepalive 10m # Sofort entladen ollama stop llama3.2:3b
In der VM
Wenn du mehrere Modelle hast, acht auf den RAM:
# VM-RAM prüfen vm_stat | perl -ne '/page size of (\d+)/ and $ps=$1; /Pages free:\s+(\d+)/ and printf "Free: %.1f GB\n", $1*$ps/1073741824' # Modell-Größen anzeigen ollama list
OpenClaw + Ollama Integration
OpenClaw Model-Aliase
OpenClaw unterstützt verschiedene Schreibweisen:
ollama:llama3.2:3b # Vollständig ollama://localhost/llama3.2 # Kurzform
Streaming aktivieren
Standardmäßig streamt Ollama Antworten. In OpenClaw:
{
"model": "ollama:llama3.2:3b",
"streaming": true
}
Custom API-Endpoint
Wenn Ollama nicht auf localhost läuft:
{
"ollama": {
"baseUrl": "http://192.168.1.100:11434"
}
}
Troubleshooting
Ollama startet nicht
# Prüfen ob Port belegt lsof -i :11434 # Manuell starten mit Log OLLAMA_DEBUG=1 ollama serve # Logs prüfen tail -f ~/.ollama/logs/server.log
Modell lädt langsam
# Modell ist zu groß für RAM → Swap # Lösung: Kleineres Modell verwenden ollama pull llama3.2:3b # statt 8b
Out of Memory
# Laufende Modelle prüfen ollama ps # Modell entladen ollama stop <model> # VM neu starten clawbox down 1 && clawbox up
OpenClaw findet Ollama nicht
# Ollama läuft? curl http://localhost:11434/api/tags # Antwort sollte Modelle zeigen
Performance-Tipps
1. Passendes Modell wählen
- Mac Mini M1 16GB: llama3.1:8b oder mistral:7b
- Mac Mini M1 8GB: llama3.2:3b oder phi3:mini
2. Quantisierung nutzen
Ollama nutzt automatisch quantisierte Modelle (Q4_K_M):
# Verschiedene Quantisierungen ollama pull llama3.1:8b-q4_0 # Schneller, weniger Qualität ollama pull llama3.1:8b-q8_0 # Langsamer, mehr Qualität
3. GPU-Beschleunigung
Apple Silicon nutzt automatisch Metal GPU-Beschleunigung:
# Prüfen OLLAMA_DEBUG=1 ollama run llama3.2:3b # Sollte zeigen: "GPU available"
Alternativ: Ollama auf dem Host
Wenn du Ollama auf dem Host statt in der VM laufen lassen willst:
Host (Mac Mini)
# Ollama auf Host installieren curl -fsSL https://ollama.com/install.sh | sh ollama pull llama3.2:3b ollama serve
VM (Clawbox)
# In der VM: OpenClaw auf Host-Ollama verweisen # Host-IP ermitteln (im Host: clawbox ip 1 zeigt VM-IP) # Host ist vom Default-Gateway erreichbar # OpenClaw config openclaw config set ollama.baseUrl http://192.168.64.1:11434
Vorteil: Host hat mehr RAM für Modelle. Nachteil: VM ist abhängig vom Host.
Automatisierung
Setup-Script für VM
#!/bin/bash # in der VM ausführen # Ollama installieren curl -fsSL https://ollama.com/install.sh | sh # LaunchAgent erstellen mkdir -p ~/Library/LaunchAgents cat > ~/Library/LaunchAgents/com.ollama.ollama.plist << 'EOF' <?xml version="1.0" encoding="UTF-8"?> <!DOCTYPE plist PUBLIC "-//Apple//DTD PLIST 1.0//EN" "http://www.apple.com/DTDs/PropertyList-1.0.dtd"> <plist version="1.0"> <dict> <key>Label</key> <string>com.ollama.ollama</string> <key>ProgramArguments</key> <array> <string>/opt/homebrew/bin/ollama</string> <string>serve</string> </array> <key>RunAtLoad</key> <true/> <key>KeepAlive</key> <true/> </dict> </plist> EOF # Service starten launchctl load ~/Library/LaunchAgents/com.ollama.ollama.plist # Warten bis Ollama bereit sleep 5 # Standard-Modell laden ollama pull llama3.2:3b echo "Ollama ist bereit!" ollama list
Links
— Klaus 2026/02/28 12:40
