3 OpenClaw-Agenten auf einem Mac Mini: Kein Cloud, keine API-Kosten, 24/7 läuft alles
Warum der Mac Mini der perfekte OpenClaw-Server ist
Ein Tweet von heute Morgen fasst die aktuelle Stimmung in der OpenClaw-Community gut zusammen:
> *"running 3 autonomous agents on a mac mini right now with openclaw. no cloud, no api costs. this tool is the real deal"*
Wenn du $200-400 pro Monat für Cloud-API-Kosten beim Betrieb von KI-Agenten ausgibst, ist dieser Artikel für dich. Der Mac Mini M4 (Basismodell, ~650€) ist der kosteneffizienteste Always-On-Host für KI-Agenten, den es derzeit gibt. Das ist die Rechnung, die mich zum Umstieg bewogen hat:
Und das ist noch vor den API-Kosten. Wenn deine Agenten Claude oder GPT-4 mit 48 Heartbeats pro Tag und langen Kontextfenstern nutzen, kommst du leicht auf 50-150€/Monat an Modellkosten allein.
Lokale Modelle eliminieren das vollständig.
---
Die Architektur: 3 Agenten, eine Maschine
So ist unser Mac Mini Setup aufgebaut. Drei Agenten, jeder mit einer klar definierten Rolle, alle auf derselben Hardware:
Agent 1: Hauptagent (Sam)
Der primäre Assistent — verwaltet direkte Chats auf Telegram und WhatsApp, koordiniert Aufgaben, liest E-Mails, koordiniert mit den anderen Agenten.
Konfiguration:
Agent 2: Recherche-Agent (Iris)
Übernimmt Web-Recherche, Zusammenfassungen und Wissenssammlung. Führt geplante Recherche-Tasks per Cron aus. Postet Ergebnisse in einem privaten Discord-Kanal.
Konfiguration:
Agent 3: Coding-Agent (Peter)
Übernimmt Code-Reviews, PR-Analysen und automatisierte Refactoring-Aufgaben. Wird auf Anfrage vom Hauptagenten gestartet.
Konfiguration:
Das ist das Setup, das die meisten Leute auf X meinen, wenn sie von "keine API-Kosten" reden — sie verwenden lokale Modelle für Hintergrund- und autonome Agenten und reservieren API-Aufrufe nur für den qualitativ hochwertigen Direktinteraktions-Agenten.
---
Schritt 1: OpenClaw auf Mac Mini installieren
Frische macOS-Installation. Mit den Grundlagen beginnen:
```bash
# Node.js installieren (erforderlich)
brew install node
# OpenClaw global installieren
npm install -g openclaw
# Überprüfen
openclaw --version
```
Dann das Gateway konfigurieren:
```bash
openclaw gateway start
```
Dies startet den persistenten Gateway-Daemon. Auf dem Mac soll er automatisch beim Login starten — füge ihn zu den Anmeldeobjekten hinzu oder erstelle ein launchd-Plist.
Automatischer Start via launchd:
```xml
<?xml version="1.0" encoding="UTF-8"?>
<!DOCTYPE plist PUBLIC "-//Apple//DTD PLIST 1.0//EN"
"http://www.apple.com/DTDs/PropertyList-1.0.dtd">
<plist version="1.0">
<dict>
<key>Label</key>
<string>com.openclaw.gateway</string>
<key>ProgramArguments</key>
<array>
<string>/usr/local/bin/openclaw</string>
<string>gateway</string>
<string>start</string>
</array>
<key>RunAtLoad</key>
<true/>
<key>KeepAlive</key>
<true/>
</dict>
</plist>
```
Speichern unter `~/Library/LaunchAgents/com.openclaw.gateway.plist` und laden:
```bash
launchctl load ~/Library/LaunchAgents/com.openclaw.gateway.plist
```
---
Schritt 2: Ollama für lokale Modelle installieren
Das ist das, was die API-Rechnungen für deine Hintergrundagenten eliminiert.
```bash
# Ollama installieren
brew install ollama
# Service starten
brew services start ollama
# Modelle herunterladen
ollama pull qwen2.5:72b # Für Recherche/Analyse
ollama pull qwen2.5-coder:32b # Für Coding-Aufgaben (leichter, schneller)
ollama pull llama3.3:70b # Allgemein verwendbar
```
Der Mac Mini M4 mit 16GB Unified Memory verarbeitet 7B-14B-Parameter-Modelle problemlos. Für 32B+ Modelle empfiehlt sich die 24GB- oder 32GB-Variante. Qwen2.5-72B in 4-Bit-Quantisierung läuft auf 32GB Unified Memory — das ist das "kein Cloud"-Setup, das ernsthafte Nutzer betreiben.
Speicherempfehlungen:
---
Schritt 3: OpenClaw für mehrere Agenten konfigurieren
Jeder Agent bekommt sein eigenes Verzeichnis und seine eigene Konfiguration. Die empfohlene Struktur:
```
~/.openclaw/
workspace/ # Hauptagent (Sam)
SOUL.md
USER.md
AGENTS.md
MEMORY.md
memory/
.env
~/.openclaw/agents/
iris/ # Recherche-Agent
SOUL.md
AGENTS.md
memory/
peter/ # Coding-Agent
SOUL.md
AGENTS.md
memory/
```
In OpenClaws Konfiguration jeden Agenten mit seinem Modell-Override registrieren:
```json
{
"agents": [
{
"id": "main",
"name": "Sam",
"workspace": "~/.openclaw/workspace",
"model": "anthropic/claude-sonnet-4-5"
},
{
"id": "research",
"name": "Iris",
"workspace": "~/.openclaw/agents/iris",
"model": "ollama/qwen2.5:72b"
},
{
"id": "coding",
"name": "Peter",
"workspace": "~/.openclaw/agents/peter",
"model": "ollama/qwen2.5-coder:32b"
}
]
}
```
Das `model`-Feld bei einzelnen Agenten ist es, was OpenClaw 3.24's per-Agent-Modellauswahl-Feature ermöglicht — jeder Agent wählt sein eigenes Modell unabhängig vom globalen Standard.
---
Schritt 4: Die Kostenkontroll-Schicht
Auch bei lokalen Modellen macht dein Hauptagent noch API-Aufrufe. Das kontrolliert man mit dem eingebauten API-Kostenmanagement:
In der Konfiguration des Hauptagenten oder in AGENTS.md klare Regeln setzen, wann API vs. lokal genutzt wird:
```
Modell-Auswahlregeln
```
Dieser Hybridansatz — API für nutzerseitig, lokal für Hintergrund — bringt dich auf ~10-30€/Monat an API-Kosten statt 150-400€.
---
Schritt 5: 24/7 am Laufen halten
Der größte Vorteil des Mac Mini gegenüber einem Laptop: Er ist für den Dauerbetrieb ausgelegt. Aber es gibt trotzdem einiges zu beachten:
Sleep-Prävention:
```bash
# Sleep bei Netzbetrieb verhindern (in Systemeinstellungen → Energie-Sparen setzen)
# Oder via CLI:
sudo pmset -c sleep 0
sudo pmset -c disksleep 0
```
Remote-Zugriff via Tailscale (niemals Ports öffentlich öffnen):
```bash
brew install tailscale
# Mit deinem Tailnet verbinden, dann via Tailscale-IP zugreifen
# Tailscale Serve für Web-UIs nutzen (nur im Tailnet, sicher)
```
Agenten überwachen:
OpenClaws Healthcheck-Skill bietet ein vollständiges Status-Dashboard. Per Cron ausführen oder den Hauptagenten fragen: *"führe einen Healthcheck durch"* — er prüft Agent-Uptime, Festplattenspeicher, Modell-Verfügbarkeit und API-Konnektivität.
---
Echte Nutzungszahlen: Eine Woche Daten
Das hat unser Mac Mini Setup in einer Woche echter Nutzung verbraucht:
| Agent | Modell | Sessions | Ø Token/Session | Wochenkosten |
|-------|--------|----------|-----------------|--------------|
| Sam (Haupt) | Claude Sonnet 4.5 | 340 | 4.200 | ~18€ |
| Iris (Recherche) | Qwen2.5-72B (lokal) | 85 | 12.000 | 0€ |
| Peter (Coding) | Qwen2.5-Coder-32B (lokal) | 42 | 8.500 | 0€ |
Gesamt wöchentliche API-Kosten: ~18€ (~72€/Monat)
Vergleich: Alle drei Agenten auf Claude Sonnet 4.5: ~340€/Monat. Der lokale Modell-Stack hat die Rechnung um 79% reduziert.
Der Kompromiss ist real: Qwen2.5-72B ist ausgezeichnet, aber nicht identisch mit Claude. Für Recherche-Zusammenfassungen und Hintergrundaufgaben ist es völlig ausreichend. Für direkte Gespräche und Entscheidungen mit hohem Einsatz bleibt Claude die richtige Wahl.
---
Fehlerbehebung: Die häufigsten Probleme
Ollama-Modelle sind beim ersten Laden langsam
Das Modell wird beim ersten Aufruf in den Unified Memory geladen und bleibt warm. Folgeaufrufe sind schnell. Bei anhaltender Langsamkeit sicherstellen, dass Ollama läuft (`brew services start ollama`), damit Modelle geladen bleiben.
Agent verliert den Überblick, welches Modell er verwendet
Die per-Agent-Modellauswahl in der Konfiguration prüfen. Wenn der Agent das falsche Modell meldet, das `model`-Feld in der Agentenkonfiguration überprüfen — manche älteren OpenClaw-Versionen erfordern einen Neustart nach Konfigurationsänderungen.
Speicher füllt sich nach Wochen des Betriebs
Mac Mini M4 Basis hat 256GB Speicher. Agent-Logs, Memory-Dateien und Modell-Gewichte (Qwen2.5-72B in 4-Bit ≈ 45GB) summieren sich. Monatlichen Cleanup-Cron einrichten:
```bash
# Agent-Logs älter als 30 Tage bereinigen
find ~/.openclaw/agents/*/memory -name "*.md" -mtime +30 -exec trash {} \;
# Ollama-Modell-Cache bereinigen, falls nötig
ollama rm <nicht-verwendetes-modell>
```
Der Agent stürzt ab, wenn 3 gleichzeitige Tasks laufen
Das ist meist ein Speicherdruck-Problem. In der Aktivitätsanzeige unter "Speicher" nachschauen. Wenn der Speicherdruck dauerhaft rot ist, entweder gleichzeitige Sessions reduzieren oder auf 24GB aufrüsten. OpenClaws Session-Parallelität kann in der Konfiguration begrenzt werden.
---
Zusammenfassung: Der Fall für Local-First Multi-Agent
Der Mac Mini mit drei OpenClaw-Agenten ist kein Experiment — es ist ein Produktions-Setup, das Leute gerade betreiben, mit echten Kosteneinsparungen und echter Zuverlässigkeit. Die wichtigsten Prinzipien:
1. Lokale Modelle für Hintergrundagenten — die Qwen2.5-Familie ist für nicht-nutzerseitige Arbeit wirklich leistungsfähig
2. API für nutzerseitige Qualität — bei Gesprächen, die wichtig sind, keine Kompromisse eingehen
3. Hybride Kostenkontrolle — Tasks an das richtige Modell weiterleiten, nicht das teuerste
4. 24/7-Zuverlässigkeit — Mac Mini ist dafür ausgelegt; richtig konfiguriert läuft er einfach
5. Keine offenen Ports — Tailscale für Remote-Zugriff, niemals öffentlich zugänglich
Das vollständige Setup — Konfigurationsdateien, SOUL.md-Vorlagen für jede Agentenrolle, Cron-Job-Beispiele und das vollständige Tailscale Remote-Access-Setup — ist im OpenClaw Setup Playbook dokumentiert.