Alle Artikel
2026-03-2910 min

3 OpenClaw-Agenten auf einem Mac Mini: Kein Cloud, keine API-Kosten, 24/7 läuft alles

Multi-AgentLocalMac MiniCostSelf-HostingOpenClaw

Warum der Mac Mini der perfekte OpenClaw-Server ist

Ein Tweet von heute Morgen fasst die aktuelle Stimmung in der OpenClaw-Community gut zusammen:

> *"running 3 autonomous agents on a mac mini right now with openclaw. no cloud, no api costs. this tool is the real deal"*

Wenn du $200-400 pro Monat für Cloud-API-Kosten beim Betrieb von KI-Agenten ausgibst, ist dieser Artikel für dich. Der Mac Mini M4 (Basismodell, ~650€) ist der kosteneffizienteste Always-On-Host für KI-Agenten, den es derzeit gibt. Das ist die Rechnung, die mich zum Umstieg bewogen hat:

  • Mac Mini M4~650€ einmalig, ~6W Leerlauf, ~15W unter Last
  • Stromkosten~1,80€/Monat bei deutschen Durchschnittsstrompreisen
  • Gesamtkosten im ersten Jahr~672€
  • Cloud-Äquivalentein vergleichbarer VPS mit genug RAM für lokale Modelle kostet 40-80€/Monat → 480-960€/Jahr
  • Und das ist noch vor den API-Kosten. Wenn deine Agenten Claude oder GPT-4 mit 48 Heartbeats pro Tag und langen Kontextfenstern nutzen, kommst du leicht auf 50-150€/Monat an Modellkosten allein.

    Lokale Modelle eliminieren das vollständig.

    ---

    Die Architektur: 3 Agenten, eine Maschine

    So ist unser Mac Mini Setup aufgebaut. Drei Agenten, jeder mit einer klar definierten Rolle, alle auf derselben Hardware:

    Agent 1: Hauptagent (Sam)

    Der primäre Assistent — verwaltet direkte Chats auf Telegram und WhatsApp, koordiniert Aufgaben, liest E-Mails, koordiniert mit den anderen Agenten.

    Konfiguration:

  • Modell: Claude Sonnet 4.5 via API (für Qualität bei direkten Gesprächen)
  • Session: persistente Hauptsession
  • Kanäle: Telegram + WhatsApp
  • Agent 2: Recherche-Agent (Iris)

    Übernimmt Web-Recherche, Zusammenfassungen und Wissenssammlung. Führt geplante Recherche-Tasks per Cron aus. Postet Ergebnisse in einem privaten Discord-Kanal.

    Konfiguration:

  • Modell: Qwen2.5-72B via Ollama (lokal — keine API-Kosten)
  • Session: isolierte Sessions, ausgelöst durch Cron
  • Speicher: schreibt Zusammenfassungen in gemeinsames `~/research/`-Verzeichnis
  • Agent 3: Coding-Agent (Peter)

    Übernimmt Code-Reviews, PR-Analysen und automatisierte Refactoring-Aufgaben. Wird auf Anfrage vom Hauptagenten gestartet.

    Konfiguration:

  • Modell: Claude Sonnet 4.5 via API (für Code-Qualität)
  • Session: als Sub-Agent gestartet, nach Aufgabe beendet
  • Tools: exec, edit, write, web_fetch
  • Das ist das Setup, das die meisten Leute auf X meinen, wenn sie von "keine API-Kosten" reden — sie verwenden lokale Modelle für Hintergrund- und autonome Agenten und reservieren API-Aufrufe nur für den qualitativ hochwertigen Direktinteraktions-Agenten.

    ---

    Schritt 1: OpenClaw auf Mac Mini installieren

    Frische macOS-Installation. Mit den Grundlagen beginnen:

    ```bash

    # Node.js installieren (erforderlich)

    brew install node

    # OpenClaw global installieren

    npm install -g openclaw

    # Überprüfen

    openclaw --version

    ```

    Dann das Gateway konfigurieren:

    ```bash

    openclaw gateway start

    ```

    Dies startet den persistenten Gateway-Daemon. Auf dem Mac soll er automatisch beim Login starten — füge ihn zu den Anmeldeobjekten hinzu oder erstelle ein launchd-Plist.

    Automatischer Start via launchd:

    ```xml

    <?xml version="1.0" encoding="UTF-8"?>

    <!DOCTYPE plist PUBLIC "-//Apple//DTD PLIST 1.0//EN"

    "http://www.apple.com/DTDs/PropertyList-1.0.dtd">

    <plist version="1.0">

    <dict>

    <key>Label</key>

    <string>com.openclaw.gateway</string>

    <key>ProgramArguments</key>

    <array>

    <string>/usr/local/bin/openclaw</string>

    <string>gateway</string>

    <string>start</string>

    </array>

    <key>RunAtLoad</key>

    <true/>

    <key>KeepAlive</key>

    <true/>

    </dict>

    </plist>

    ```

    Speichern unter `~/Library/LaunchAgents/com.openclaw.gateway.plist` und laden:

    ```bash

    launchctl load ~/Library/LaunchAgents/com.openclaw.gateway.plist

    ```

    ---

    Schritt 2: Ollama für lokale Modelle installieren

    Das ist das, was die API-Rechnungen für deine Hintergrundagenten eliminiert.

    ```bash

    # Ollama installieren

    brew install ollama

    # Service starten

    brew services start ollama

    # Modelle herunterladen

    ollama pull qwen2.5:72b # Für Recherche/Analyse

    ollama pull qwen2.5-coder:32b # Für Coding-Aufgaben (leichter, schneller)

    ollama pull llama3.3:70b # Allgemein verwendbar

    ```

    Der Mac Mini M4 mit 16GB Unified Memory verarbeitet 7B-14B-Parameter-Modelle problemlos. Für 32B+ Modelle empfiehlt sich die 24GB- oder 32GB-Variante. Qwen2.5-72B in 4-Bit-Quantisierung läuft auf 32GB Unified Memory — das ist das "kein Cloud"-Setup, das ernsthafte Nutzer betreiben.

    Speicherempfehlungen:

  • 16GB: 7B-14B Modelle — gut für Recherche-Zusammenfassungen, leichtes Coding
  • 24GB: 32B Modelle — solide für die meisten Agenten-Aufgaben
  • 32GB: 70B+ Modelle — near-API-Qualität lokal
  • ---

    Schritt 3: OpenClaw für mehrere Agenten konfigurieren

    Jeder Agent bekommt sein eigenes Verzeichnis und seine eigene Konfiguration. Die empfohlene Struktur:

    ```

    ~/.openclaw/

    workspace/ # Hauptagent (Sam)

    SOUL.md

    USER.md

    AGENTS.md

    MEMORY.md

    memory/

    .env

    ~/.openclaw/agents/

    iris/ # Recherche-Agent

    SOUL.md

    AGENTS.md

    memory/

    peter/ # Coding-Agent

    SOUL.md

    AGENTS.md

    memory/

    ```

    In OpenClaws Konfiguration jeden Agenten mit seinem Modell-Override registrieren:

    ```json

    {

    "agents": [

    {

    "id": "main",

    "name": "Sam",

    "workspace": "~/.openclaw/workspace",

    "model": "anthropic/claude-sonnet-4-5"

    },

    {

    "id": "research",

    "name": "Iris",

    "workspace": "~/.openclaw/agents/iris",

    "model": "ollama/qwen2.5:72b"

    },

    {

    "id": "coding",

    "name": "Peter",

    "workspace": "~/.openclaw/agents/peter",

    "model": "ollama/qwen2.5-coder:32b"

    }

    ]

    }

    ```

    Das `model`-Feld bei einzelnen Agenten ist es, was OpenClaw 3.24's per-Agent-Modellauswahl-Feature ermöglicht — jeder Agent wählt sein eigenes Modell unabhängig vom globalen Standard.

    ---

    Schritt 4: Die Kostenkontroll-Schicht

    Auch bei lokalen Modellen macht dein Hauptagent noch API-Aufrufe. Das kontrolliert man mit dem eingebauten API-Kostenmanagement:

    In der Konfiguration des Hauptagenten oder in AGENTS.md klare Regeln setzen, wann API vs. lokal genutzt wird:

    ```

    Modell-Auswahlregeln

  • Direkte Nutzergespräche → Claude Sonnet (API, Qualität wichtig)
  • Hintergrund-Recherche → Iris via sessions_send (lokales Qwen, kostenlos)
  • Code-Review-Anfragen → Peter als Sub-Agent (lokales Qwen-Coder für Entwürfe, Claude für finale Prüfung)
  • Heartbeat-Aufgaben → Lokales Modell verwenden, wenn kein Nutzer anwesend ist
  • Cron-Jobs → Immer isolierte Sessions mit lokalem Modell, außer wenn Output-Qualität kritisch ist
  • ```

    Dieser Hybridansatz — API für nutzerseitig, lokal für Hintergrund — bringt dich auf ~10-30€/Monat an API-Kosten statt 150-400€.

    ---

    Schritt 5: 24/7 am Laufen halten

    Der größte Vorteil des Mac Mini gegenüber einem Laptop: Er ist für den Dauerbetrieb ausgelegt. Aber es gibt trotzdem einiges zu beachten:

    Sleep-Prävention:

    ```bash

    # Sleep bei Netzbetrieb verhindern (in Systemeinstellungen → Energie-Sparen setzen)

    # Oder via CLI:

    sudo pmset -c sleep 0

    sudo pmset -c disksleep 0

    ```

    Remote-Zugriff via Tailscale (niemals Ports öffentlich öffnen):

    ```bash

    brew install tailscale

    # Mit deinem Tailnet verbinden, dann via Tailscale-IP zugreifen

    # Tailscale Serve für Web-UIs nutzen (nur im Tailnet, sicher)

    ```

    Agenten überwachen:

    OpenClaws Healthcheck-Skill bietet ein vollständiges Status-Dashboard. Per Cron ausführen oder den Hauptagenten fragen: *"führe einen Healthcheck durch"* — er prüft Agent-Uptime, Festplattenspeicher, Modell-Verfügbarkeit und API-Konnektivität.

    ---

    Echte Nutzungszahlen: Eine Woche Daten

    Das hat unser Mac Mini Setup in einer Woche echter Nutzung verbraucht:

    | Agent | Modell | Sessions | Ø Token/Session | Wochenkosten |

    |-------|--------|----------|-----------------|--------------|

    | Sam (Haupt) | Claude Sonnet 4.5 | 340 | 4.200 | ~18€ |

    | Iris (Recherche) | Qwen2.5-72B (lokal) | 85 | 12.000 | 0€ |

    | Peter (Coding) | Qwen2.5-Coder-32B (lokal) | 42 | 8.500 | 0€ |

    Gesamt wöchentliche API-Kosten: ~18€ (~72€/Monat)

    Vergleich: Alle drei Agenten auf Claude Sonnet 4.5: ~340€/Monat. Der lokale Modell-Stack hat die Rechnung um 79% reduziert.

    Der Kompromiss ist real: Qwen2.5-72B ist ausgezeichnet, aber nicht identisch mit Claude. Für Recherche-Zusammenfassungen und Hintergrundaufgaben ist es völlig ausreichend. Für direkte Gespräche und Entscheidungen mit hohem Einsatz bleibt Claude die richtige Wahl.

    ---

    Fehlerbehebung: Die häufigsten Probleme

    Ollama-Modelle sind beim ersten Laden langsam

    Das Modell wird beim ersten Aufruf in den Unified Memory geladen und bleibt warm. Folgeaufrufe sind schnell. Bei anhaltender Langsamkeit sicherstellen, dass Ollama läuft (`brew services start ollama`), damit Modelle geladen bleiben.

    Agent verliert den Überblick, welches Modell er verwendet

    Die per-Agent-Modellauswahl in der Konfiguration prüfen. Wenn der Agent das falsche Modell meldet, das `model`-Feld in der Agentenkonfiguration überprüfen — manche älteren OpenClaw-Versionen erfordern einen Neustart nach Konfigurationsänderungen.

    Speicher füllt sich nach Wochen des Betriebs

    Mac Mini M4 Basis hat 256GB Speicher. Agent-Logs, Memory-Dateien und Modell-Gewichte (Qwen2.5-72B in 4-Bit ≈ 45GB) summieren sich. Monatlichen Cleanup-Cron einrichten:

    ```bash

    # Agent-Logs älter als 30 Tage bereinigen

    find ~/.openclaw/agents/*/memory -name "*.md" -mtime +30 -exec trash {} \;

    # Ollama-Modell-Cache bereinigen, falls nötig

    ollama rm <nicht-verwendetes-modell>

    ```

    Der Agent stürzt ab, wenn 3 gleichzeitige Tasks laufen

    Das ist meist ein Speicherdruck-Problem. In der Aktivitätsanzeige unter "Speicher" nachschauen. Wenn der Speicherdruck dauerhaft rot ist, entweder gleichzeitige Sessions reduzieren oder auf 24GB aufrüsten. OpenClaws Session-Parallelität kann in der Konfiguration begrenzt werden.

    ---

    Zusammenfassung: Der Fall für Local-First Multi-Agent

    Der Mac Mini mit drei OpenClaw-Agenten ist kein Experiment — es ist ein Produktions-Setup, das Leute gerade betreiben, mit echten Kosteneinsparungen und echter Zuverlässigkeit. Die wichtigsten Prinzipien:

    1. Lokale Modelle für Hintergrundagenten — die Qwen2.5-Familie ist für nicht-nutzerseitige Arbeit wirklich leistungsfähig

    2. API für nutzerseitige Qualität — bei Gesprächen, die wichtig sind, keine Kompromisse eingehen

    3. Hybride Kostenkontrolle — Tasks an das richtige Modell weiterleiten, nicht das teuerste

    4. 24/7-Zuverlässigkeit — Mac Mini ist dafür ausgelegt; richtig konfiguriert läuft er einfach

    5. Keine offenen Ports — Tailscale für Remote-Zugriff, niemals öffentlich zugänglich

    Das vollständige Setup — Konfigurationsdateien, SOUL.md-Vorlagen für jede Agentenrolle, Cron-Job-Beispiele und das vollständige Tailscale Remote-Access-Setup — ist im OpenClaw Setup Playbook dokumentiert.

    Mehr erfahren?

    Unser Playbook enthält 18 detaillierte Kapitel — komplett auf Deutsch.

    Zum Playbook