Alle Artikel
2026-04-049 min

Anthropic sperrt Drittanbieter-Agenten: So läuft OpenClaw weiter ohne Unterbrechung

OpenClawAnthropicOllamaLocal LLMsModel SwitchingSelf-Hosting

Was gerade passiert ist

Wenn du heute aufgewacht bist und dein OpenClaw-Agent nicht mehr reagiert, bist du nicht allein.

Anthropic hat am 4. April 2026 eine stille Richtlinienänderung eingeführt: Claude-Abonnement-Konten können nicht mehr über Drittanbieter-Tools verwendet werden, die eine "unverhältnismäßig hohe Last" auf die API erzeugen. Die offizielle Begründung dreht sich um Infrastruktur-Belastung — wiederholte agentische Schleifen, automatisierte mehrstufige Aufrufe, zehnfacher Verbrauch im Vergleich zu einem typischen Abonnenten. Das praktische Ergebnis ist eindeutig: OpenClaw mit einem Claude-Abonnement befindet sich bestenfalls in einer Grauzone, für viele Nutzer ist es schlicht kaputt.

X kocht gerade über. Die Reaktionen reichen von "hab's erwartet" bis "ich steige heute auf alles um."

Die gute Nachricht: OpenClaw wurde genau für diesen Moment entwickelt. Das Gateway abstrahiert deinen Modellanbieter. Der Wechsel kostet dich 30 Minuten, nicht eine Woche Umschreiben.

---

Was tatsächlich gesperrt ist (und was nicht)

Zur genauen Einordnung der Änderung:

  • Gesperrt: Nutzung von Claude über ein Abonnement (claude.ai-Konto) durch Drittanbieter-Tools und API-Wrapper
  • Nicht gesperrt: Nutzung von Claude über die **direkte API** mit eigenem API-Key (nutzungsbasierte Abrechnung)
  • Nicht gesperrt: Nutzung eines anderen Modells — Ollama, Gemini, Mistral, Qwen, GPT-4o usw.
  • Wer OpenClaw mit einem Claude API-Key (nicht einem Abonnement) betreibt, ist möglicherweise vorerst nicht betroffen. Aber die Richtung ist klar. Viele nutzen dies als Anlass, vollständig auf lokale Modelle umzusteigen oder die Abhängigkeit von einem einzigen Anbieter zu reduzieren.

    ---

    Option 1: Wechsel zu Ollama (vollständig lokal, kostenlos)

    Das ist der beliebteste Schritt gerade. Mit einer Maschine mit ausreichend RAM (16 GB+) kannst du ein leistungsfähiges Modell lokal betreiben — ohne laufende Kosten.

    Schritt 1: Ollama installieren

    ```bash

    curl -fsSL https://ollama.ai/install.sh | sh

    ```

    Schritt 2: Modell herunterladen

    Für eine gute Balance aus Geschwindigkeit und Fähigkeit auf Consumer-Hardware:

    ```bash

    # Guter Allrounder, läuft auf 16 GB RAM

    ollama pull qwen2.5:14b

    # Kleiner, schneller — 8 GB RAM reichen

    ollama pull qwen2.5:7b

    # Für leistungsstarke Maschinen (32 GB+)

    ollama pull qwen2.5:32b

    ```

    Qwen 2.5 ist aktuell der Community-Favorit für agentische Aufgaben. Es folgt Anweisungen gut, versteht Code und funktioniert gut mit Tool-Calls.

    Schritt 3: OpenClaw-Konfiguration aktualisieren

    Öffne deine OpenClaw-Konfiguration (meist `~/.openclaw/config.yaml`):

    ```yaml

    model:

    default: ollama/qwen2.5:14b

    baseUrl: http://localhost:11434/v1

    ```

    OpenClaw neu starten:

    ```bash

    openclaw gateway restart

    ```

    Fertig. Dein Agent läuft jetzt 100% lokal, ohne API-Kosten, ohne Anthropic-Abhängigkeit.

    ---

    Option 2: Claude weiterhin über direkten API-Key nutzen

    Wer einen Claude API-Key (kein Abonnement) hat, kann ihn vorerst weiternutzen. Die Einschränkung betrifft gezielt Abonnement-Konten, die über Drittanbieter-Tools weitergeleitet werden.

    Aktuelle Konfiguration prüfen:

    ```bash

    grep -i anthropic ~/.openclaw/config.yaml

    grep -i claude ~/.openclaw/config.yaml

    ```

    Wenn ein API-Key konfiguriert ist (kein OAuth/Abonnement), bist du wahrscheinlich nicht betroffen. Behalte einfach dein API-Konsole-Dashboard im Blick.

    Um einen direkten API-Key hinzuzufügen:

    ```yaml

    model:

    default: anthropic/claude-sonnet-4-5

    apiKey: ${ANTHROPIC_API_KEY}

    ```

    Dann in `.env`:

    ```

    ANTHROPIC_API_KEY=sk-ant-api03-...

    ```

    ---

    Option 3: Google Gemini (großzügiges kostenloses Kontingent)

    Gemini 2.0 Flash hat ein überraschend gutes kostenloses Kontingent und bewältigt agentische Workloads gut. Für alle, die cloud-basiert bleiben, aber die Abhängigkeit von Anthropic reduzieren möchten:

    ```yaml

    model:

    default: google/gemini-2.0-flash

    apiKey: ${GOOGLE_API_KEY}

    ```

    API-Key gibt es auf [aistudio.google.com](https://aistudio.google.com). Das kostenlose Kontingent bietet 1 Million Tokens pro Tag für Flash — für die meisten persönlichen Agent-Setups mehr als genug.

    ---

    Option 4: OpenRouter (Multi-Anbieter-Fallback)

    OpenRouter ist ein Proxy, der Zugriff auf über 50 Modelle über eine einzige API bietet. Einmal Guthaben laden, und du kannst Modelle wechseln, ohne die Konfiguration anfassen zu müssen:

    ```yaml

    model:

    default: openrouter/anthropic/claude-sonnet-4-5

    baseUrl: https://openrouter.ai/api/v1

    apiKey: ${OPENROUTER_API_KEY}

    ```

    Der Vorteil: Wenn ein Anbieter ausfällt oder zu teuer wird, ändert man eine Zeile und ist auf einem anderen Modell. Keine Credential-Rotation, kein Gateway-Neustart.

    ---

    Mehrere Modelle pro Agent betreiben

    Ein unterschätztes OpenClaw-Feature: Verschiedene Modelle für verschiedene Agenten. Der Haupt-Orchestrator kann ein Modell nutzen, Sub-Agents günstigere Modelle für Ausführungsaufgaben.

    In der Agent-Konfiguration:

    ```yaml

    agents:

    - id: main

    model: ollama/qwen2.5:14b # lokal, kostenlos

    - id: coder

    model: google/gemini-flash # schnell, großzügiges Free-Tier

    - id: researcher

    model: openrouter/mistral/mistral-large # gut bei Synthese

    ```

    Das ist die Architektur, die gegen Ausfälle oder Richtlinienänderungen eines einzelnen Anbieters resilient ist. Als Anthropic diesen Schritt machte, haben Nutzer mit Multi-Anbieter-Setups es nicht einmal bemerkt.

    ---

    Skill-Kompatibilität

    Skills in OpenClaw sind modell-agnostisch. Sie sind nur Anweisungen und Tool-Definitionen — sie wissen nicht, welches LLM sie ausführt, und es ist ihnen egal.

    Das Einzige, worauf man achten muss: Tool-Calling-Unterstützung. Einige kleinere lokale Modelle verarbeiten Tool-Calls nicht zuverlässig. Die sichere Liste für agentische Aufgaben im April 2026:

    | Modell | Tool Calling | Hinweise |

    |--------|-------------|---------|

    | Qwen 2.5 (jede Größe) | ✅ Ausgezeichnet | Beste lokale Option |

    | Llama 3.3 70B | ✅ Gut | Braucht 40 GB RAM |

    | Gemini 2.0 Flash | ✅ Ausgezeichnet | Cloud, schnelles Free-Tier |

    | Mistral Large | ✅ Gut | Cloud, gut bei Reasoning |

    | Phi-4 | ⚠️ Inkonsistent | Besser für einfache Tasks |

    | Gemma 3 27B | ✅ Gut | Solide lokale Alternative |

    ---

    Die größere Lektion

    Genau deshalb ist selbst-gehostete, anbieter-agnostische Infrastruktur wichtig. OpenClaw bietet die Abstraktionsschicht, die die heutige Situation zu einer 30-Minuten-Konfigurationsänderung macht — statt zur Krise.

    Die Nutzer, die gerade am frustriertesten sind: diejenigen, die tief in Anthropic-spezifische Muster gegangen sind — hartkodierte Claude-Prompts, Annahmen über Claude-spezifisches Verhalten, Aufbau auf Abonnement-Konten statt API-Keys.

    Die Nutzer, die gerade mit den Schultern zucken: diejenigen, die lokale Modelle oder Multi-Anbieter-Setups betreiben. Das ist die Wette, auf die die OpenClaw-Architektur setzt — und sie sieht heute richtig aus.

    TL;DR: Anthropic hat Drittanbieter-Agenten-Abonnements gesperrt. Wer betroffen ist, wechselt zu Ollama + Qwen 2.5 für lokalen Betrieb oder Gemini Flash für ein großzügiges Cloud-Free-Tier. Beides funktioniert sofort mit OpenClaw. Skills und Memory-Dateien bleiben unberührt.

    Mehr erfahren?

    Unser Playbook enthält 18 detaillierte Kapitel — komplett auf Deutsch.

    Zum Playbook