Anthropic sperrt Drittanbieter-Agenten: So läuft OpenClaw weiter ohne Unterbrechung
Was gerade passiert ist
Wenn du heute aufgewacht bist und dein OpenClaw-Agent nicht mehr reagiert, bist du nicht allein.
Anthropic hat am 4. April 2026 eine stille Richtlinienänderung eingeführt: Claude-Abonnement-Konten können nicht mehr über Drittanbieter-Tools verwendet werden, die eine "unverhältnismäßig hohe Last" auf die API erzeugen. Die offizielle Begründung dreht sich um Infrastruktur-Belastung — wiederholte agentische Schleifen, automatisierte mehrstufige Aufrufe, zehnfacher Verbrauch im Vergleich zu einem typischen Abonnenten. Das praktische Ergebnis ist eindeutig: OpenClaw mit einem Claude-Abonnement befindet sich bestenfalls in einer Grauzone, für viele Nutzer ist es schlicht kaputt.
X kocht gerade über. Die Reaktionen reichen von "hab's erwartet" bis "ich steige heute auf alles um."
Die gute Nachricht: OpenClaw wurde genau für diesen Moment entwickelt. Das Gateway abstrahiert deinen Modellanbieter. Der Wechsel kostet dich 30 Minuten, nicht eine Woche Umschreiben.
---
Was tatsächlich gesperrt ist (und was nicht)
Zur genauen Einordnung der Änderung:
Wer OpenClaw mit einem Claude API-Key (nicht einem Abonnement) betreibt, ist möglicherweise vorerst nicht betroffen. Aber die Richtung ist klar. Viele nutzen dies als Anlass, vollständig auf lokale Modelle umzusteigen oder die Abhängigkeit von einem einzigen Anbieter zu reduzieren.
---
Option 1: Wechsel zu Ollama (vollständig lokal, kostenlos)
Das ist der beliebteste Schritt gerade. Mit einer Maschine mit ausreichend RAM (16 GB+) kannst du ein leistungsfähiges Modell lokal betreiben — ohne laufende Kosten.
Schritt 1: Ollama installieren
```bash
curl -fsSL https://ollama.ai/install.sh | sh
```
Schritt 2: Modell herunterladen
Für eine gute Balance aus Geschwindigkeit und Fähigkeit auf Consumer-Hardware:
```bash
# Guter Allrounder, läuft auf 16 GB RAM
ollama pull qwen2.5:14b
# Kleiner, schneller — 8 GB RAM reichen
ollama pull qwen2.5:7b
# Für leistungsstarke Maschinen (32 GB+)
ollama pull qwen2.5:32b
```
Qwen 2.5 ist aktuell der Community-Favorit für agentische Aufgaben. Es folgt Anweisungen gut, versteht Code und funktioniert gut mit Tool-Calls.
Schritt 3: OpenClaw-Konfiguration aktualisieren
Öffne deine OpenClaw-Konfiguration (meist `~/.openclaw/config.yaml`):
```yaml
model:
default: ollama/qwen2.5:14b
baseUrl: http://localhost:11434/v1
```
OpenClaw neu starten:
```bash
openclaw gateway restart
```
Fertig. Dein Agent läuft jetzt 100% lokal, ohne API-Kosten, ohne Anthropic-Abhängigkeit.
---
Option 2: Claude weiterhin über direkten API-Key nutzen
Wer einen Claude API-Key (kein Abonnement) hat, kann ihn vorerst weiternutzen. Die Einschränkung betrifft gezielt Abonnement-Konten, die über Drittanbieter-Tools weitergeleitet werden.
Aktuelle Konfiguration prüfen:
```bash
grep -i anthropic ~/.openclaw/config.yaml
grep -i claude ~/.openclaw/config.yaml
```
Wenn ein API-Key konfiguriert ist (kein OAuth/Abonnement), bist du wahrscheinlich nicht betroffen. Behalte einfach dein API-Konsole-Dashboard im Blick.
Um einen direkten API-Key hinzuzufügen:
```yaml
model:
default: anthropic/claude-sonnet-4-5
apiKey: ${ANTHROPIC_API_KEY}
```
Dann in `.env`:
```
ANTHROPIC_API_KEY=sk-ant-api03-...
```
---
Option 3: Google Gemini (großzügiges kostenloses Kontingent)
Gemini 2.0 Flash hat ein überraschend gutes kostenloses Kontingent und bewältigt agentische Workloads gut. Für alle, die cloud-basiert bleiben, aber die Abhängigkeit von Anthropic reduzieren möchten:
```yaml
model:
default: google/gemini-2.0-flash
apiKey: ${GOOGLE_API_KEY}
```
API-Key gibt es auf [aistudio.google.com](https://aistudio.google.com). Das kostenlose Kontingent bietet 1 Million Tokens pro Tag für Flash — für die meisten persönlichen Agent-Setups mehr als genug.
---
Option 4: OpenRouter (Multi-Anbieter-Fallback)
OpenRouter ist ein Proxy, der Zugriff auf über 50 Modelle über eine einzige API bietet. Einmal Guthaben laden, und du kannst Modelle wechseln, ohne die Konfiguration anfassen zu müssen:
```yaml
model:
default: openrouter/anthropic/claude-sonnet-4-5
baseUrl: https://openrouter.ai/api/v1
apiKey: ${OPENROUTER_API_KEY}
```
Der Vorteil: Wenn ein Anbieter ausfällt oder zu teuer wird, ändert man eine Zeile und ist auf einem anderen Modell. Keine Credential-Rotation, kein Gateway-Neustart.
---
Mehrere Modelle pro Agent betreiben
Ein unterschätztes OpenClaw-Feature: Verschiedene Modelle für verschiedene Agenten. Der Haupt-Orchestrator kann ein Modell nutzen, Sub-Agents günstigere Modelle für Ausführungsaufgaben.
In der Agent-Konfiguration:
```yaml
agents:
- id: main
model: ollama/qwen2.5:14b # lokal, kostenlos
- id: coder
model: google/gemini-flash # schnell, großzügiges Free-Tier
- id: researcher
model: openrouter/mistral/mistral-large # gut bei Synthese
```
Das ist die Architektur, die gegen Ausfälle oder Richtlinienänderungen eines einzelnen Anbieters resilient ist. Als Anthropic diesen Schritt machte, haben Nutzer mit Multi-Anbieter-Setups es nicht einmal bemerkt.
---
Skill-Kompatibilität
Skills in OpenClaw sind modell-agnostisch. Sie sind nur Anweisungen und Tool-Definitionen — sie wissen nicht, welches LLM sie ausführt, und es ist ihnen egal.
Das Einzige, worauf man achten muss: Tool-Calling-Unterstützung. Einige kleinere lokale Modelle verarbeiten Tool-Calls nicht zuverlässig. Die sichere Liste für agentische Aufgaben im April 2026:
| Modell | Tool Calling | Hinweise |
|--------|-------------|---------|
| Qwen 2.5 (jede Größe) | ✅ Ausgezeichnet | Beste lokale Option |
| Llama 3.3 70B | ✅ Gut | Braucht 40 GB RAM |
| Gemini 2.0 Flash | ✅ Ausgezeichnet | Cloud, schnelles Free-Tier |
| Mistral Large | ✅ Gut | Cloud, gut bei Reasoning |
| Phi-4 | ⚠️ Inkonsistent | Besser für einfache Tasks |
| Gemma 3 27B | ✅ Gut | Solide lokale Alternative |
---
Die größere Lektion
Genau deshalb ist selbst-gehostete, anbieter-agnostische Infrastruktur wichtig. OpenClaw bietet die Abstraktionsschicht, die die heutige Situation zu einer 30-Minuten-Konfigurationsänderung macht — statt zur Krise.
Die Nutzer, die gerade am frustriertesten sind: diejenigen, die tief in Anthropic-spezifische Muster gegangen sind — hartkodierte Claude-Prompts, Annahmen über Claude-spezifisches Verhalten, Aufbau auf Abonnement-Konten statt API-Keys.
Die Nutzer, die gerade mit den Schultern zucken: diejenigen, die lokale Modelle oder Multi-Anbieter-Setups betreiben. Das ist die Wette, auf die die OpenClaw-Architektur setzt — und sie sieht heute richtig aus.
TL;DR: Anthropic hat Drittanbieter-Agenten-Abonnements gesperrt. Wer betroffen ist, wechselt zu Ollama + Qwen 2.5 für lokalen Betrieb oder Gemini Flash für ein großzügiges Cloud-Free-Tier. Beides funktioniert sofort mit OpenClaw. Skills und Memory-Dateien bleiben unberührt.