Rohdaten allein helfen nicht — Sie brauchen actionable Metriken und intelligentes Alerting, das Sie benachrichtigt, bevor aus einem Trend ein Problem wird. OpenClaw bietet dafür ein vierstufiges System.
# openclaw-alerts.yml
alerts:
- name: high-latency
metric: p95_latency
threshold: 5000ms
window: 5m
severity: warning
channels: [slack, email]
- name: error-spike
metric: error_rate
threshold: 5%
window: 10m
severity: critical
channels: [slack, pagerduty]
- name: cost-overrun
metric: daily_cost
threshold: 500 EUR
window: 24h
severity: warning
channels: [email]
- name: alignment-drift
metric: alignment_score
threshold: "<0.85"
window: 1h
severity: critical
channels: [slack, pagerduty, email]
| Channel | Use Case | Latenz |
|---|---|---|
| Slack | Team-Benachrichtigungen | Sekunden |
| Management-Reports, Summaries | Minuten | |
| PagerDuty | Critical Alerts, On-Call | Sekunden |
| Webhook | Custom-Integrationen | Sekunden |
| Microsoft Teams | Enterprise-Umgebungen | Sekunden |
Über die SDK können Sie eigene Metriken tracken:
oc.metric("customer_sentiment", value=0.82, tags={"agent": "support-v2"})
oc.metric("retrieval_relevance", value=0.91, tags={"index": "knowledge-base"})
oc.metric("compliance_check_passed", value=1, tags={"check": "pii-scan"})
OpenClaw unterstützt mehrstufige Eskalation:
Best Practice: Beginnen Sie mit lockeren Thresholds und verschärfen Sie diese schrittweise. Zu viele Alerts führen zu Alert Fatigue — dann werden auch kritische Warnungen ignoriert.