Lektion 2 von 6·10 Min Lesezeit

AI Transparency & Dokumentation

Transparenz ist nicht nur eine regulatorische Pflicht — sie ist eine Vertrauensbasis gegenüber Kunden, Mitarbeitern und Aufsichtsbehörden. OpenClaw automatisiert die Erstellung und Pflege der erforderlichen Transparenz-Dokumentation.

Transparency Reporting

Automatische Report-Generierung

OpenClaw generiert auf Knopfdruck regulatorisch konforme Berichte:

  • AI System Card — Steckbrief für jedes AI-System (analog zu Model Cards)
  • Decision Audit Report — Nachvollziehbarkeit aller Agent-Entscheidungen in einem Zeitraum
  • Risk Assessment Report — Aktuelle Risikobewertung mit Verlauf
  • Performance Report — Genauigkeit, Robustheit, Fehlerraten

AI System Card

Für jedes registrierte System erstellt OpenClaw eine strukturierte Übersicht:

AI System Card: Customer Support Agent v3.1
─────────────────────────────────────────────
Anbieter:           EverStrategy GmbH
Zweck:              Automatisierte Kundenberatung
Risikoklasse:       Limited Risk (Transparenzpflicht)
Modell:             GPT-4o via Azure OpenAI
Datenquellen:       Knowledge Base, CRM (anonymisiert)
Entscheidungstypen: Produktempfehlung, Ticket-Routing
Menschliche Aufsicht: Eskalation bei Confidence < 0.7
Letzte Aktualisierung: 2026-02-18

Decision Audit Trails

Jede Agent-Entscheidung wird mit einem vollständigen Audit Trail versehen:

FeldBeschreibungBeispiel
Trace IDEindeutige Kennungtr_a8f2e901
TimestampZeitpunkt der Entscheidung2026-02-18T14:23:01Z
AgentWelcher Agent hat entschiedensupport-agent-v3.1
InputEingabe (ggf. pseudonymisiert)"Ich brauche Hilfe mit..."
DecisionGetroffene Entscheidungticket_routing: billing
ReasoningBegründung der Entscheidung"Schlüsselwörter: Rechnung, Zahlung"
ConfidenceKonfidenz des Agents0.94
ModelVerwendetes Modellgpt-4o-2025-08-06
TokensVerbrauchte Tokens312 in / 89 out

Model Versioning Records

OpenClaw trackt jede Änderung am Agent-System:

  • Prompt-Versionen — Jede Änderung am System-Prompt wird versioniert
  • Modell-Wechsel — Wenn das zugrunde liegende LLM geändert wird
  • Tool-Änderungen — Neue Tools, geänderte Berechtigungen
  • Guardrail-Updates — Änderungen an Sicherheitsregeln
  • Konfigurationsänderungen — Temperature, Max Tokens, etc.

Diff-Ansicht

Für jede Version können Sie eine Diff-Ansicht aufrufen:

- system_prompt v2.3:
+ system_prompt v2.4:
  Du bist ein Kundenberater für EverStrategy.ai.
- Beantworte Fragen zu unseren Produkten.
+ Beantworte Fragen zu unseren Produkten und Services.
+ Verweise bei Billing-Fragen an das Finance-Team.
  Sei freundlich und professionell.

Explainability Logging

OpenClaw erfasst für jeden LLM-Call die Chain-of-Thought-Reasoning:

  • Reasoning Traces — Welche Überlegungen hat der Agent angestellt?
  • Tool Selection Rationale — Warum wurde ein bestimmtes Tool gewählt?
  • Confidence Scores — Wie sicher war der Agent bei seiner Entscheidung?
  • Alternative Decisions — Welche Alternativen wurden erwogen?

Praxis-Tipp: Aktivieren Sie Explainability Logging mindestens für alle High-Risk- und Limited-Risk-Agents. Bei einem Audit müssen Sie nachweisen können, warum ein Agent eine bestimmte Entscheidung getroffen hat — nicht nur was er entschieden hat.