Menschliche Kontrolle und Aufsicht
AI-Systeme sollen Menschen unterstützen, nicht ersetzen — besonders bei Entscheidungen mit hohem Impact. Der EU AI Act fordert für Hochrisiko-Anwendungen explizit „menschliche Aufsicht". Aber wie sieht das in der Praxis aus?
Human-in-the-Loop (HITL)
Das bekannteste Muster: Ein Mensch prüft und genehmigt jede AI-Entscheidung, bevor sie wirksam wird.
Einsatzgebiete:
- Kreditentscheidungen über bestimmten Schwellenwerten
- Medizinische Diagnosevorschläge
- Content-Moderation bei Grenzfällen
- Personalentscheidungen
Varianten:
- Human-in-the-Loop: Mensch entscheidet bei jeder Aktion
- Human-on-the-Loop: Mensch überwacht und greift bei Anomalien ein
- Human-over-the-Loop: Mensch definiert Regeln und Grenzen, AI agiert autonom
Guardrails — Technische Leitplanken
Guardrails sind programmierte Grenzen, die AI-Systeme nicht überschreiten dürfen:
Input-Guardrails
- Prompt-Injection-Erkennung
- Content-Filter für unangemessene Anfragen
- Rate-Limiting und Nutzerberechtigung
Output-Guardrails
- Faktenprüfung gegen vertrauenswürdige Quellen
- Toxizitäts-Filter
- Formatvalidierung und Schema-Checks
- Confidence-Schwellenwerte
Prozess-Guardrails
- Maximale Autonomie-Level pro Use Case
- Eskalationspfade bei Unsicherheit
- Audit-Logging aller Entscheidungen
Der Kill-Switch
Jedes produktive AI-System braucht einen Notausschalter:
| Ebene | Maßnahme | Reaktionszeit |
|---|
| Sofort | API-Key revoken, Endpoint deaktivieren | Sekunden |
| Schnell | Feature-Flag ausschalten | Minuten |
| Geplant | Modell-Version zurückrollen | Stunden |
Praxis-Framework für Aufsicht
- Klassifizieren: Risikostufe jedes AI-Use-Cases bestimmen (niedrig/mittel/hoch/kritisch)
- Aufsicht zuordnen: Höheres Risiko → mehr menschliche Kontrolle
- Eskalation definieren: Klare Pfade, wer bei Problemen entscheidet
- Testen: Regelmäßige „Was-wäre-wenn"-Übungen mit dem Team
Praxis-Tipp: Beginnen Sie mit Human-in-the-Loop und automatisieren Sie schrittweise. Es ist einfacher, Kontrolle zu lockern, als sie nachträglich einzubauen.