Transparenz und Erklärbarkeit
Wenn ein AI-System „Nein" sagt — Kreditantrag abgelehnt, Bewerbung aussortiert, Versicherungsfall abgewiesen — muss der Mensch verstehen können, warum. Das ist nicht nur ethisch geboten, sondern seit dem EU AI Act für Hochrisiko-Anwendungen gesetzlich verpflichtend.
Das Black-Box-Problem
Moderne Deep-Learning-Modelle haben Milliarden Parameter. Selbst ihre Entwickler können oft nicht genau erklären, warum ein Modell eine bestimmte Entscheidung trifft. Das erzeugt ein fundamentales Vertrauensproblem.
Zwei Dimensionen von Transparenz:
- Modell-Transparenz: Wie funktioniert das System intern?
- Entscheidungs-Transparenz: Warum wurde diese konkrete Entscheidung getroffen?
Explainable AI (XAI) — Methoden
Modell-agnostische Methoden
- SHAP (SHapley Additive exPlanations): Zeigt den Beitrag jedes Features zur Vorhersage. Basiert auf Spieltheorie.
- LIME (Local Interpretable Model-agnostic Explanations): Erstellt ein einfaches Erklärungsmodell für einzelne Vorhersagen.
- Counterfactual Explanations: „Wenn Sie 5.000 € mehr Einkommen hätten, wäre der Kredit bewilligt worden."
Modell-spezifische Methoden
- Attention Maps (Transformer): Welche Eingabe-Tokens beeinflussen die Ausgabe?
- Feature Importance (Gradient Boosting): Ranking der wichtigsten Variablen
- Decision Trees: Inhärent interpretierbar, aber weniger leistungsfähig
Transparenz-Stufen für Unternehmen
| Stufe | Maßnahme | Aufwand |
|---|
| Basis | Model Cards und Datenblätter veröffentlichen | Niedrig |
| Standard | Erklärungen pro Entscheidung bereitstellen | Mittel |
| Advanced | Interaktive Explanations für Endnutzer | Hoch |
Praxis-Empfehlungen
- Model Cards: Dokumentieren Sie für jedes Modell Zweck, Trainingsdaten, Limitierungen und Fairness-Metriken.
- Erklärbarkeit by Design: Wählen Sie das einfachste Modell, das die Aufgabe erfüllt. Nicht jede Aufgabe braucht ein LLM.
- Stakeholder-gerechte Erklärungen: Techniker brauchen SHAP-Werte, Kunden brauchen klare Sprache.
Praxis-Tipp: Starten Sie mit Model Cards (Google-Format). Sie zwingen Teams, über Limitierungen und Risiken nachzudenken, bevor ein Modell live geht.