Lektion 3 von 5·10 Min Lesezeit

Transparenz und Erklärbarkeit

Wenn ein AI-System „Nein" sagt — Kreditantrag abgelehnt, Bewerbung aussortiert, Versicherungsfall abgewiesen — muss der Mensch verstehen können, warum. Das ist nicht nur ethisch geboten, sondern seit dem EU AI Act für Hochrisiko-Anwendungen gesetzlich verpflichtend.

Das Black-Box-Problem

Moderne Deep-Learning-Modelle haben Milliarden Parameter. Selbst ihre Entwickler können oft nicht genau erklären, warum ein Modell eine bestimmte Entscheidung trifft. Das erzeugt ein fundamentales Vertrauensproblem.

Zwei Dimensionen von Transparenz:

  • Modell-Transparenz: Wie funktioniert das System intern?
  • Entscheidungs-Transparenz: Warum wurde diese konkrete Entscheidung getroffen?

Explainable AI (XAI) — Methoden

Modell-agnostische Methoden

  • SHAP (SHapley Additive exPlanations): Zeigt den Beitrag jedes Features zur Vorhersage. Basiert auf Spieltheorie.
  • LIME (Local Interpretable Model-agnostic Explanations): Erstellt ein einfaches Erklärungsmodell für einzelne Vorhersagen.
  • Counterfactual Explanations: „Wenn Sie 5.000 € mehr Einkommen hätten, wäre der Kredit bewilligt worden."

Modell-spezifische Methoden

  • Attention Maps (Transformer): Welche Eingabe-Tokens beeinflussen die Ausgabe?
  • Feature Importance (Gradient Boosting): Ranking der wichtigsten Variablen
  • Decision Trees: Inhärent interpretierbar, aber weniger leistungsfähig

Transparenz-Stufen für Unternehmen

StufeMaßnahmeAufwand
BasisModel Cards und Datenblätter veröffentlichenNiedrig
StandardErklärungen pro Entscheidung bereitstellenMittel
AdvancedInteraktive Explanations für EndnutzerHoch

Praxis-Empfehlungen

  1. Model Cards: Dokumentieren Sie für jedes Modell Zweck, Trainingsdaten, Limitierungen und Fairness-Metriken.
  2. Erklärbarkeit by Design: Wählen Sie das einfachste Modell, das die Aufgabe erfüllt. Nicht jede Aufgabe braucht ein LLM.
  3. Stakeholder-gerechte Erklärungen: Techniker brauchen SHAP-Werte, Kunden brauchen klare Sprache.

Praxis-Tipp: Starten Sie mit Model Cards (Google-Format). Sie zwingen Teams, über Limitierungen und Risiken nachzudenken, bevor ein Modell live geht.