Finanzunternehmen und Finanzabteilungen unterliegen strengen Regulierungen. AI-Einsatz im Finanzbereich ist kein rechtsfreier Raum — BaFin, MaRisk, DORA und der EU AI Act setzen klare Leitplanken.
BaFin-Anforderungen
Aufsichtliche Erwartungen an AI
Die Bundesanstalt für Finanzdienstleistungsaufsicht (BaFin) hat 2025 ihre Guidance zu AI aktualisiert:
Modell-Governance: Jedes AI-Modell braucht einen verantwortlichen Model Owner
Validierung: Unabhängige Validierung vor Produktiveinsatz und regelmäßig danach
Dokumentation: Vollständige Dokumentation von Daten, Methodik, Annahmen und Limitationen
Erklärbarkeit: Bei kundenrelevanten Entscheidungen muss die AI-Logik nachvollziehbar sein
Outsourcing: Cloud-basierte AI-Services unterliegen den Outsourcing-Anforderungen
Meldepflichten
Wesentliche Auslagerungen an AI-Provider müssen der BaFin gemeldet werden
Model Risk Events (AI-Modell liefert fehlerhafte Ergebnisse mit materieller Auswirkung) sind meldepflichtig
Incident Reporting bei AI-bezogenen IT-Sicherheitsvorfällen
MaRisk und DORA
MaRisk (Mindestanforderungen an das Risikomanagement)
MaRisk regelt das Risikomanagement von Banken und Finanzdienstleistern:
AT 7.2 — Technisch-organisatorische Ausstattung: AI-Systeme müssen den Anforderungen an IT-Systeme entsprechen
AT 4.3.2 — Risikosteuerungs- und -controllingprozesse: AI-Modelle im Risikomanagement brauchen besondere Kontrollen
Regelmäßige Model Performance Reviews (mindestens quartalsweise)
Fazit: Regulatorik ist kein Innovationshemmnis — sie ist eine Qualitätssicherung. Wer AI-Governance von Anfang an richtig aufbaut, spart sich spätere teure Nachbesserungen und Bußgelder.