Lektion 5 von 6·6 Min Lesezeit

Risiken und Grenzen von AI ⚠️

AI ist mächtig, aber nicht unfehlbar. Wer die Risiken kennt, kann sie aktiv managen. Wer sie ignoriert, riskiert nicht nur Geld, sondern auch Vertrauen, Reputation und rechtliche Konsequenzen. Diese Lektion macht Sie fit für einen verantwortungsvollen AI-Einsatz.


🎯 Was Sie in dieser Lektion lernen

  • Die vier größten AI-Risiken und konkrete Gegenmaßnahmen
  • Was AI wirklich nicht kann — Erwartung vs. Realität
  • Die wichtigsten Punkte des EU AI Act
  • Wie Sie AI-Governance in Ihrem Unternehmen aufsetzen

Die vier größten Risiken 🚨

1. Halluzinationen 🫧

LLMs wie GPT-5 oder Claude Opus 4.6 generieren manchmal plausibel klingende, aber komplett erfundene Informationen. Das Modell „erfindet" Fakten, Quellen, Statistiken oder sogar Gesetze — mit absoluter Überzeugung.

RisikoAuswirkungGegenmaßnahme
Falsche FaktenFehlerhafte Berichte, falsche BeratungFakten manuell prüfen
Erfundene QuellenVertrauensverlust, HaftungRAG einsetzen (Retrieval-Augmented Generation)
Falsche ZahlenFinanzielle FehlentscheidungenBerechnungen separat verifizieren

📖 Definition: Retrieval-Augmented Generation (RAG) verknüpft ein LLM mit einer Wissensdatenbank. Das Modell generiert Antworten basierend auf verifizierten Dokumenten statt nur auf Trainingsdaten — das reduziert Halluzinationen drastisch.

2. Bias (Voreingenommenheit) 🎭

AI-Modelle lernen aus Trainingsdaten — und übernehmen deren Vorurteile. Ein HR-Tool könnte systematisch bestimmte Bewerbergruppen benachteiligen. Ein Kreditscoring-Modell könnte bestimmte Postleitzahlen diskriminieren.

  • Gegenmaßnahme: Diverse Trainingsdaten, regelmäßige Bias-Audits, transparente Dokumentation der Modellentscheidungen

3. Sicherheitsrisiken 🔐

  • Prompt Injection: Angreifer schleusen manipulative Anweisungen in AI-Eingaben ein, um unerwünschte Aktionen auszulösen
  • Datenlecks: Vertrauliche Informationen, die in Prompts eingegeben werden, können über Modell-Outputs offengelegt werden
  • Gegenmaßnahmen: Input-Validierung, Sandboxing, strikte Trennung von vertraulichen Daten, keine Firmendaten in öffentliche Modelle eingeben

⚠️ Achtung: Geben Sie niemals Passwörter, Kundendaten oder vertrauliche Geschäftsinformationen in öffentlich zugängliche AI-Tools ein. Nutzen Sie Enterprise-Versionen mit Datenschutzgarantien.

4. Datenschutz & Compliance 📋

  • DSGVO: Personenbezogene Daten dürfen nur mit Rechtsgrundlage verarbeitet werden. Prüfen Sie, welche Daten an AI-Anbieter fließen.
  • EU AI Act: Seit 2025 in Kraft. Klassifiziert AI-Systeme nach Risikostufen (minimal, begrenzt, hoch, inakzeptabel). Hochrisiko-Systeme (HR, Kreditvergabe) brauchen umfangreiche Dokumentation und Audits.
  • Auftragsverarbeitung: Schließen Sie AVVs (Auftragsverarbeitungsverträge) mit allen AI-Anbietern ab.

🔑 Merke: Compliance ist kein Hindernis, sondern ein Qualitätsmerkmal. Unternehmen, die AI verantwortungsvoll einsetzen, bauen langfristiges Vertrauen auf.


Erwartung vs. Realität 🪞

ErwartungRealität
AI ersetzt Mitarbeiter komplettAI ergänzt und unterstützt — menschliche Aufsicht bleibt essentiell
Funktioniert sofort perfektBraucht Tuning, Iteration und kontinuierliche Optimierung
Ist immer günstigerKann bei falscher Anwendung teurer sein als manuelle Prozesse
Versteht wirklichErkennt Muster, hat aber kein echtes Verständnis oder Bewusstsein
Ist objektiv und neutralÜbernimmt Biases aus Trainingsdaten
Wird immer besser von alleinBraucht aktives Monitoring und regelmäßige Anpassungen

AI-Governance aufsetzen 🏛️

Jedes Unternehmen, das AI einsetzt, braucht klare Spielregeln:

  1. AI-Nutzungsrichtlinie — Wer darf welche AI-Tools nutzen, für welche Aufgaben, mit welchen Daten?
  2. AI-Register — Dokumentieren Sie alle AI-Systeme im Einsatz (Pflicht bei Hochrisiko-Systemen nach EU AI Act)
  3. Qualitätskontrolle — Definieren Sie, wie AI-Outputs geprüft werden (4-Augen-Prinzip, Stichproben, automatische Tests)
  4. Eskalationsprozess — Was passiert, wenn AI fehlerhaft arbeitet? Wer entscheidet über Abschaltung?
  5. Schulungsprogramm — Mitarbeiter müssen AI-Risiken kennen und kompetent mit den Tools umgehen

🏢 Praxis-Beispiel: Ein Finanzdienstleister hat ein „AI Board" eingerichtet — ein interdisziplinäres Team aus IT, Recht, Compliance und Fachabteilung, das jeden neuen AI-Einsatz vor Go-Live freigibt. Ergebnis: Null Compliance-Verstöße im ersten Jahr.


📋 Zusammenfassung

  • Die vier Hauptrisiken: Halluzinationen, Bias, Sicherheitslücken, Compliance
  • RAG reduziert Halluzinationen, Bias-Audits verhindern Diskriminierung
  • Der EU AI Act schafft klare Regeln — Hochrisiko-Systeme brauchen Dokumentation
  • AI-Governance mit Nutzungsrichtlinie, Register und Qualitätskontrolle ist Pflicht
  • Vertrauliche Daten gehören nie in öffentliche AI-Tools

🎯 Übung: Erstellen Sie eine einfache AI-Nutzungsrichtlinie für Ihr Team: Welche Tools sind erlaubt? Welche Daten dürfen eingegeben werden? Wer prüft die Ergebnisse?


Nächste Lektion: Ihr erster AI-Pilot — in vier Schritten vom Konzept zur Umsetzung.