Die Integration von Large Language Models (LLMs) in Geschäftsprozesse eröffnet neue Angriffsvektoren, die klassische IT-Security nicht abdeckt. Wer LLMs in der Produktion betreibt, muss die Bedrohungslandschaft verstehen — und sie ist 2026 erheblich komplexer als noch vor zwei Jahren.
Die OWASP Foundation hat die Top 10 Sicherheitsrisiken für LLM-Anwendungen definiert — ein Muss für jedes Security-Team:
| Rang | Risiko | Beschreibung |
|---|---|---|
| 1 | Prompt Injection | Manipulation des Modellverhaltens durch bösartige Eingaben |
| 2 | Insecure Output Handling | Ungefilterte Modellausgaben führen zu XSS, SSRF, Code Execution |
| 3 | Training Data Poisoning | Manipulierte Trainingsdaten kompromittieren das Modellverhalten |
| 4 | Model Denial of Service | Überlastung durch ressourcenintensive Prompts |
| 5 | Supply Chain Vulnerabilities | Kompromittierte Modelle, Plugins oder Datenpipelines |
| 6 | Sensitive Information Disclosure | Das Modell gibt vertrauliche Trainingsdaten preis |
| 7 | Insecure Plugin Design | Unsichere Tool-Aufrufe und API-Integrationen |
| 8 | Excessive Agency | Zu viele Berechtigungen für autonome AI-Agenten |
| 9 | Overreliance | Blindes Vertrauen in Modellausgaben ohne Validierung |
| 10 | Model Theft | Extraktion von Modellgewichten oder proprietärem Wissen |
Der Angreifer gibt direkt bösartige Instruktionen in das Eingabefeld ein:
Der Angriff kommt nicht vom Nutzer, sondern aus externen Datenquellen, die das Modell verarbeitet:
Kritisch: Indirect Prompt Injection ist besonders gefährlich, weil der Angriff für den Nutzer unsichtbar ist und die Datenquelle vertrauenswürdig erscheint.
LLMs können als Kanal für Datenlecks missbraucht werden:
Fazit: AI Security ist kein optionales Feature — es ist eine Grundvoraussetzung für den produktiven Einsatz von LLMs. Ohne Verständnis der Angriffslandschaft ist jede Schutzmaßnahme blindes Raten.
Welche Art von Prompt Injection ist besonders gefährlich, weil sie für den Nutzer unsichtbar ist?