Sicherheits-Anforderungen
OWASP
Das Open Worldwide Application Security Project (OWASP) beschreibt 10 Risiken beim Einsatz von LLMs und GenAI Anwendungen und gibt Anleitungen zur Mitigation dieser Risiken:
- Prompt Injection
- Sensitive Information Disclosure
- Supply Chain
- Data and Model Poisoning
- Improper Output Handling
- Excessive Agengcy
- System Prompt Leakage
- Vector and Embedding Weaknesses
- Misinformation
- Unbound Consumption
Eine KI-Plattform für die öffentliche Verwaltung sollte geeignete Maßnahmen für die Mitigation diese Risiken bereitstellen:
Prompt Injection
Direkte Prompt Injection tritt auf, wenn die Prompt-Eingabe des Benutzers das Verhalten der GenAI Anwendung (oder des dahinterliegenden Modells) auf unbeabsichtigte oder unerwartete Weise direkt verändert. Dabei kann die Eingabe entweder beabsichtigt oder unbeabsichtigt erfolgt sein. Dem gegenüber steht die indirekte Prompt Injection. Diese tritt auf, wenn die Eingabe über externe Quellen (Services, Tools) beeinflusst werden.
Die Nachfolgende Grafik zeigt Mitigationsstrategien auf, die im Wesentlichen durch den Einsatz eines LLM Gateway erreicht werden können:

-
Schränke das Verhalten des Modells ein: Über den System Prompt können spezifische Anweisungen über die Rolle, die Fähigkeiten und die Grenzen des Modells erzwungen werden.
-
Validiere Ausgabeformate: Verwende deterministischen Code, um Ausgabeformate zu überprüfen.
-
Implementiere Input Filter: mittels Guardrails
-
Implementiere Output Filter: mittels Guardrails
-
Implementiere Role-Based Access Control: Das Modell sollte immer mit der Rolle des jeweiligen Benutzers ausgeführt werden. Das gilt auch für RAG und Agenten.
-
Implementiere Human-In-The-Loop Kontrollen: um Nicht-Autorisierte Aktionen zu verhindern.
-
Implementiere Observability entlang der gesamten Ausführungsstrecke
-
Führe regelmäßig Angriffssimulationen durch: Das Modell wird dabei als immer als nicht-vertrauenswürdig eingestuft und seine Zuverlässigkeit überprüft.