KI-Systeme bringen Angriffsvektoren mit, die klassische Penetrationstests nicht abdecken. Gleichzeitig bleiben alle bekannten Web- und Infrastruktur-Schwachstellen relevant.
Prompt Injection ist der SQL Injection der KI-Ära. Angreifer manipulieren das Modellverhalten über sorgfältig konstruierte Eingaben – direkt oder über vergiftete externe Daten die das Modell verarbeitet.
Ein AI-Agent der E-Mails lesen, Code ausführen und Datenbanken abfragen kann, ist ein hochprivilegiertes System. Wer den Agenten kontrolliert, kontrolliert alle seine Tools – ohne direkte Authentifizierung.
Trainierte Modelle können durch adversarielle Eingaben zu falschen Klassifikationen gebracht werden. Fraud-Detection, Content-Moderation und medizinische KI-Systeme sind besonders exponiert.
Erlebe selbst, warum KI-Systeme ohne Härtung anfällig sind. Klicke auf die Buttons, um mit einem typischen ungeschützten internen HR-Assistenten zu interagieren.
Strukturiert, reproduzierbar und auf die Besonderheiten von KI-Systemen ausgelegt – mit klarer Dokumentation für technische Teams und Management.
Welche KI-Systeme, Modelle und Datenquellen sind im Scope? Welche Tools und Berechtigungen hat der Agent? Wir analysieren die Architektur bevor wir testen.
Basierend auf der Architektur identifizieren wir die realistischsten Angriffspfade – nach OWASP LLM Top 10, MITRE ATLAS und eigenen Methoden für Agentic AI.
Manuelles Testing aller identifizierten Angriffsvektoren: Prompt Injections, Tool Abuse, RAG Attacks, API-Tests. Jeder Angriffsversuch wird vollständig protokolliert.
Findings werden auf tatsächliche Ausnutzbarkeit und Business Impact geprüft. Kein False-Positive-Rauschen – nur was wirklich exploitierbar ist, landet im Bericht.
Vollständiger Bericht mit OWASP-LLM-Mapping, Reproduktionsschritten, Management-Summary und priorisierten Handlungsempfehlungen. Re-Test nach Behebung auf Wunsch inklusive.
Die OWASP LLM Top 10 ist der anerkannte Standard für LLM-Security-Assessments. Wir testen systematisch alle zehn Kategorien – ergänzt durch proprietäre Testfälle für Agentic AI und RAG-Systeme.
Manipulation der LLM-Ausgabe durch konstruierte Eingaben. Direkt (Nutzer) oder indirekt (vergiftete externe Daten). Führt zu Guardrail-Bypass, Datenlecks, unautorisierten Aktionen.
Das Modell gibt Trainingsdaten, System-Prompts, interne Konfiguration oder Nutzerdaten anderer Sitzungen preis – durch Memorization oder unzureichende Output-Filterung.
Kompromittierte Basismodelle, Plugins oder Datenpipelines. Angreifer die die Lieferkette kontrollieren, beeinflussen das Modellverhalten ohne direkten Zugriff.
Manipulierte Trainingsdaten oder Fine-Tuning-Datensätze erzeugen Backdoors oder verändern systematisch das Modellverhalten für bestimmte Eingaben.
LLM-Ausgaben werden ungefiltert an nachgelagerte Systeme weitergegeben. Führt zu XSS, SQL Injection, Code Execution – wenn Ausgaben als Code oder Queries interpretiert werden.
Der AI-Agent hat mehr Berechtigungen als für seine Aufgabe nötig. Über Prompt Injection kann ein Angreifer den Agenten missbrauchen, um privilegierte Aktionen auszuführen.
Der System-Prompt – oft mit sensiblen Anweisungen, internen Prozessen oder Toolbeschreibungen – wird durch geschickte Formulierungen aus dem Modell extrahiert.
Angriffe auf die Vektordatenbank eines RAG-Systems: Embedding Poisoning, unauthorized Retrieval, Membership Inference – wer die Vektorbasis kontrolliert, kontrolliert den Kontext.
Das Modell generiert plausibel klingende, aber falsche Informationen – mit oder ohne adversarielle Manipulation. Besonders kritisch in medizinischen, rechtlichen und finanziellen Kontexten.
Angreifer provozieren exzessiven Ressourcenverbrauch durch aufwändige Anfragen – führt zu DoS, erhöhten API-Kosten oder Erschöpfung von Rate Limits.
In 30 Minuten besprechen wir euren AI-Stack, klären den Scope und ihr erhaltet ein unverbindliches Angebot – kostenlos.
Jetzt kostenloses Erstgespräch buchen