SPRECHEN SIE MIT UNS

ChatGPT: Prompt-Injection-Angriff

ChatGpt-Angriff

Ein neuer Angriff auf KI-gestützte Systeme

Die Sicherheitslücke „ShadowLeak“ offenbart, wie leicht KI-gestützte Systeme wie ChatGPT kompromittiert werden können. Forscher des Unternehmens Radware fanden heraus, dass sich der ChatGPT-Agent durch eine raffinierte Kombination von Prompt-Injection und Verschleierungstechniken überlisten lässt.

Angreifer nutzen eine präparierte HTML-Mail mit unsichtbaren Befehlen. Erteilt ein Nutzer dem Agenten Zugriff auf sein E-Mail-Konto und fordert ihn etwa zur Zusammenfassung von Nachrichten auf, führt das Modell die versteckten Anweisungen aus. So werden sensible HR-Daten extrahiert, Base64-kodiert und an externe Server übermittelt – ohne dass der Nutzer dies bemerkt.

Risiken für Informationssicherheit und Datenschutz

Der Vorfall verdeutlicht, dass KI-Risiken nicht nur theoretisch sind, sondern direkte Auswirkungen auf VertraulichkeitIntegrität und Verfügbarkeit (CIA-Triade) von Informationen haben. Besonders betroffen sind personenbezogene Daten aus HR-Systemen, vertrauliche Geschäftsinformationen und rechtlich geschützte Daten nach DSGVO.

OpenAI reagierte zwar und schloss die Lücke im September 2025, doch blieb unklar, wie viele Systeme zuvor kompromittiert wurden.

Relevanz für ISO/IEC 27001 und ISMS

Unternehmen, die ein Informationssicherheitsmanagementsystem (ISMS) nach ISO/IEC 27001 betreiben oder planen, sollten ShadowLeak als Weckruf verstehen. Besonders relevant sind folgende Controls:

  • Sicherheitsanforderungen bei Cloud-Services: KI-Dienste müssen risikobasiert bewertet und überwacht werden.

  • Schutz personenbezogener Daten: Klassifizierung und Zugriffskontrollen sind Pflicht, um Datenlecks zu verhindern.

  • Management technischer Schwachstellen: Prompt-Injection muss als Schwachstelle in den Patch-Management-Prozess integriert werden.

  • Incident-Management: KI-spezifische Vorfälle müssen schnell erkannt, analysiert und behandelt werden.

Diese Controls helfen Unternehmen, ihre KI-Nutzung sicher und DSGVO-konform zu gestalten.

Handlungsempfehlungen für Unternehmen

  • Minimalprinzip umsetzen: KI-Tools nur mit den absolut notwendigen Berechtigungen betreiben.

  • Technische Schutzmaßnahmen ergänzen: Eingabevalidierung, Filtermechanismen gegen versteckte Prompts und Monitoring implementieren.

  • Awareness schaffen: Mitarbeitende schulen, wie Prompt-Injection-Angriffe funktionieren und welche Risiken bestehen.

  • Regelmäßige Risikoanalysen: KI-Risiken in das ISMS-Risikoregister aufnehmen und die Auswirkungen auf Geschäftsprozesse bewerten.

Fazit

Der Fall ShadowLeak zeigt eindrücklich, dass Informationssicherheit in der Ära der KI neu gedacht werden muss. ISO 27001 bietet dafür einen klaren Rahmen: von der Risikoanalyse über technische Maßnahmen bis hin zu Incident-Response.

Call-to-Action:

Nutzen Sie die Chance, Ihr ISMS um KI-Risiken zu erweitern. Vereinbaren Sie jetzt ein kostenloses Erstgespräch und erfahren Sie, wie Sie Ihr Unternehmen gegen Prompt-Injection-Angriffe und Datenlecks absichern können.