Blog
KI-Sicherheit in drei Schritten – 2: Detect
Die Verwendung von KI zu beobachten, ist eine Sache. Zu verstehen, wann sie echte Risiken mit sich bringt, ist etwas ganz anderes. Leider fehlt es vielen Organisationen an der Fähigkeit, zu beurteilen, was sicher ist und was ein Risiko darstellt, wenn es um den Einsatz von KI in ihrem eigenen Umfeld geht.
In unserem ersten Artikel der Serie stand das Thema Sichtbarkeit im Fokus. Es ging darum, nachvollziehbar zu machen, wie KI innerhalb der Organisation tatsächlich genutzt wird. Dieser Schritt ist grundlegend, aber er reicht nicht aus.
KI‑Nutzung zu erkennen ist das eine. Zu verstehen, wann daraus ein Risiko entsteht, ist etwas anderes.
KI bringt Risiken mit sich, die nicht in klassische Sicherheitsmodelle passen
Risiken durch Ergebnisse und Nutzung von KI
Ein Teil der Risiken ergibt sich aus dem, was KI erzeugt und wie diese Ergebnisse weiterverwendet werden. Dazu zählen unter anderem:
Diese Effekte sind oft nicht sofort als Sicherheitsvorfall erkennbar. Sie entwickeln sich schrittweise und entfalten ihre Wirkung über Zeit und Kontext.
Risiken durch Manipulation und Ausnutzung von KI
Daneben gibt es Risiken, die daraus entstehen, dass KI gezielt beeinflusst oder ausgenutzt wird. Dazu gehören unter anderem:
Risikobewertung braucht Kontext
Für eine belastbare Einschätzung müssen Organisationen verstehen:
- wer oder was mit KI interagiert
- welcher Dienst oder welches Modell genutzt wird
- welche Art von Daten eingebracht wird
- in welchem fachlichen oder organisatorischen Kontext die Nutzung stattfindet
- welche Ergebnisse erzeugt werden oder welche Aktionen ausgelöst werden
Managed Observability
Mehrwert entsteht aus effizienter Nutzung Ihrer Tools. Nicht durch den bloßen Besitz. Unternehmen investieren oft viel in Observability-Plattformen, erzielen aber dennoch nicht die gewünschten Ergebni…
Zwei Fähigkeiten, die gemeinsam Verständnis schaffen
1. Kontinuierliche Analyse realer KI‑Nutzung
Das ermöglicht es,
- Nutzungsmuster zu identifizieren, die das Risiko erhöhen
- normales Verhalten von Abweichungen zu unterscheiden
- Veränderungen zu erkennen, wenn neue KI‑Dienste eingeführt werden
2. Aktive Validierung von KI‑Risiken mit KI
AI‑Red‑Teaming setzt auf automatisierte Tests. Modelle, Anwendungen und KI‑Agenten werden systematisch mit Angriffs‑ und Missbrauchsszenarien konfrontiert. Bewertet werden sowohl inhaltliche Risiken als auch sicherheitsrelevante Schwächen, ausgehend von der tatsächlichen Nutzung.
So wird es möglich,
- reale Schwachstellen statt theoretischer Risiken zu erkennen
- die praktische Tragweite von Risiken besser einzuschätzen
- Schutzmaßnahmen zu priorisieren, die tatsächlich relevant sind
Wenn KI ohne menschliche Interaktion handelt
In solchen Szenarien muss nachvollziehbar bleiben,
- wie Daten während der Inferenz verwendet werden
- welche externen Dienste eingebunden sind
- wie sich das Verhalten der Systeme über Zeit entwickelt
- ob Entscheidungen oder Aktionen von erwarteten Mustern abweichen
Von Sichtbarkeit zu Schutz ohne Rätselraten
Organisationen, die direkt von Sichtbarkeit zu Blockierung übergehen, wiederholen häufig dieselben Fehler. Legitimer Einsatz wird eingeschränkt, tatsächliche Risiken werden übersehen und Schutzmaßnahmen greifen am falschen Punkt.
Wenn Risiken jedoch identifiziert und validiert werden können, verändert sich der Ansatz grundlegend. Es wird möglich,
- Nutzung mit geringem Risiko von kritischen Szenarien zu trennen
- KI dort zu ermöglichen, wo sie sinnvoll eingesetzt wird
- Schutzmaßnahmen gezielt dort zu verankern, wo sie notwendig sind
Organisationen ohne Detection müssen raten.
Organisationen mit Detection können priorisieren.
Next step: Protection
Grundprinzipien der OT-Security
Industrielle Umgebungen stellen eine besondere Herausforderung für die IT-Sicherheit dar – denn sie sind nicht für Änderungen konzipiert. Typischerweise sind sie auch voller Fehlkonfigurationen und po…
Verwandt