NEUES JAHR, NEUE ZIELE: Starten Sie noch heute Ihre SaaS-Entwicklungsreise und sichern Sie sich exklusive Rabatte für die nächsten 3 Monate!
Schau es dir hier an >>
White gift box with red ribbon and bow open to reveal a golden 10% symbol, surrounded by red Christmas trees and ornaments on a red background.
Unlock Your Holiday Savings
Build your SaaS faster and save for the next 3 months. Our limited holiday offer is now live.
White gift box with red ribbon and bow open to reveal a golden 10% symbol, surrounded by red Christmas trees and ornaments on a red background.
Explore the Offer
Valid for a limited time
close icon
Logo Codebridge
AI

Sichere generative KI: So schützen Sie Unternehmenssysteme, wenn KI aktiv handelt

March 11, 2026
|
13
min. Lesezeit
Teilen
Text
Link copied icon
inhaltsverzeichnis
photo of Myroslav Budzanivskyi Co-Founder & CTO of Codebridge
Myroslav Budzanivskyi
Mitbegründer und CTO

Holen Sie sich Ihre Projektschätzungen!

KEY TAKEAWAYS

AI Outputs Are Not Secure by Default, organizations cannot assume that AI-generated code or responses meet production security standards.

Security Models Must Change, traditional cybersecurity approaches designed for deterministic software cannot fully govern probabilistic AI behavior.

Agent Autonomy Increases Risk, once models can call APIs, modify SaaS records, or trigger workflows they become part of the operational control layer.

Execution Controls Are Critical, mature organizations focus on governing permissions, infrastructure boundaries, and deterministic enforcement rather than relying on model filtering.

Die Einführung generativer KI in Unternehmen beschleunigt sich schneller als die Sicherheitspraktiken, die sie regeln. Aktuelle Forschungsergebnisse, die auf arXiv veröffentlicht wurden, haben ergeben, dass über 40% der KI-generierten Codelösungen enthalten Sicherheitslücken. Für Organisationen, die mit KI-gestützter Entwicklung experimentieren, hat dieses Ergebnis praktische Auswirkungen. Es deutet darauf hin, dass nicht davon ausgegangen werden kann, dass KI-generierte Ausgaben die Sicherheitsstandards erfüllen, die typischerweise für Produktionssoftware erforderlich sind.

Das Problem wird immer bedeutsamer, da generative KI-Systeme beginnen, direkt mit der Betriebsinfrastruktur zu interagieren. In vielen Unternehmensumgebungen können KI-Systeme heute APIs aufrufen, Datensätze auf SaaS-Plattformen ändern, Skripts generieren oder automatisierte Workflows auslösen.

In diesen Umgebungen beschränken sich KI-Ausgaben nicht mehr auf Textvorschläge. Sie können das reale Systemverhalten beeinflussen.

Dieser Artikel untersucht die Sicherheitsrisiken, die entstehen, wenn generative KI-Systeme in Unternehmensumgebungen integriert werden, und skizziert praktische Strategien, die Unternehmen anwenden, um diese Risiken in großem Maßstab zu bewältigen.

40% Over 40% of AI-generated code solutions were found to contain security vulnerabilities according to research published on arXiv.

Wie sich generative KI auf die Sicherheit ausgewirkt hat

Jüngsten Branchenumfragen zufolge 88% der Unternehmen geben an, KI in mindestens einer Geschäftsfunktion einzusetzen, doch nur 24% der aktuellen Initiativen beinhalten eine definierte Sicherheitskomponente.

Diese Lücke spiegelt wider, wie generative KI typischerweise in Organisationen eingeführt wird. Viele Implementierungen beginnen als Produktivitätsexperimente, Codeassistenten, Tools zur Zusammenfassung von Dokumenten oder als interne Chatbots, die häufig außerhalb der traditionellen Prozesse zur Sicherheitsüberprüfung implementiert werden.

Da diese Systeme in die täglichen Arbeitsabläufe integriert werden, bergen sie Risiken, für deren Bewältigung die bestehenden Governance-Modelle nicht konzipiert wurden.

Im Gegensatz zu herkömmlicher Software führen generative KI-Systeme keine feste Logik aus. Ihre Ergebnisse hängen von statistischen Inferenzen und kontextuellen Eingaben ab, was bedeutet, dass Verhalten nicht immer durch herkömmliche regelbasierte Steuerungen vorhergesagt oder eingeschränkt werden kann. Und mit zunehmender Akzeptanz beginnt sich dieser Unterschied in mehrfacher Hinsicht auf die Sicherheitslandschaft auszuwirken.

24% Only 24% of AI initiatives currently include a defined security component despite widespread adoption.

Social Engineering im industriellen Maßstab

Eine der sichtbarsten Auswirkungen generativer KI auf die Sicherheitslandschaft ist die Verbesserung groß angelegter Social-Engineering-Operationen.

Bisher erforderten Phishing-Kampagnen einen erheblichen manuellen Aufwand und enthielten oft sprachliche Fehler, sodass sie leichter zu erkennen waren. Generative KI ermöglicht es Angreifern, grammatikalisch einwandfreie Nachrichten schnell zu generieren, die Sprache an bestimmte Ziele anzupassen und Kampagnen mit minimalen Kosten zu wiederholen.

  • Synthetische Identität und Sprachimitation.

Bei dokumentierten Betrugsvorfällen verwendeten Angreifer KI-generierte Sprachaufzeichnungen, um sich als leitende Angestellte auszugeben und dringende Finanztransfers während Telefonanrufen zu autorisieren.

  • Beschleunigung der Malware-Entwicklung.

Bedrohungsakteure verwenden zunehmend generative Modelle zur Unterstützung der Malware-Entwicklung, insbesondere bei der Modifizierung von vorhandenem Code, um einer signaturbasierten Erkennung zu entgehen.

  • Automatisierte Aufklärung.

Generative KI kann Angreifern auch dabei helfen, große Mengen öffentlich verfügbarer Informationen zu analysieren, um Organisationsstrukturen abzubilden, hochwertige Ziele zu identifizieren und Angriffspfade zu priorisieren.

Diese Funktionen ersetzen zwar keine erfahrenen Angreifer, reduzieren aber den Aufwand, der für die Durchführung gezielter Kampagnen erforderlich ist, erheblich.

Warum die meisten Unternehmensvorfälle immer noch „langweilig“ sind

Trotz der technischen Raffinesse dieser neuen Bedrohungen handelt es sich bei den meisten frühen GenAI-Sicherheitsvorfällen in Unternehmen nicht um exotische Exploits, sondern um kostspielige Workflow-Fehler, die auf Bequemlichkeit und fehlende technische Kontrollen zurückzuführen sind.

  1. Direkter Datenleck: Mitarbeiter fügen häufig proprietären Quellcode, interne Strategiedokumente oder Besprechungsnotizen zum Debuggen oder Zusammenfassen in nicht verwaltete KI-Tools ein. Mehrere Unternehmen, einschließlich Samsung, haben öffentlich Vorfälle gemeldet, bei denen sensible Informationen an externe KI-Dienste weitergegeben wurden.
  2. Leckage in der experimentellen Umgebung: Unternehmen ermöglichen es internen Teams oft, mithilfe von Produktionsdaten mit KI-Tools zu experimentieren, ohne die Testumgebungen von den Betriebssystemen zu trennen.
  3. Verbreitung von Schatten-KI: Geschäftsbereiche implementieren Agents Builder ohne Code und Plugins von Drittanbietern oft schneller, als Sicherheitsteams Bedingungen festlegen können. Diese Tools können eine direkte Verbindung zu internen Datenquellen oder SaaS-Plattformen herstellen.
  4. Risikomanagement für Lieferanten: Drittanbieter können Eingabeaufforderungen und Ergebnisse zur Missbrauchsüberwachung oder Serviceverbesserung aufbewahren, die in direktem Widerspruch zu unternehmensinternen Datenverwaltungs- oder regulatorischen Anforderungen stehen.

In den meisten Fällen ist das zugrunde liegende Problem kein ausgeklügelter Angriff, sondern ein Mangel an klarer Steuerung darüber, wie KI-Tools innerhalb des Unternehmens eingesetzt werden.

Warum traditionelle Sicherheitsmodelle Probleme haben

Für die Führung ist die entscheidende Erkenntnis, dass bestehende Cybersicherheitsansätze notwendig, aber für diese neue Ära unzureichend sind. Das britische National Cyber Security Centre hat ausdrücklich davor gewarnt, dass Prompt-Injection nicht mit SQL-Injection gleichzusetzen ist. Herkömmliche Firewalls und Netzwerkregeln sind für deterministischen Code und strukturierte Eingaben wie JSON konzipiert; sie können weder den probabilistischen Charakter natürlicher Sprache noch die semantische Absicht hinter der Argumentation eines Modells bewerten.

Diese Diskrepanz verursacht das Problem „Confused Deputy“, bei dem ein Modell so manipuliert wird, dass es seine legitimen Anmeldeinformationen und Berechtigungen verwendet, um Aktionen auszuführen, die dem Angreifer zugute kommen. Da GENai-Systeme nicht deterministisch sind — dieselbe Eingabe kann zu unterschiedlichen Ergebnissen führen — müssen Sicherheitsstrategien das Modell als eine nicht vertrauenswürdige Komponente behandeln, die in einer kontrollierten Ausführungsumgebung läuft.

Generative KI-Systeme stellen auch mehrere Annahmen in Frage, die in der traditionellen Sicherheitsarchitektur verankert sind. Firewalls, Eingabevalidierung und Anwendungssicherheitstests gehen davon aus, dass Software strukturierte Eingaben verarbeitet und vorhersehbare Logik ausführt. Generative Modelle funktionieren jedoch anders. Sie interpretieren natürliche Sprache, kombinieren mehrere Datenquellen und generieren Antworten, die je nach Kontext variieren.

Aus diesem Grund können Angriffe eher auf den Argumentationsprozess des Modells als auf eine bestimmte Softwareschwachstelle abzielen.

Das Das britische National Cyber Security Center hat die Prompt Injection als Hauptbeispiel hervorgehoben.. Anstatt Code auszunutzen, manipulieren Angreifer das Modell durch sorgfältig ausgearbeitete Anweisungen, die in Dokumente oder Webseiten eingebettet sind und vom System als Eingabe verarbeitet werden.

In Systemen, in denen Modelle externe Tools aufrufen können, kann diese Manipulation zu dem Problem führen, das als „verwirrter Stellvertreter“ bezeichnet wird. Das Modell verwendet unwissentlich seine legitimen Berechtigungen, um Aktionen auszuführen, die dem Angreifer zugute kommen.

Das bedeutet, dass herkömmliches Patchen von Sicherheitslücken allein diese Risiken nicht mindern kann. Generative KI muss als eine nicht vertrauenswürdige Komponente betrachtet werden, die in einer kontrollierten Ausführungsumgebung arbeitet, wobei strenge Grenzen festlegen, welche Aktionen sie ausführen kann.

Generative KI-Sicherheitsrisiken in Aktionssystemen

Infographic showing four GenAI security risks: Prompt Injection, Output-to-Execution Failures, Identity/Delegation Risks, and Agent Goal Hijacking, illustrating vulnerabilities from text to action.
Diese Infografik für Führungskräfte beleuchtet die wichtigsten Sicherheitsrisiken bei autonomen KI-Agenten, darunter böswillige Manipulation von Eingabeaufforderungen, nicht validierte Codeausführung, Missbrauch von Berechtigungen und Zielhijacking.

Wenn einem KI-Modell Handlungsspielraum gewährt wird, arbeitet es in einem autonomen Kreislauf: Es beobachtet die Umgebung, überlegt sich Ziele, wählt Tools aus und führt Aktionen aus. Diese Behörde erbt oft dieselben Identitäten und OAuth-Grants, die auch von Menschen verwendet werden. Dadurch entsteht eine Attributionslücke, die es schwierig macht, festzustellen, ob eine Aktion von einem Benutzer beabsichtigt oder von einem manipulierten Modell geleitet wurde.

Das Sicherheitsmodell ändert sich, sobald KI-Systeme Aktionen ausführen dürfen, anstatt nur Text zu generieren.

In vielen Unternehmensumgebungen können KI-Agenten SaaS-Datensätze ändern oder ausführbare Anweisungen generieren. Diese Systeme arbeiten mit denselben Identitäten, Berechtigungen und OAuth-Token, auf die sich menschliche Benutzer verlassen.

Infolgedessen produziert das Modell nicht mehr nur Informationen. Es wird Teil der betriebliche Kontrollschicht der Unternehmensinfrastruktur. Dieser Wandel führt zu mehreren neuen Kategorien von Sicherheitsrisiken.

Prompt Injection als betriebliche Bedrohung

In autonomen Systemen ist Prompt-Injection nicht mehr nur eine Methode zur Erzeugung von Code mit schlechter Qualität. Wenn das System Zugriff auf externe Tools hat, kann diese Manipulation zu unbeabsichtigten Aktionen wie dem Senden von Daten an externe Systeme, dem Ändern von Datensätzen, dem Umgehen von Richtlinien oder dem Missbrauch interner Tools führen.

  • Direkte Injektion: Ein Modell wird explizit angewiesen, alle vorherigen Anweisungen zu ignorieren, um Systemaufforderungen anzuzeigen oder Sicherheitsfilter zu umgehen.
  • Indirekte Soforteinspritzung: Angreifer verstecken bösartige Anweisungen in nicht vertrauenswürdigen externen Inhalten, E-Mails oder PDF-Dateien, die das System auf natürliche Weise als Kontext aufnimmt. Da KI den aufgenommenen Text als vertrauenswürdige Eingabe behandelt, ist ein Zero-Click-Angriff möglich.

Zum Beispiel die EchoLeak-Exploit zeigte, dass eine einzelne erstellte E-Mail einen Assistenten dazu veranlassen kann, vertrauliche Dateien und Chat-Protokolle ohne Benutzerinteraktion zu exfiltrieren.

⚠️

Prompt Injection Risk
In systems where AI agents can access external tools, manipulated prompts can trigger unintended actions such as modifying records or sending data outside the organization.

Fehler von der Ausgabe bis zur Ausführung

Ein weiterer häufiger Fehlerpunkt tritt an der Grenze zwischen Modellausgabe und Systemausführung auf. Generative Modelle erzeugen Text, aber viele Systeme interpretieren diesen Text als ausführbare Befehle — SQL-Abfragen, API-Parameter oder Shell-Anweisungen. Wenn Ausgaben ohne strenge Validierung oder Sandboxing ausgeführt werden, gewinnt das Modell effektiv die Fähigkeit, das Systemverhalten direkt zu beeinflussen.

Dadurch entsteht eine fragile Schnittstelle zwischen probabilistischer Modellausgabe und deterministischer Infrastruktur, und ohne starke Validierungsebenen können unbeabsichtigte Anweisungen direkt in Produktionssysteme übertragen werden.

Identitäts- und Delegationsrisiken

Wenn ein KI-Agent im Namen eines Benutzers handelt, erbt er die anfälligsten Teile der modernen SaaS-Sicherheit: delegierte OAuth-Bereiche und Zustimmungsabläufe.

KI-Agenten in Unternehmen arbeiten häufig mit delegierten Benutzerberechtigungen. Wenn ein Agent im Namen eines Benutzers handelt, erbt er OAuth-Bereiche, API-Token und Zugriffsrechte, die mit dieser Identität verknüpft sind. Wenn das Modell manipuliert wird, können diese Rechte verwendet werden, um auf sensible Systeme zuzugreifen oder Aktionen auszuführen, die über die ursprüngliche Absicht des Benutzers hinausgehen.

Das CoPhish Der Angriff zeigte, dass böswillige Agenten, die auf vertrauenswürdigen Domains gehostet werden, OAuth-Phishing-Flows umschließen konnten, um Benutzerzugriffstoken abzufangen und so Angreifern Zugriff auf E-Mails, Kalender und OneNote-Daten zu gewähren.

In komplexen Umgebungen, in denen mehrere Agenten interagieren, kann ein kompromittierter oder manipulierter Agent mit niedrigen Rechten auch Aktionen von Systemen mit höheren Rechten auslösen, die internen Anfragen implizit vertrauen.

Goal Hijacking durch Agenten

Modelle können nicht zuverlässig zwischen Systemanweisungen und nicht vertrauenswürdigen Daten unterscheiden. Angreifer können dies nutzen, um das Hauptziel eines Agenten durch vergiftete Inhalte stillschweigend umzuleiten. Ein Beschaffungsagent könnte durch eine versteckte Anweisung in einem PDF-Metadatenfeld die Priorität von „Rechnung prüfen“ auf „Sofortige Zahlung ausführen“ umgestellt bekommen. Der Agent bleibt gehorsam; er folgt einfach dem falschen Ziel.

Ein subtileres Risiko besteht in der Manipulation des Ziels des Agenten selbst. Generative Modelle können nicht zuverlässig zwischen vertrauenswürdigen Anweisungen und bösartigen Inhalten unterscheiden, die in externen Datenquellen eingebettet sind. Angreifer können diese Einschränkung ausnutzen, um das Hauptziel eines Agenten durch vergiftete Inhalte umzuleiten.

Beispielsweise kann ein böswilliges Dokument oder eine E-Mail einem Agenten durch eine versteckte Anweisung in einem PDF-Metadatenfeld die Priorität von „Rechnung prüfen“ auf „Sofortige Zahlung ausführen“ ändern.

In diesen Situationen weist das Modell keine Fehlfunktion auf. Es folgt Anweisungen, die in dem angegebenen Kontext als gültig erscheinen. Aus diesem Grund können sich Sicherheitsarchitekturen in Unternehmen nicht darauf verlassen, dass das Modell die Absicht korrekt interpretiert. Kontrollen müssen auf der Tool- und Ausführungsebene durchgesetzt werden, wo Aktionen deterministisch validiert werden können.

Strategien zur Risikominderung für Teams mit hohem Reifegrad

Ältere Unternehmen gehen davon aus, dass Modelle Absichten nicht zuverlässig interpretieren können, da generative Modelle durch Kontext, Eingabeaufforderungen oder externe Datenquellen manipuliert werden können. Aus diesem Grund konzentrieren sich die Teams weniger auf die Filterung der Modellergebnisse als vielmehr darauf, zu kontrollieren, was das System tun darf.

Daher verlagert sich die Sicherheit in Richtung der Steuerung von Ausführung, Berechtigungen und Infrastruktur.

Führen Sie behördengestütztes Risiko-Tiering ein

Nicht alle KI-Systeme bergen das gleiche Risiko. Ältere Unternehmen klassifizieren Bereitstellungen danach, wie viel Autorität das System für die Interaktion mit externen Tools und der Unternehmensinfrastruktur hat. Ein gängiges Modell unterteilt Systeme in vier Hauptstufen:

  • Stufe A (Assistenzsysteme)

Das Modell beantwortet Fragen oder fasst Informationen mithilfe einer festen Wissensbasis zusammen. Es kann nicht auf externe Systeme zugreifen oder Aktionen ausführen.

  • Tier B (schreibgeschützte Systeme))

Der Agent kann Informationen aus internen Quellen abrufen, aber keine Datensätze ändern oder Workflows auslösen.

  • Stufe C (Aktionen mit Genehmigung schreiben)

Der Agent schlägt Aktionen wie das Verfassen von E-Mails oder das Erstellen von CRM-Einträgen vor. Die Ausführung erfordert die ausdrückliche Zustimmung eines Menschen.

  • Stufe D (Autonome Systeme)

Der Agent führt Aktionen automatisch aus. Dieses Maß an Autonomie ist in der Regel auf Operationen beschränkt, die nur geringe Auswirkungen haben und umkehrbar sind. Sie erfordert eine strenge Überwachung und die Fähigkeit, das System bei Bedarf sofort abzuschalten.

Dieses Tiering-Modell ermöglicht es Unternehmen, Sicherheitskontrollen, Governance-Anforderungen und Betriebsüberwachung an das tatsächliche Risikoprofil jedes KI-Einsatzes anzupassen.

Durch die Klassifizierung der Systeme nach ihrem Autonomiegrad können Unternehmen angemessene Schutzmaßnahmen ergreifen, anstatt zu versuchen, dasselbe Sicherheitsmodell für alle Bereitstellungen durchzusetzen.

In der Praxis beginnen viele Organisationen mit der Implementierung dieses Modells, indem sie eine kleine Reihe von Bewertungskriterien definieren, anhand derer die geeignete Stufe für jedes System festgelegt wird. Zu den Kriterien gehören in der Regel:

  • Aktionsfähigkeit: Kann das System Daten ändern, Workflows auslösen oder Code ausführen?
  • Datensensibilität: Greift das System auf regulierte, finanzielle oder firmeneigene Informationen zu?
  • Umfang der Identität: Welche Berechtigungen oder OAuth-Bereiche erbt das System?
  • Reversibilität der Maßnahmen: Können die Aktionen des Systems einfach rückgängig gemacht werden, wenn ein Fehler auftritt?
  • Menschliche Aufsicht: Muss ein Mensch Maßnahmen vor der Ausführung überprüfen oder genehmigen?

Diese Kriterien ermöglichen es Unternehmen, KI-Funktionen einzuführen und gleichzeitig eine konsistente Steuerung darüber aufrechtzuerhalten, wie autonome Systeme mit der Unternehmensinfrastruktur interagieren.

Deterministische Durchsetzung im Vergleich zu LLM-Filtern

Viele frühe KI-Sicherheitsansätze basieren auf probabilistischen Abwehrmechanismen wie Aufforderungsscannern oder sekundären Modellen, die Ergebnisse auswerten. Diese Methoden können offensichtlichen Missbrauch verhindern, sind aber als primäre Kontrollschicht unzuverlässig.

Stattdessen führen ausgereifte Teams deterministische Prüfungen an dem Punkt durch, an dem das Modell mit externen Tools interagiert. Dazu gehören die Verwendung strukturierter Werkzeugschemas, keine Freiform-Shell- oder SQL-Ausführung und die Durchsetzung von Out-of-Band-Policy-Checks, auf die der Inhalt der Eingabeaufforderung keinen Einfluss hat.

Zu den wichtigsten Praktiken gehören:

  1. Strukturierte Werkzeugoberflächen

Agenten interagieren mit Tools über vordefinierte Schemas, die zulässige Parameter und Aktionen genau definieren.

  1. Überprüfungen der Ausführungsrichtlinien

Jeder Toolaufruf durchläuft eine Richtlinienebene, die die Anforderung vor der Ausführung anhand der Geschäftsregeln überprüft.

  1. Verhalten bei Fail-Closed-Funktion

Wenn das System eine Anweisung nicht sicher validieren kann, wird die Anforderung abgelehnt und nicht ausgeführt.

Diese Steuerelemente stellen sicher, dass ein Modell, selbst wenn es manipuliert wird, keine beliebigen Aktionen ausführen kann.

Das Framework überdenken: Das IBM Framework zur Absicherung generativer KI

Die zuvor erörterten Strategien zur Schadensbegrenzung — die Einschränkung der Agentenautonomie, die Durchsetzung deterministischer Kontrollen, die Isolierung der Infrastruktur und das kontinuierliche Testen von Systemen — sind wichtige Praktiken.
Ohne ein strukturiertes Governance-Modell kann es jedoch schwierig sein, diese Kontrollen in mehreren KI-Bereitstellungen konsistent zu implementieren.

Viele Sicherheitsteams verlassen sich auf Frameworks wie die OWASP Top 10 für LLM-Anwendungen und das Entstehende OWASP Top 10 für Agentenanwendungen. Diese Ressourcen sind wertvoll, um bestimmte Sicherheitslücken und Angriffsmuster zu identifizieren.

OWASP konzentriert sich jedoch hauptsächlich darauf, was auf technischer Ebene schief gehen kann. Unternehmen benötigen immer noch ein Framework, das erklärt, wo Sicherheitskontrollen im gesamten Lebenszyklus des KI-Systems vorhanden sein sollten.

Ein Ansatz, der in Unternehmensumgebungen Aufmerksamkeit erregt hat, ist der IBM Framework zur Absicherung generativer KI. Es organisiert die Sicherheit rund um das gesamte KI-Wertstrom und deckt Systeme, Datenflüsse und Betriebsprozesse ab, die das Modell umgeben.

Das Framework organisiert die generative KI-Sicherheit in fünf Ebenen, die verschiedenen Teilen des KI-Lebenszyklus zugeordnet sind.

1. Sicherheit der Daten

Die erste Ebene konzentriert sich auf den Schutz vertraulicher Informationen während des gesamten KI-Lebenszyklus. Unternehmen zentralisieren häufig große Datensätze, wenn sie Informationen für generative Modelle trainieren, optimieren oder abrufen. Diese Konzentration von Daten erhöht die Auswirkungen potenzieller Sicherheitslücken.

Zu den wichtigsten Sicherheitsvorkehrungen gehören:

  • Datenermittlung und -klassifizierung zur Identifizierung sensibler Datensätze, die während des Trainings oder Abrufs verwendet werden.
  • Verschlüsselung und Schlüsselmanagement zum Schutz von Daten sowohl bei der Speicherung als auch bei der Übertragung.
  • Zugriffskontrollen und Identitätsmanagement, um einzuschränken, wer mit Trainingsdaten, Einbettungen und Protokollen interagieren kann.

Zusammen reduzieren diese Vorschriften das Risiko, dass sensible Daten während der Entwicklung und Produktion preisgegeben werden.

2. Sicherheit modellieren

Die Modellsicherheit befasst sich mit der Integrität von Modellartefakten und den Prozessen, mit denen sie trainiert und bereitgestellt werden.

Die meisten Organisationen verlassen sich auf vortrainierte Modelle, die von offenen Repositorys oder externen Anbietern stammen. Dies birgt Risiken in der KI-Lieferkette, einschließlich der Möglichkeit, dass Modell-Checkpoints kompromittiert oder Trainingsdaten verfälscht werden.

Zu den wichtigsten Steuerelementen gehören:

  • Überprüfung der Herkunft und Integrität von Modellartefakten
  • Modellabhängigkeiten und Gewichte vor der Bereitstellung scannen
  • Sicherung der API-Schnittstellen, die für den Zugriff auf gehostete Modelle verwendet werden

Sie stellen sicher, dass das Modell selbst nicht manipuliert wurde, bevor es in die Produktionsumgebung gelangt.

3. Sicherheit bei der Nutzung

Die Nutzungssicherheit konzentriert sich auf das Laufzeitverhalten generativer KI-Systeme. In dieser Phase interagieren die Modelle mit Eingabeaufforderungen, externen Datenquellen und möglicherweise Unternehmenstools. Auf dieser Ebene werden Bedrohungen wie Prompt-Injection oder Modellextraktion abgewehrt.

Unternehmen implementieren diese Kontrollen in der Regel, um sicherzustellen, dass Modelle sicher funktionieren, wenn sie realen Eingaben ausgesetzt sind:

  • schnelle Überwachung und Eingabevalidierung
  • Ratenbegrenzung und Abfragesteuerung zur Verhinderung von Modellmissbrauch
  • Systeme zur Laufzeitüberwachung, die verdächtige Nutzungsmuster oder potenzielle Datenlecks erkennen

4. Sicherheit der Infrastruktur

Generative KI-Systeme basieren letztlich auf traditioneller Infrastruktur, einschließlich Cloud-Diensten, Identitätssystemen und Netzwerkkonnektivität.

Die Infrastruktursicherheit konzentriert sich darauf, sicherzustellen, dass die Umgebung, die KI-Workloads unterstützt, etablierten Cybersicherheitsprinzipien folgt.

Zu den wichtigsten Steuerelementen gehören:

  • Netzwerksegmentierung zwischen KI-Diensten und sensiblen Systemen
  • verschärfte Richtlinien für Identitäts- und Zugriffsmanagement
  • sichere Containerisierung oder Virtualisierung für die Modellausführung

Die Anwendung traditioneller Infrastrukturkontrollen ist nach wie vor eine der effektivsten Methoden, um den Explosionsradius von KI-bedingten Vorfällen zu verringern.

5. Operative Unternehmensführung

Die letzte Ebene befasst sich mit der laufenden Verwaltung von KI-Systemen nach der Bereitstellung. Im Gegensatz zu herkömmlicher Software können sich KI-Modelle im Laufe der Zeit aufgrund von Datenabweichungen oder sich ändernden Nutzungsmustern verschlechtern.

Diese Ebene stellt sicher, dass KI-Systeme auf ihren beabsichtigten Zweck ausgerichtet bleiben, wenn sich die Umgebungen weiterentwickeln. Die operative Steuerung umfasst:

  • Überwachung der Modellleistung und Verhaltensänderungen
  • Prüfung der Ergebnisse auf Vorurteile, Sicherheits- und Compliance-Probleme
  • Pflege der Dokumentation und Überwachung im Einklang mit regulatorischen Rahmenbedingungen wie dem EU-Gesetz über künstliche Intelligenz

IBM Framework im Vergleich zu OWASP

Use case IBM Framework OWASP
Enterprise-wide governance Best fit Secondary fit
Control ownership by team Strong Limited
Lifecycle coverage Strong Limited
Technical risk identification Broad Best fit
Threat modeling Helpful Strong
Red teaming and testing Helpful Strong
Compliance and oversight Strong Supportive
Developer security guidance Moderate Strong
LLM application security Good Best fit
Agentic application security Good Best fit
Budget and risk register planning Strong Limited
Primary purpose Governance model Risk framework

Dolmetschen von Führungskräften

Einer der praktischen Vorteile des IBM-Frameworks besteht darin, dass es Unternehmen dabei hilft, die Verantwortlichkeiten im Bereich KI-Sicherheit so zu strukturieren, dass sie mit der bestehenden Unternehmensführung übereinstimmen. Auch ohne die Einführung IBM-spezifischer Tools kann das Modell als einfache Betriebsstruktur verwendet werden.

Zum Beispiel:

Eigentümerschaft pro Ebene zuweisen
Definieren Sie klare Verantwortlichkeiten für jede Ebene — Datenplattformteams für Datensicherheit, Identitätsteams für die Zugriffskontrolle und Anwendungsteams für die Laufzeitüberwachung.

Budget nach Kontrollbereich
Sicherheitsinvestitionen können bestimmten Kontrollbereichen wie Identitätssicherung, Datenschutz und Überwachung der Infrastruktur zugeordnet werden, anstatt vagen „KI-Initiativen“.

Pflegen Sie ein einheitliches Risikoregister
Die Zuordnung von KI-Systemen zu diesen Ebenen ermöglicht es Unternehmen, Risiken, Abhilfemaßnahmen und betriebliche Verantwortlichkeiten in einer einzigen Verwaltungsstruktur zu verfolgen.

Wichtige Einschränkung

Ein Framework beseitigt nicht die zugrunde liegende technische Herausforderung der generativen KI. Große Sprachmodelle können nicht zuverlässig zwischen vertrauenswürdigen Anweisungen und nicht vertrauenswürdigen Daten unterscheiden. Dies hat zur Folge, dass Angriffe wie Prompt Injection allein durch Filter oder Leitplanken nicht vollständig verhindert werden können.

Aus diesem Grund behandeln etablierte Unternehmen Frameworks als Verwaltungsstrukturen und verlassen sich gleichzeitig auf architektonische Kontrollen und Ausführungsgrenzen, um die potenziellen Auswirkungen der Modellmanipulation zu begrenzen.

Fazit

Wenn Unternehmen beginnen, KI-Systeme einzusetzen, die Maßnahmen ergreifen können, muss sich auch die Sicherheit weiterentwickeln. Die Priorität besteht nicht darin, Risiken zu eliminieren, sondern sicherzustellen, dass KI-Systeme innerhalb klar definierter Grenzen funktionieren. Dies erfordert einen Überblick darüber, worauf Agenten zugreifen können, welche Aktionen sie ausführen können und wie diese Aktionen überwacht werden.

Die Festlegung expliziter Systemgrenzen, die Kontrolle der Verbreitung nicht genehmigter KI-Tools, die Isolierung von Vorgängen mit hohem Risiko und die Aufrechterhaltung einer detaillierten Beobachtbarkeit sind grundlegende Schritte. Die Anpassung dieser Praktiken an anerkannte Rahmenbedingungen stärkt die Unternehmensführung und die Rechenschaftspflicht weiter.

Durch die Anwendung von Prinzipien wie strengen Ausführungskontrollen können Unternehmen agentische KI verantwortungsbewusst skalieren und gleichzeitig die in Produktionsumgebungen erwartete Sicherheit und Zuverlässigkeit aufrechterhalten.

What are the core threats in the OWASP Top 10?

At a high level, the OWASP Top 10 for LLM applications centers on risks such as prompt injection, insecure output handling, training data poisoning, model denial of service, supply chain vulnerabilities, sensitive information disclosure, insecure plugin design, excessive agency, overreliance, and model theft.

For enterprise teams, the most operationally important themes are manipulated inputs, unsafe execution of model outputs, overprivileged tool access, and exposure of sensitive data.

What are the common examples of Agent Goal Hijacking?

Common examples include a procurement agent being redirected from reviewing an invoice to initiating payment, an assistant reading hidden instructions inside an email or PDF, or a low-risk workflow being silently reoriented toward data exfiltration or policy bypass.

In practice, goal hijacking usually happens when the agent treats untrusted content as valid instruction context and begins pursuing the attacker’s objective instead of the business task.

What AI security framework should my business choose?

If your main problem is governance, ownership, compliance, and control coverage across multiple AI deployments, the IBM framework is the stronger starting point because it structures security across data, model, usage, infrastructure, and operational governance.

If your main problem is identifying concrete technical risks and testing for failure modes, OWASP is the better primary lens.

In most enterprise settings, the strongest approach is to use IBM as the governance structure and OWASP as the technical risk framework.

How should enterprises decide which AI systems can act autonomously and which should require human approval?

The decision should be based on the system’s action capability, the sensitivity of the data it can access, the identity scope or permissions it inherits, the reversibility of its actions, and the level of human oversight needed.

Systems that only answer questions or retrieve information can operate with lower risk, while systems that modify records, trigger workflows, or execute code should usually require approval unless the actions are low-impact, reversible, and tightly monitored.

That is why the article’s tiered model becomes important: autonomy should increase only when governance and rollback capacity increase with it.

Why are deterministic execution controls more reliable than model-level filters for securing action-taking AI systems?

Because model-level filters are still probabilistic. They may catch obvious misuse, but they cannot be trusted as the final control layer when a system can take real actions.

Deterministic controls work at the execution boundary: structured tool schemas restrict what can be sent, policy checks verify whether an action is allowed, and fail-closed behavior blocks requests that cannot be validated.

This means that even if the model is manipulated, it still cannot freely execute arbitrary actions.

Are your AI systems prepared to operate safely in production environments?

Explore how to secure and govern enterprise AI deployments →

generative AI security covering data protection, prompt injection risks, and system-level controls

Heading 1

Heading 2

Heading 3

Heading 4

Heading 5
Heading 6

Lorem ipsum dolor sit amet, consectetur adipiscing elit, sed do eiusmod tempor incididunt ut labore et dolore magna aliqua. Ut enim ad minim veniam, quis nostrud exercitation ullamco laboris nisi ut aliquip ex ea commodo consequat. Duis aute irure dolor in reprehenderit in voluptate velit esse cillum dolore eu fugiat nulla pariatur.

Block quote

Ordered list

  1. Item 1
  2. Item 2
  3. Item 3

Unordered list

  • Item A
  • Item B
  • Item C

Text link

Bold text

Emphasis

Superscript

Subscript

AI
Bewerte diesen Artikel!
Danke! Deine Einreichung ist eingegangen!
Hoppla! Beim Absenden des Formulars ist etwas schief gelaufen.
63
Bewertungen, Durchschnitt
4.8
von 5
March 11, 2026
Teilen
Text
Link copied icon
Choosing a custom AI agent development company based on architecture expertise, workflows, and implementation strategy
March 6, 2026
|
13
min. Lesezeit

How to Choose a Custom AI Agent Development Company Without Creating Technical Debt

Discover key evaluation criteria, risks, and architecture questions that will help you learn how to choose an AI agent development company without creating technical debt.

by Konstantin Karpushin
AI
Lesen Sie mehr
Lesen Sie mehr
EU AI Act compliance covering risk classification, governance requirements, and regulatory controls for AI systems
March 5, 2026
|
12
min. Lesezeit

Die Checkliste zur Einhaltung des EU-KI-Gesetzes: Eigentums-, Nachweis- und Freigabekontrolle für Unternehmen

Das EU-Gesetz über künstliche Intelligenz verändert die Art und Weise, wie Unternehmen mit der Einhaltung von Vorschriften umgehen müssen, um im Jahr 2026 wettbewerbsfähig zu bleiben.

von Konstantin Karpushin
Recht und Beratung
AI
Lesen Sie mehr
Lesen Sie mehr
AI agent evaluation process showing testing, performance validation, and checklist-based assessment of agent systems
March 4, 2026
|
12
min. Lesezeit

Bewertung von KI-Agenten: So messen Sie Zuverlässigkeit, Risiko und ROI vor der Skalierung

Erfahren Sie, wie Sie KI-Agenten vor der Skalierung auf Zuverlässigkeit, Sicherheit und ROI bewerten können. Entdecken Sie Metriken, Bewertungsrahmen und praxisnahe Verfahren. Lesen Sie den Leitfaden.

von Konstantin Karpushin
AI
Lesen Sie mehr
Lesen Sie mehr
Gen AI vs agentic AI comparison showing differences in generation, decision-making, and autonomous execution
March 3, 2026
|
10
min. Lesezeit

Gen-AI-Sicherheit: So schützen Sie Unternehmenssysteme, wenn KI eigenständig handelt

Aktuelle Studien zeigen, dass über 40 % KI-generierter Codes Sicherheitslücken enthalten. In diesem Beitrag erfahren Sie, welche KI-Sicherheitsrisiken es gibt, wie Sie diese mindern und welchen Rahmen Sie nutzen können, um Sicherheitskontrollen im gesamten KI-Systemlebenszyklus zu verankern.

von Konstantin Karpushin
AI
Lesen Sie mehr
Lesen Sie mehr
Mastering multi-agent orchestration with coordinated agents, workflow control, and distributed system execution
February 24, 2026
|
10
min. Lesezeit

Mastering Multi-Agent Orchestration: Coordination Is the New Scale Frontier

Explore why teams are switching to multi-agent systems. Learn about multi-agent AI architecture, orchestration, frameworks, step-by-step workflow implementation, and scalable multi-agent collaboration.

by Konstantin Karpushin
AI
Lesen Sie mehr
Lesen Sie mehr
LLMOps vs MLOps comparison showing differences in workflows, model operations, and AI system management
February 23, 2026
|
16
min. Lesezeit

LLMOps vs MLOps: Key Differences, Architecture & Managing the Next Generation of ML Systems

LLMOps vs MLOps explained: compare architecture, cost models, governance, and scaling challenges for managing Large Language Models and traditional ML systems.

by Konstantin Karpushin
ML
Lesen Sie mehr
Lesen Sie mehr
Cost-Effective IT Outsourcing Strategies for Businesses
December 1, 2025
|
10
min. Lesezeit

Kostengünstige IT-Outsourcing-Strategien für Unternehmen

Entdecken Sie kostengünstige IT-Outsourcing-Dienste für Unternehmen. Erfahren Sie noch heute, wie Sie sich besser konzentrieren und auf fachkundige Talente zugreifen und gleichzeitig die Betriebskosten senken können!

von Konstantin Karpushin
IT
Lesen Sie mehr
Lesen Sie mehr
Choosing the Best Mobile App Development Company
November 28, 2025
|
10
min. Lesezeit

Auswahl des besten Unternehmens für die Entwicklung mobiler Apps

Discover the best mobile app development company for your needs. Learn key traits and leading industry teams that can elevate your project and drive success.

by Konstantin Karpushin
IT
Lesen Sie mehr
Lesen Sie mehr
Top MVP Development Agencies to Consider
November 26, 2025
|
10
min. Lesezeit

Die besten MVP-Entwicklungsagenturen, die Sie in Betracht ziehen sollten

Entdecken Sie die besten MVP-Entwicklungsagenturen, um Ihr Startup weiterzuentwickeln. Erfahren Sie, wie die Zusammenarbeit mit Produktagenturen mit einem Minimum an rentablen Produkten Ihren Erfolg beschleunigen kann.

von Konstantin Karpushin
IT
Lesen Sie mehr
Lesen Sie mehr
Top Programming Languages for Mobile Apps
November 25, 2025
|
13
min. Lesezeit

Die besten Programmiersprachen für mobile Apps

Entdecken Sie die besten Entwicklungssprachen für mobile Apps, um die beste Programmiersprache für Ihr Projekt auszuwählen. Erfahre mehr über native und plattformübergreifende Optionen!

von Myroslav Budzanivskyi
IT
Lesen Sie mehr
Lesen Sie mehr
Logo Codebridge

Lass uns zusammenarbeiten

Haben Sie ein Projekt im Sinn?
Erzählen Sie uns alles über Ihr Projekt oder Produkt, wir helfen Ihnen gerne weiter.
call icon
+1 302 688 70 80
email icon
business@codebridge.tech
Datei anhängen
Mit dem Absenden dieses Formulars stimmen Sie der Verarbeitung Ihrer über das obige Kontaktformular hochgeladenen personenbezogenen Daten gemäß den Bedingungen von Codebridge Technology, Inc. zu. s Datenschutzrichtlinie.

Danke!

Ihre Einreichung ist eingegangen!

Was kommt als Nächstes?

1
Unsere Experten analysieren Ihre Anforderungen und setzen sich innerhalb von 1-2 Werktagen mit Ihnen in Verbindung.
2
Unser Team sammelt alle Anforderungen für Ihr Projekt und bei Bedarf unterzeichnen wir eine Vertraulichkeitsvereinbarung, um ein Höchstmaß an Datenschutz zu gewährleisten.
3
Wir entwickeln einen umfassenden Vorschlag und einen Aktionsplan für Ihr Projekt mit Schätzungen, Zeitplänen, Lebensläufen usw.
Hoppla! Beim Absenden des Formulars ist etwas schief gelaufen.