Risiken durch KI-Anwendungen
Die Sicherheit von KI-Systemen hinkt der rasant gestiegen Nutzung seit ihrer Einführung immer noch deutlich hinterher – hier die wichtigsten Risiken für Unternehmen im Überblick.
Drei Jahre nach der Einführung von ChatGPT vergeht kaum eine Woche ohne Nachrichten zu künstlicher Intelligenz (KI). Allein in den letzten Tagen hat der KI‑Anbieter Perplexity eine neue „Gesundheits‑KI“ vorgestellt, OpenAI die Entwicklung einer neuen „Forschungs‑KI“ angekündigt, und der Kreditkartenanbieter Visa testet nach eigener Aussage KI‑Agenten, die eigenständig Zahlungen ausführen können.
Die Möglichkeiten von KI sind aufregend, haben aber auch ihre Schattenseiten. Neben Berichten über neue Features häufen sich Meldungen zu Datenlecks und Cyberangriffen, die durch Schwachstellen in KI‑Systemen ermöglicht wurden.
Durch die Komplexität, die rasante Entwicklung und das geringe Verständnis von KI fällt es Unternehmen oft schwer, die potenziellen Risiken von KI-Systemen zu erkennen und zu bewältigen.
Diese Risiken lassen sich grob in drei Kategorien einteilen: Datenschutzverletzungen, Übermäßiges Vertrauen, und verwundbare KI-Anwendungen.
Datenschutzverletzungen durch KI-Nutzung
Die gängigsten KI‑Systeme, von ChatGPT und Gemini bis zu Perplexity und Claude, sind nicht in der EU ansässig. Viele haben ihren Sitz in den USA, die nicht gerade für strenge Datenschutzgesetze bekannt sind. So hat z.B. das EU‑Parlament aus Datenschutzbedenken die eingebauten KI‑Funktionen in den Dienstgeräten der Abgeordneten deaktiviert. Obwohl es datensparsame und DSGVO‑konforme Alternativen gibt, ist das Datenschutzproblem bei KI ähnlich wie bei der Cloud: Solange Unternehmen ihre eigene KI nicht betreiben, müssen sie der IT‑Sicherheit und den Datenschutzversprechungen der KI‑Anbieter vertrauen.
Übermäßiges Vertrauen und Coding-Agents
KI-Systeme sind längst nicht mehr nur als Chatbots verfügbar. Der aktuelle Trend geht in Richtung „agentic“-Systeme, also autonomer KI-Agenten, die mit wenig oder ganz ohne menschliche Intervention verschiedene Aufgaben übernehmen. Solche Agenten finden sich inzwischen in nahezu allen Bereichen, auch in sicherheitskritischen Feldern wie die Softwareentwicklung, der Angriffserkennung und der Netzwerksicherheit.
Besonders im Trend sind KI‑Coding‑Tools: Laut einem Bericht von Google nutzen über 90 % der Developer KI bei der Softwareentwicklung. Aus Sicht der Sicherheit ist das besorgniserregend – Untersuchungen zeigen, dass rund 45 % der mit KI entwickelten Applikationen Sicherheitslücken aufweisen. Das bedeutet nicht, dass KI in der Softwareentwicklung oder in anderen kritischen Bereichen grundsätzlich vermieden werden sollte, für die sichere Softwareentwicklung braucht es jedoch weiterhin menschliche Kontrolle und unabhängige Validierung.
Verwundbare KI-Anwendungen
Neben den „traditionellen“ Schwachstellen in KI‑entwickelter Software können auch die KI‑Systeme selbst Sicherheitslücken aufweisen. Laut dem „TrendAI State of AI Security Report“ wurden allein im Jahr 2025 über 2000 KI‑bezogene Sicherheitslücken gemeldet. Nicht nur die Quantität stieg, auch der Schweregrad der Schwachstellen nahm zu. Durch Sicherheitslücken in KI-Anwendungen konnten in der Vergangenheit nicht nur Nutzerdaten gestohlen werden, häufig dienten sie als Einfallstor, um das Unternehmen an sich anzugreifen.
Die Daten zeichnen ein klares Bild: Wenn Organisationen KI‑Anwendungen ausrollen, muss die IT‑Sicherheit die Basis jedes Projekts sein.
Ansprechperson
Haben Sie Fragen oder Hinweise zum Thema IT-Sicherheitsprüfungen und Penetrationstests? Wenden Sie sich gerne an Nimrod Briller.