{"id":3241,"date":"2025-05-20T14:06:17","date_gmt":"2025-05-20T14:06:17","guid":{"rendered":"https:\/\/cybersecurityinfocus.com\/?p=3241"},"modified":"2025-05-20T14:06:17","modified_gmt":"2025-05-20T14:06:17","slug":"8-ki-sicherheitsrisiken-die-unternehmen-ubersehen","status":"publish","type":"post","link":"https:\/\/cybersecurityinfocus.com\/?p=3241","title":{"rendered":"8 KI-Sicherheitsrisiken, die Unternehmen \u00fcbersehen"},"content":{"rendered":"<div>\n<div class=\"grid grid--cols-10@md grid--cols-8@lg article-column\">\n<div class=\"col-12 col-10@md col-6@lg col-start-3@lg\">\n<div class=\"article-column__content\">\n<div class=\"container\"><\/div>\n<div class=\"extendedBlock-wrapper block-coreImage undefined\">In ihrem Wettlauf um Produktivit\u00e4tssteigerungen durch generative KI \u00fcbersehen die meisten Unternehmen die damit verbundenen Sicherheitsrisiken.\n<p class=\"imageCredit\">Summit Art Creations \u2013 Shutterstock.com<\/p>\n<\/div>\n<p>Laut einer <a href=\"https:\/\/reports.weforum.org\/docs\/WEF_Global_Cybersecurity_Outlook_2025.pdf\" target=\"_blank\" rel=\"noopener\">Studie des Weltwirtschaftsforums<\/a>, die in Zusammenarbeit mit Accenture durchgef\u00fchrt wurde, vers\u00e4umen es 63 Prozent der Unternehmen, die Sicherheit von KI-Tools vor deren Einsatz zu \u00fcberpr\u00fcfen. Dadurch gehen sie eine Reihe von Risiken f\u00fcr ihr Unternehmen ein.<\/p>\n<p>Dies gilt sowohl f\u00fcr handels\u00fcbliche KI-L\u00f6sungen als auch f\u00fcr interne Implementierungen, die in Zusammenarbeit mit Softwareentwicklungsteams erstellt wurden. So zeigt der <a href=\"https:\/\/www.tricentis.com\/blog\/quality-transformation-report-key-findings\" target=\"_blank\" rel=\"noopener\">Tricentis 2025 Quality Transformation Report<\/a>, dass Organisationen \u00fcberwiegend auf die Verbesserung der Liefergeschwindigkeit (45 Prozent) und weniger auf die Verbesserung der Softwarequalit\u00e4t (13 Prozent) ausgerichtet sind. Ein Drittel (32 Prozent) der Befragten gibt allerdings zu, dass minderwertige Software wahrscheinlich zu h\u00e4ufigeren Sicherheitsverletzungen oder Compliance-Verst\u00f6\u00dfen f\u00fchren wird.<\/p>\n<p>Doch diese Verst\u00f6\u00dfe werden immer h\u00e4ufiger. Der k\u00fcrzlich ver\u00f6ffentlichte <a href=\"https:\/\/newsroom.cisco.com\/c\/r\/newsroom\/en\/us\/a\/y2025\/m05\/cybersecurity-readiness-index-2025.html\" target=\"_blank\" rel=\"noopener\">Cybersecurity Readiness Index<\/a> von Cisco ergab, dass 86 Prozent der Unternehmen im vergangenen Jahr einen KI-bezogenen Sicherheitsvorfall erlebt haben. Weniger als die H\u00e4lfte (45 Prozent) glauben, dass ihr Unternehmen \u00fcber die internen Ressourcen und das Fachwissen verf\u00fcgt, um umfassende KI-Sicherheitsbewertungen durchzuf\u00fchren.<\/p>\n<h2 class=\"wp-block-heading\"><strong>Die h\u00e4ufigsten KI-Sicherheitsrisiken<\/strong><\/h2>\n<p>Wenn KI-Anwendungen vor ihrer Einf\u00fchrung nicht ausreichend getestet werden, sind Unternehmen einer Reihe von Schwachstellen ausgesetzt, die sich laut den von CSO befragten Experten erheblich von den Risiken herk\u00f6mmlicher Software unterscheiden. Hier sind die h\u00e4ufigsten.<\/p>\n<h2 class=\"wp-block-heading\"><strong>Datenoffenlegung<\/strong><\/h2>\n<p>KI-Systeme verarbeiten oft gro\u00dfe Mengen sensibler Informationen. Ohne robuste Tests k\u00f6nnen Unternehmen \u00fcbersehen, wie leicht diese Daten durch ungesicherte Speicherung, zu gro\u00dfz\u00fcgige API-Antworten oder schlechte Zugriffskontrollen verloren gehen k\u00f6nnen.<\/p>\n<p>\u201eViele KI-Systeme nehmen w\u00e4hrend der Inferenz Benutzerdaten auf oder speichern Kontextinformationen f\u00fcr die Fortf\u00fchrung der Session\u201c, erkl\u00e4rt Peter Garraghan, Gesch\u00e4ftsf\u00fchrer und Mitbegr\u00fcnder des KI-Sicherheitstesters Mindgard. \u201eWenn die Datenverarbeitung nicht \u00fcberpr\u00fcft wird, besteht ein hohes Risiko von Datenlecks durch Modellausgaben, Log-Exposure oder den Missbrauch fein abgestimmter Datens\u00e4tze. Diese Risiken werden durch LLM-Speicherfunktionen (Large Language Model) oder Streaming-Ausgabemodi noch verst\u00e4rkt.\u201c<\/p>\n<p>Lesetipp: <a href=\"https:\/\/www.csoonline.com\/article\/3854432\/mit-genai-zum-insider-threat.html\" target=\"_blank\" rel=\"noopener\">Mit GenAI zum Insider-Threat<\/a><\/p>\n<h2 class=\"wp-block-heading\"><strong>Schwachstellen auf Modellebene<\/strong><\/h2>\n<p>Dazu geh\u00f6ren <a href=\"https:\/\/www.csoonline.com\/article\/575497\/owasp-lists-10-most-critical-large-language-model-vulnerabilities.html\" target=\"_blank\" rel=\"noopener\">Prompt-Injection, Jailbreaks und Adversarial Prompt Chaining<\/a>. Ohne strenge Tests k\u00f6nnen Modelle manipuliert werden, um Ausgabebeschr\u00e4nkungen zu umgehen, sensible Daten preiszugeben oder unbeabsichtigte Aufgaben auszuf\u00fchren.<\/p>\n<p>\u201eDiese Angriffe nutzen h\u00e4ufig Schwachstellen in den Justiermechanismen des Modells oder dessen Abh\u00e4ngigkeit von Reasoning auf Token-Ebene\u201c, f\u00fchrt der Experte f\u00fcr KI-Sicherheit aus.<\/p>\n<h2 class=\"wp-block-heading\"><strong>Modellintegrit\u00e4t und gegnerische Angriffe<\/strong><\/h2>\n<p>Ohne Tests auf gegnerische Manipulationen oder vergiftete Trainingsdaten k\u00f6nnen Angreifer leicht <a href=\"https:\/\/www.csoonline.com\/article\/2139630\/ai-system-poisoning-is-a-growing-threat-is-your-security-regime-ready.html\" target=\"_blank\" rel=\"noopener\">das Verhalten eines KI-Modells beeinflussen<\/a>, insbesondere wenn es zur Unterst\u00fctzung von Gesch\u00e4ftsentscheidungen oder zur Automatisierung sensibler Aufgaben eingesetzt wird.<\/p>\n<p>\u201eAngreifer k\u00f6nnen Eingabedaten manipulieren, um KI-Modelle zu t\u00e4uschen und sie zu falschen Entscheidungen zu verleiten. Dazu geh\u00f6ren Umgehungsangriffe und Data Poisoning\u201c, erl\u00e4utert Jano Bermudes, COO des globalen Cyberberatungsunternehmens CyXcel.<\/p>\n<h2 class=\"wp-block-heading\"><strong>Systemische Integrationsrisiken<\/strong><\/h2>\n<p>KI-Modelle werden h\u00e4ufig als Teil gr\u00f6\u00dferer Anwendungspipelines eingesetzt, beispielsweise \u00fcber APIs, Plugins oder <a href=\"https:\/\/www.infoworld.com\/article\/2335814\/what-is-retrieval-augmented-generation-more-accurate-and-reliable-llms.html\"><strong>Retrieval-Augmented Generation (RAG)<\/strong><\/a>-Architekturen. \u201eUnzureichende Tests auf dieser Ebene k\u00f6nnen zu einer unsicheren Verarbeitung von Modelleingaben und -ausgaben, Injektionspfaden \u00fcber serialisierte Datenformate und einer Ausweitung von Berechtigungen innerhalb der Hosting-Umgebung f\u00fchren\u201c, mahnt Garraghan von Mindgard. \u201cDiese Integrationspunkte werden in herk\u00f6mmlichen AppSec-Workflows (Application Security) h\u00e4ufig \u00fcbersehen.\u201c<\/p>\n<h2 class=\"wp-block-heading\"><strong>Fehler bei der Zugriffskontrolle<\/strong><\/h2>\n<p>KI-Tools werden oft in gr\u00f6\u00dfere Systeme eingebunden und k\u00f6nnen bei falscher Konfiguration Benutzern oder Angreifern mehr Zugriff gew\u00e4hren als beabsichtigt. Dazu k\u00f6nnen offengelegte API-Schl\u00fcssel, mangelhafte Authentifizierung oder unzureichende Protokollierung geh\u00f6ren, die es schwierig machen, Missbrauch zu erkennen.<\/p>\n<h2 class=\"wp-block-heading\"><strong>Sicherheitsl\u00fccken in der Laufzeit<\/strong><\/h2>\n<p>Manche KI-Systeme k\u00f6nnen nur w\u00e4hrend der Bereitstellung unerwartete Verhaltensweisen zeigen, insbesondere wenn sie unter dynamischen Eingabebedingungen arbeiten oder mit anderen Diensten interagieren.<\/p>\n<p>\u201eSchwachstellen wie Logikfehler, Kontext\u00fcberl\u00e4ufe oder Output-Reflection treten oft erst w\u00e4hrend der Laufzeit auf und erfordern operative Red-Teaming-Ma\u00dfnahmen oder Live-Traffic-Simulationen, um sie zu erkennen\u201c, so Garraghan.<\/p>\n<h2 class=\"wp-block-heading\"><strong>Verst\u00f6\u00dfe gegen Compliance<\/strong><\/h2>\n<p>Wenn nicht sichergestellt wird, dass KI-Tools die gesetzlichen Standards erf\u00fcllen, kann dies rechtliche Konsequenzen haben. Beispielsweise k\u00f6nnen Verst\u00f6\u00dfe gegen Vorschriften durch unbefugte Datenverarbeitung durch KI-Tools oder Ausf\u00e4lle aufgrund von ungetesteten Modellverhalten bei gro\u00dfem Umfang auftreten.<\/p>\n<p>Lesetipp: <a href=\"https:\/\/www.csoonline.com\/article\/3959003\/10-essentials-fur-die-ki-richtlinie-in-unternehmen.html\" target=\"_blank\" rel=\"noopener\">10 Essentials f\u00fcr die KI-Richtlinie in Unternehmen<\/a><\/p>\n<h2 class=\"wp-block-heading\"><strong>Weiterreichende betriebliche Auswirkungen<\/strong><\/h2>\n<p>\u201eDiese technischen Schwachstellen existieren nicht isoliert, wenn sie nicht getestet werden\u201c, betont der Mindgard-Experte. \u201cSie manifestieren sich als umfassendere organisatorische Risiken, die \u00fcber den Bereich der Technik hinausgehen. Aus Sicht der betrieblichen Auswirkungen lassen sich die Folgen unzureichender KI-Sicherheitstests direkt auf M\u00e4ngel in den Bereichen Sicherheit, Schutz und Gesch\u00e4ftssicherheit zur\u00fcckf\u00fchren.\u201c<\/p>\n<p>Auch Sam Peters, Chief Product Officer beim Compliance-Experten ISMS.online, sieht weitreichende betriebliche Folgen, wenn angemessene KI-Sicherheitspr\u00fcfungen vernachl\u00e4ssigt werden. \u201eWenn KI-Systeme \u00fcberst\u00fcrzt in die Produktion gehen, sehen wir wiederkehrende Schwachstellen in den drei Schl\u00fcsselbereichen: Modellintegrit\u00e4t (einschlie\u00dflich Poisoning- und Evasion-Angriffen), Datenschutz (z. B. Verlust von Trainingsdaten oder unsachgem\u00e4\u00dfer Umgang mit sensiblen Daten) und Governance-L\u00fccken (von mangelnder Transparenz bis hin zu unzureichender Zugriffskontrolle).\u201c<\/p>\n<p>Peters f\u00fcgt hinzu: \u201eDiese Probleme sind nicht hypothetisch, sie werden bereits in der Praxis ausgenutzt.\u201c<\/p>\n<h2 class=\"wp-block-heading\"><strong>Testen vor der Auslieferung<\/strong><\/h2>\n<p>James Lei, Chief Operating Officer beim Anwendungssicherheitstester Sparrow, r\u00e4t CISOs, den ungebremsten Enthusiasmus bei der KI-Einf\u00fchrung zu Gunsten grundlegender Sicherheitspraktiken zu d\u00e4mpfen.<\/p>\n<p>\u201eUm diese Risiken zu reduzieren, sollten Unternehmen KI-Tools genauso testen wie jede andere risikoreiche Software: Sie sollten simulierte Angriffe durchf\u00fchren, Missbrauchsszenarien \u00fcberpr\u00fcfen, Eingabe- und Ausgabestr\u00f6me validieren und sicherstellen, dass alle verarbeiteten Daten angemessen gesch\u00fctzt sind\u201c, sagt er.<\/p>\n<p>Um diese Risiken zu mindern, sollten Unternehmen umfassende Teststrategien implementieren, darunter:<\/p>\n<p><strong>Penetrationstests:<\/strong> Simulation von Angriffen zur Identifizierung von Schwachstellen<\/p>\n<p><strong>Bias- und Fairness-Audits:<\/strong> Sicherstellen, dass KI-Entscheidungen gerecht und nicht diskriminierend sind<\/p>\n<p><strong>Compliance-Pr\u00fcfungen:<\/strong> \u00dcberpr\u00fcfen der Einhaltung relevanter Vorschriften und Standards<\/p>\n<p>Durch die Integration von Sicherheitstests in den KI-Entwicklungszyklus k\u00f6nnen Unternehmen die Vorteile der KI nutzen und sich gleichzeitig vor potenziellen Bedrohungen sch\u00fctzen.<\/p>\n<p>\u201eVor dem Einsatz von KI-Tools sollten Unternehmen eine f\u00fcr KI-Systeme spezifische Bedrohungsmodellierung durchf\u00fchren, Red-Teaming f\u00fcr feindliche Eingaben durchf\u00fchren und robuste Tests auf Modellabweichungen und Datenlecks durchf\u00fchren\u201c, empfiehlt Peters von ISMS.online. \u201cGleichzeitig sollten sie KI-spezifische Kontrollen in ihre Risikomanagement- und Compliance-Programme integrieren.\u201c<\/p>\n<p>Peters f\u00fcgt hinzu: \u201eHier kann die neue <a href=\"https:\/\/www.iso.org\/standard\/81230.html\" target=\"_blank\" rel=\"noopener\">ISO\/IEC 42001-Norm<\/a> wirklich helfen. Sie bietet einen Rahmen f\u00fcr den verantwortungsvollen Umgang mit KI, einschlie\u00dflich Leitlinien zur Risikobewertung, Datenverarbeitung, Sicherheitskontrollen und kontinuierlichen \u00dcberwachung.\u201c<\/p>\n<p>Andere Experten best\u00e4tigten zwar die Notwendigkeit von Sicherheitstests, argumentierten jedoch, dass bei der Pr\u00fcfung der Sicherheit KI-basierter Systeme ein anderer Ansatz verfolgt werden m\u00fcsse.<\/p>\n<p>\u201eIm Gegensatz zu regul\u00e4ren Softwaretests kann man nicht einfach den Code eines neuronalen Netzwerks \u00fcberpr\u00fcfen, um festzustellen, ob es sicher ist\u201c, erkl\u00e4rt <a href=\"https:\/\/inti.io\/about\">Inti De Ceukelaire<\/a>, Chief Hacker Officer beim Crowdsourcing-Sicherheitsanbieter Intigriti, gegen\u00fcber CSO. \u201cSelbst wenn es mit sauberen, hochwertigen Daten trainiert wurde, kann es sich dennoch seltsam verhalten. Das macht es schwierig zu wissen, wann man genug getestet hat.\u201c<\/p>\n<p>KI-Tools bieten oft eine komplexe L\u00f6sung f\u00fcr ein einfaches Problem. Tester konzentrieren sich m\u00f6glicherweise nur auf das, was das Tool tun soll, und \u00fcbersehen andere Funktionen. \u201eEin \u00dcbersetzungs-Tool k\u00f6nnte beispielsweise dazu gebracht werden, eine PDF-Datei mit b\u00f6sartigem Code zu \u00f6ffnen oder auf interne Dateien zuzugreifen und diese f\u00fcr jemanden au\u00dferhalb des Unternehmens zu \u00fcbersetzen\u201c, so De Ceukelaire.<\/p>\n<p>Unternehmen sollten die Implementierung von speziell f\u00fcr KI entwickelten Adversarial-Test-Frameworks in Betracht ziehen.<\/p>\n<p>\u201eDazu geh\u00f6ren statische Modellanalysen, dynamisches Prompt-Fuzzing, Simulationen von Angriffen auf die Integrationsebene und die \u00dcberwachung des Laufzeitverhaltens\u201c, erg\u00e4nzt Garraghan von Mindgard. \u201cDiese Praktiken sollten genauso in den Lebenszyklus der KI-Bereitstellung integriert werden wie DevSecOps-Praktiken in Software-CI\/CD-Pipelines.\u201c (jm)<\/p>\n<p>Lesetipp: <a href=\"https:\/\/www.csoonline.com\/article\/3967124\/slopsquatting-die-neue-cyber-bedrohung-dank-ki.html\" target=\"_blank\" rel=\"noopener\">Slopsquatting \u2013 die neue Cyber-Bedrohung dank KI<\/a><\/p>\n<\/div>\n<\/div>\n<\/div>\n<\/div>","protected":false},"excerpt":{"rendered":"<p>In ihrem Wettlauf um Produktivit\u00e4tssteigerungen durch generative KI \u00fcbersehen die meisten Unternehmen die damit verbundenen Sicherheitsrisiken. Summit Art Creations \u2013 Shutterstock.com Laut einer Studie des Weltwirtschaftsforums, die in Zusammenarbeit mit Accenture durchgef\u00fchrt wurde, vers\u00e4umen es 63 Prozent der Unternehmen, die Sicherheit von KI-Tools vor deren Einsatz zu \u00fcberpr\u00fcfen. Dadurch gehen sie eine Reihe von Risiken [&hellip;]<\/p>\n","protected":false},"author":0,"featured_media":3242,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[3],"tags":[],"class_list":["post-3241","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-education"],"_links":{"self":[{"href":"https:\/\/cybersecurityinfocus.com\/index.php?rest_route=\/wp\/v2\/posts\/3241"}],"collection":[{"href":"https:\/\/cybersecurityinfocus.com\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/cybersecurityinfocus.com\/index.php?rest_route=\/wp\/v2\/types\/post"}],"replies":[{"embeddable":true,"href":"https:\/\/cybersecurityinfocus.com\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=3241"}],"version-history":[{"count":0,"href":"https:\/\/cybersecurityinfocus.com\/index.php?rest_route=\/wp\/v2\/posts\/3241\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/cybersecurityinfocus.com\/index.php?rest_route=\/wp\/v2\/media\/3242"}],"wp:attachment":[{"href":"https:\/\/cybersecurityinfocus.com\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=3241"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/cybersecurityinfocus.com\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=3241"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/cybersecurityinfocus.com\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=3241"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}