{"id":1305,"date":"2024-12-19T04:15:00","date_gmt":"2024-12-19T04:15:00","guid":{"rendered":"https:\/\/cybersecurityinfocus.com\/?p=1305"},"modified":"2024-12-19T04:15:00","modified_gmt":"2024-12-19T04:15:00","slug":"die-10-haufigsten-llm-schwachstellen","status":"publish","type":"post","link":"https:\/\/cybersecurityinfocus.com\/?p=1305","title":{"rendered":"Die 10 h\u00e4ufigsten LLM-Schwachstellen"},"content":{"rendered":"<div>\n<div class=\"grid grid--cols-10@md grid--cols-8@lg article-column\">\n<div class=\"col-12 col-10@md col-6@lg col-start-3@lg\">\n<div class=\"article-column__content\">\n<div class=\"container\"><\/div>\n<div class=\"extendedBlock-wrapper block-coreImage undefined\">\n<p>Diese Schwachstellen sollten Sie kennen, damit Ihnen Ihr Large Language Model nicht um die Ohren fliegt.<\/p>\n<p class=\"imageCredit\">VectorMine | shutterstock.com<\/p>\n<\/div>\n<p>Das Open Worldwide Application Security Project (OWASP) hat seine Top Ten der kritischsten Schwachstellen bei Large Language Models (<a href=\"https:\/\/www.computerwoche.de\/a\/was-sind-llms,3614567\">LLMs<\/a>) aktualisiert.<\/p>\n<p>Mit ihrer <a href=\"https:\/\/genai.owasp.org\/download\/43299\" target=\"_blank\" rel=\"noopener\">Top-Ten-Liste<\/a> (PDF) wollen die OWASP-Security-Experten Unternehmen(sanwender) \u00fcber die <a href=\"https:\/\/www.csoonline.com\/article\/3493126\/genai-security-als-checkliste.html\">potenziellen Risiken<\/a> beim Einsatz von gro\u00dfen Sprachmodellen aufkl\u00e4ren, Awareness schaffen und mit Abhilfestrategien dabei unterst\u00fctzen, das Sicherheitsniveau von (Generative-)AI-Anwendungen zu optimieren.<\/p>\n<h2 class=\"wp-block-heading\">Top 10: LLM-Schwachstellen 2025<\/h2>\n<p>Im Folgenden haben wir die aus OWASP-Perspektive zehn kritischsten LLM-Schwachstellen in aller K\u00fcrze zusammengefasst. Weiterf\u00fchrende Informationen, Links und detailreiche Angriffsbeispiele entnehmen Sie dem oben verlinkten PDF.<\/p>\n<p><strong>1. Prompt Injection<\/strong><\/p>\n<p>Mit <a href=\"https:\/\/www.csoonline.com\/article\/3560109\/security-tools-fur-ki-infrastrukturen-ein-kaufratgeber.html\">Prompt-Injection-Angriffen<\/a> wollen Cyberkriminelle Filterfunktionen umgehen oder das Large Language Model mit sorgf\u00e4ltig ausgearbeiteten Prompts manipulieren. Das kann laut den OWASP-Experten unter anderem dazu f\u00fchren, dass:<\/p>\n<p>sensible Informationen offengelegt werden,<\/p>\n<p>nicht korrekte oder Bias-intensive Outputs generiert werden,<\/p>\n<p>nicht autorisierter Zugriff auf LLM-Funktionen erfolgt,<\/p>\n<p>willk\u00fcrliche Befehle auf verbundenen Systemen ausgef\u00fchrt werden.<\/p>\n<p>\u201eMultimodalen KI-Systemen, die mehrere Datentypen parallel verarbeiten, sind einzigartige Prompt-Injection-Risiken inh\u00e4rent\u201c, schreiben die OWASP-Experten und f\u00fcgen mahnend hinzu: \u201eDie Komplexit\u00e4t dieser Systeme vergr\u00f6\u00dfert die Angriffsfl\u00e4che. Spezifische Abwehrma\u00dfnahmen f\u00fcr multimodale Systeme zu entwickeln, ist ein wichtiger Bereich f\u00fcr k\u00fcnftige Forschungsbem\u00fchungen.\u201c<\/p>\n<p>Um sich gegen Prompt Injections zu sch\u00fctzen, empfiehlt OWASP:<\/p>\n<p>das Model Behavior einzugrenzen;<\/p>\n<p>erwartete Output-Formate zu definieren und zu validieren;<\/p>\n<p>Input- und Output-Filtering zu implementieren;<\/p>\n<p>Privilege Control und Least Privilege Access durchzusetzen;<\/p>\n<p>manuelle Best\u00e4tigungsprozesse f\u00fcr risikobehaftete Tasks einzusetzen;<\/p>\n<p>externen Content zu identifizieren und zu separieren;<\/p>\n<p>Adversarial Testing und Angriffssimulationen zu nutzen.<\/p>\n<p><strong>2. Offenlegung sensibler Informationen<\/strong><\/p>\n<p>Wenn ein LLM mit seinen Antworten versehentlich sensible Informationen preisgibt, ist die Schadensbandbreite potenziell hoch, wie die OWASP-Experten festhalten: \u201eBesonders LLMs, die in Applikationen eingebettet sind, laufen Gefahr, sensible Daten, propriet\u00e4re Algorithmen oder vertrauliche Informationen \u00fcber ihren Output preiszugeben. Das kann zu nicht autorisiertem Datenzugriff und Datenschutzverst\u00f6\u00dfen f\u00fchren und gef\u00e4hrdet potenziell <a href=\"https:\/\/www.csoonline.com\/article\/3491624\/geistiges-eigentum-schutzenwas-cisos-vom-fall-motorola-lernen-konnen.html\">geistiges Eigentum<\/a>.\u201c<\/p>\n<p>Um solchen Kompromittierungen vorzubeugen, empfiehlt OWASP:<\/p>\n<p>Data-Sanitization-Techniken zu implementieren;<\/p>\n<p>strikte Methoden zur Validierung von Inputs anzuwenden;<\/p>\n<p>Access-Control-Ma\u00dfnahmen zu etablieren;<\/p>\n<p>den Modellzugriff auf externe Datenquellen zu begrenzen;<\/p>\n<p>Federated Learning f\u00fcr das Modelltraining einzusetzen;<\/p>\n<p>den Differential-Privacy-Ansatz umzusetzen;<\/p>\n<p>Benutzer im Umgang mit LLMs und Daten zu schulen;<\/p>\n<p>Systemkonfigurationen anzupassen;<\/p>\n<p>Homomorphic Encryption zu nutzen;<\/p>\n<p>Tokenization zu implementieren.<\/p>\n<p><strong>3. Supply Chain<\/strong><\/p>\n<p>Laut den OWASP-Experten sind die Lieferketten von Large Language Models <a href=\"https:\/\/www.csoonline.com\/article\/3492170\/third-party-risk-management-5-wege-mit-drittanbietern-unterzugehen.html\">an mehreren Stellen<\/a> anf\u00e4llig f\u00fcr Manipulationen: \u201eDas kann in Bias-behafteten Outputs, Security Breaches oder Systemfehlern resultieren. W\u00e4hrend bei traditionellen Softwareschwachstellen der Fokus auf Unzul\u00e4nglichkeiten und Abh\u00e4ngigkeiten innerhalb des Codes liegt, beziehen sich die Risiken von Machine Learning auch auf vortrainierte Modelle und Trainingsdaten von Drittanbietern.\u201c<\/p>\n<p>Diese externen Elemente lie\u00dfen sich zum Beispiel durch Poisoning-Angriffe manipulieren, warnen die Sicherheitsexperten. \u00a0Zur Vorbeugung empfehlen sie:<\/p>\n<p>Datenquellen und Drittanbieter (sowie deren Datenschutzrichtlinien und Partner) im Rahmen von Reviews und Audits genau unter die Lupe zu nehmen;\u00a0<\/p>\n<p>Vulnerability Scanning und Patch Management zu fokussieren;<\/p>\n<p>AI Red Teaming und Evaluierung bei Drittanbieter-Modellen einzusetzen;<\/p>\n<p><a href=\"https:\/\/www.csoonline.com\/article\/3492152\/software-bill-of-material-umsetzen-die-8-besten-sbom-tools.html\">SBOMs<\/a> zu nutzen;<\/p>\n<p>Tools f\u00fcr automatisiertes Lizenzmanagement einzusetzen;<\/p>\n<p>Integrit\u00e4tschecks \u00fcber Hash Files einzuziehen und Code Signing zu nutzen;<\/p>\n<p>strikte Monitoring- und Audit-Guidelines bei kollaborativer Modellentwicklung anzuwenden;<\/p>\n<p>Anomaly Detection und Adversarial Testing einzusetzen. \u00a0<\/p>\n<p><strong>4. Data und Model Poisoning<\/strong><\/p>\n<p>Werden Daten f\u00fcr Pretraining, Feintuning oder Embedding manipuliert, um Schwachstellen, Hintert\u00fcren oder Bias zu erzeugen, spricht man von <a href=\"https:\/\/www.csoonline.com\/article\/3492864\/ki-quantencomputer-und-poisoning-das-sind-die-neuen-cybergefahren.html\">Data Poisoning<\/a>. \u201eDiese Art der Manipulation kann die Modellsicherheit und -Performance kompromittieren und zu schadhaften Outputs oder eingeschr\u00e4nkten F\u00e4higkeiten f\u00fchren\u201c, erl\u00e4utern die OWASP-Experten. \u00a0\u00a0<\/p>\n<p>Um Angriffe dieser Art zu verhindern, empfehlen sie:<\/p>\n<p>Daten und m\u00f6gliche Transformationen mit entsprechenden Tools zu tracken;<\/p>\n<p>Daten-Vendoren ausgiebig zu \u00fcberpr\u00fcfen und Modell-Outputs zu validieren;<\/p>\n<p>striktes Sandboxing zu implementieren und Techniken zur Anomalieerkennung zu nutzen;<\/p>\n<p>Modelle mit spezifischen Datens\u00e4tzen feinabzustimmen;<\/p>\n<p>Infrastruktur-Kontrollma\u00dfnahmen einzuziehen, um zu verhindern, dass Modelle auf nicht erw\u00fcnschte Datenquellen zugreifen;<\/p>\n<p>Data Version Control einzusetzen, um Ver\u00e4nderungen an Datens\u00e4tzen zu erkennen;<\/p>\n<p>Informationen von Benutzern in Vektordatenbanken zu speichern, um Anpassungen ohne Retraining vornehmen zu k\u00f6nnen;<\/p>\n<p>Modelle mit Red Teaming und Adversarial Testing zu \u00fcberpr\u00fcfen;<\/p>\n<p>den Verlust von Trainingsdaten zu \u00fcberwachen und das Modellverhalten auf Anhaltspunkte f\u00fcr Poisoning zu analysieren;<\/p>\n<p>Modellhalluzinationen mit Retrieval Augmented Generation (RAG) und Grounding-Techniken zu reduzieren. \u00a0<\/p>\n<p><strong>5. Improper Output Handling<\/strong><\/p>\n<p>\u201eImproper Output Handling bezieht sich darauf, dass die von gro\u00dfen Sprachmodellen generierten Outputs unzureichend validiert, bereinigt und gehandhabt werden, bevor sie an andere Komponenten und Systeme weitergeleitet werden\u201c, erl\u00e4utert OWASP. Falls Angreifer solche Improper-Output-Handling-Schwachstellen ausnutzten, k\u00f6nne das zu <a href=\"https:\/\/www.csoonline.com\/article\/3492314\/cross-site-scripting-erklart-was-ist-ein-xss-angriff.html\">Cross-Site-Scripting<\/a>\u2013 und Server-side Request-Forgery-Angriffen, <a href=\"https:\/\/www.computerwoche.de\/article\/2797569\/was-sie-ueber-rechteausweitung-wissen-muessen.html\">Privilege Escalation<\/a> oder Remote Code Execution f\u00fchren.<\/p>\n<p>Pr\u00e4ventive Ma\u00dfnahmen, um das zu verhindern, sind laut OWASP:<\/p>\n<p>einen Zero-Trust-Ansatz zu verfolgen und Modelle wie User zu behandeln;<\/p>\n<p>effektive Ma\u00dfnahmen einzusetzen, um Inputs zu validieren und zu bereinigen;<\/p>\n<p>(kontextsensitives) Output Encoding einzusetzen;<\/p>\n<p>parametrisierte Queries oder vorbereitete Statements f\u00fcr s\u00e4mtliche Datenbank-Prozesse mit LLM-Beteiligung zu nutzen;<\/p>\n<p>strikte Content-Security-Richtlinien einzuziehen;<\/p>\n<p>robuste Logging- und Monitoring-Systeme zu implementieren, um verd\u00e4chtige Muster in Outputs zu identifizieren.<\/p>\n<p><strong>6. Excessive Agency<\/strong><\/p>\n<p>Laut den OWASP-Experten beschreibt Excessive Agency eine Schwachstelle, die schadhafte Aktionen auf der Grundlage von unerwarteten, mehrdeutigen oder manipulierten LLM-Outputs erm\u00f6glicht \u2013 unabh\u00e4ngig davon, was der Grund f\u00fcr die Fehlfunktion ist. \u201eExcessive Agency kann diverse Auswirkungen auf das gesamte Spektrum von Vertraulichkeit, Integrit\u00e4t und Verf\u00fcgbarkeit nach sich ziehen und h\u00e4ngt im Wesentlichen davon ab, mit welchen Systemen eine LLM-basierte App interagieren kann\u201c, konkretisiert OWASP.<\/p>\n<p>Um diesen Risiken den Wind aus den Segeln zu nehmen, empfehlen die Spezialisten: \u00a0\u00a0<\/p>\n<p>Extensions und ihre Funktionalit\u00e4ten zu minimieren;<\/p>\n<p>\u201eOpen ended\u201c Extensions wo m\u00f6glich zu vermeiden;<\/p>\n<p>Extensions nur im User-Kontext auszuf\u00fchren;<\/p>\n<p>Best\u00e4tigungen von Benutzern einzufordern;<\/p>\n<p>Autorisierung in Downstream-Systemen zu implementieren;<\/p>\n<p>LLM-Inputs und -Outputs zu bereinigen.<\/p>\n<p><strong>7. System Prompt Leakage<\/strong><\/p>\n<p>\u201eSystem-Prompts sind darauf konzipiert, die Outputs von LLMs auf der Grundlage der Applikationsanforderungen zu steuern \u2013 k\u00f6nnen jedoch auch unbeabsichtigt Geheimnisse enthalten. Werden diese entdeckt, k\u00f6nnen sie f\u00fcr weitere Attacken genutzt werden\u201c, warnt OWASP. Dabei stelle die Offenlegung eines System Prompts an sich nicht das eigentliche Risiko dar, so die Experten. Das liege vielmehr in den zugrundeliegenden Elementen wie den Guardrails und Formatierungsrestriktionen, \u00fcber die Angreifer R\u00fcckschl\u00fcsse ziehen k\u00f6nnten, wenn sie mit den System interagierten.<\/p>\n<p>Um offengelegte System-Prompts zu verhindern, sieht OWASP folgende Ma\u00dfnahemn als hilfreich an:<\/p>\n<p>sensible Daten von System-Prompts zu trennen;<\/p>\n<p>System Prompts wenn m\u00f6glich nicht dazu zu nutzen, um das Modellverhalten zu beeinflussen;<\/p>\n<p>Guardrails zu implementieren;<\/p>\n<p>Sicherheitskontrollen nicht an LLMs zu delegieren. \u00a0\u00a0<\/p>\n<p><strong>8. Vector- und Embedding-Schwachstellen<\/strong><\/p>\n<p>Mit Retrieval Augmented Generation (<a href=\"https:\/\/www.computerwoche.de\/article\/2829632\/so-daemmen-sie-ki-bullshit-ein.html\">RAG<\/a>) lassen sich Leistung und Relevanz von LLMs optimieren. Allerdings k\u00f6nnen solche Systeme auch schwerwiegende Sicherheitsl\u00fccken aufweisen, wie die OWASP-Spezialisten konstatieren: \u201eWenn der Prozess, bei dem Vektoren und Embeddings generiert, gespeichert oder angerufen werden, Schwachstellen-behaftet ist, kann das von Bedrohungsakteuren ausgenutzt werden, um anst\u00f6\u00dfige Inhalte zu integrieren, Modell-Outputs zu manipulieren oder auf sensible Informationen zuzugreifen.\u201c<\/p>\n<p>Dagegen hilft laut den Experten:<\/p>\n<p>granulare Zugriffskontrollma\u00dfnahmen durchzusetzen;<\/p>\n<p>Daten zu validieren und Quellen zu authentifizieren;<\/p>\n<p>kombinierte Datens\u00e4tze einem Review zu unterziehen;<\/p>\n<p>umfassendes Monitoring und Logging.<\/p>\n<p><strong>9. Desinformation<\/strong><\/p>\n<p>Wenn gro\u00dfe Sprachmodelle Informationen liefern, die zwar auf den ersten Blick glaubw\u00fcrdig erscheinen, aber falsch sind, ist Desinformation die Folge. Diese Schwachstelle kann laut OWASP unter anderem zu Breaches, Reputationssch\u00e4den und rechtlichen Problemen f\u00fchren.<\/p>\n<p>\u201eEiner der Hauptgr\u00fcnde f\u00fcr Desinformation sind LLM-Halluzinationen\u201c, schreiben die Experten und f\u00fcgen hinzu: \u201eSie entstehen, wenn LLMs L\u00fccken in ihren Trainingsdaten mit statistischen Mustern f\u00fcllen, ohne den Inhalt wirklich zu verstehen.\u201c<\/p>\n<p>Als Abhilfema\u00dfnahmen identifizieren die Security-Experten:<\/p>\n<p>RAG einzusetzen;<\/p>\n<p>Modelle feinabzustimmen;<\/p>\n<p>LLM-Outputs manuell zu \u00fcberpr\u00fcfen;<\/p>\n<p>Tools und Prozesse f\u00fcr automatisierte Validierung einzuf\u00fchren;<\/p>\n<p>Risiko-Kommunikation zu betreiben;<\/p>\n<p>auf sichere Coding-Praktiken zu setzen;<\/p>\n<p>User Interface und APIs mit Content-Filtern und Labels auszustatten;<\/p>\n<p>Trainings- und Schulungsma\u00dfnahmen anzuberaumen.<\/p>\n<p><strong>10. Unbounded Consumption<\/strong><\/p>\n<p>\u201eUnbounded Consumption tritt auf, wenn eine LLM-Anwendung Benutzern eine \u00fcberm\u00e4\u00dfige, unkontrollierte Nutzung erm\u00f6glicht. Das kann zu DoS-Angriffen, wirtschaftlichen Sch\u00e4den, Modell-Diebstahl und eingeschr\u00e4nkten Services f\u00fchren\u201c, erkl\u00e4rt OWASP. Insbesondere in Cloud-Umgebungen seien gro\u00dfe Sprachmodelle wegen ihrer hohen Leistungsanforderungen anf\u00e4llig f\u00fcr Ressourcenausbeutung und nicht-autorisierte Nutzung.<\/p>\n<p>Um diese Risiken zu minimieren, empfehlen die Experten:<\/p>\n<p>Inputs zu validieren;<\/p>\n<p>Rate Limiting einzusetzen;<\/p>\n<p>die Ressourcenzuweisung dynamisch zu \u00fcberwachen und zu managen;<\/p>\n<p>Timeouts und Throttling einzusetzen;<\/p>\n<p>Sandboxing-Techniken zu implementieren;<\/p>\n<p>umfassende Logging-, Monitoring- und Anomaliedetektions-Aktivit\u00e4ten einzuplanen;<\/p>\n<p>Watermarking zu nutzen;<\/p>\n<p>ein zentralisiertes ML-Modell-Inventar zu nutzen;<\/p>\n<p>MLOps Deployment zu automatisieren.<\/p>\n<p><strong>Sie wollen weitere interessante Beitr\u00e4ge rund um das Thema IT-Sicherheit lesen? <\/strong><a href=\"https:\/\/www.csoonline.com\/de\/newsletters\/signup\/\"><strong>Unser kostenloser Newsletter<\/strong><\/a><strong> liefert Ihnen alles, was Sicherheitsentscheider und -experten wissen sollten, direkt in Ihre Inbox.<\/strong><\/p>\n<\/div>\n<\/div>\n<\/div>\n<\/div>","protected":false},"excerpt":{"rendered":"<p>Diese Schwachstellen sollten Sie kennen, damit Ihnen Ihr Large Language Model nicht um die Ohren fliegt. VectorMine | shutterstock.com Das Open Worldwide Application Security Project (OWASP) hat seine Top Ten der kritischsten Schwachstellen bei Large Language Models (LLMs) aktualisiert. Mit ihrer Top-Ten-Liste (PDF) wollen die OWASP-Security-Experten Unternehmen(sanwender) \u00fcber die potenziellen Risiken beim Einsatz von gro\u00dfen [&hellip;]<\/p>\n","protected":false},"author":0,"featured_media":1306,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[3],"tags":[],"class_list":["post-1305","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-education"],"_links":{"self":[{"href":"https:\/\/cybersecurityinfocus.com\/index.php?rest_route=\/wp\/v2\/posts\/1305"}],"collection":[{"href":"https:\/\/cybersecurityinfocus.com\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/cybersecurityinfocus.com\/index.php?rest_route=\/wp\/v2\/types\/post"}],"replies":[{"embeddable":true,"href":"https:\/\/cybersecurityinfocus.com\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=1305"}],"version-history":[{"count":0,"href":"https:\/\/cybersecurityinfocus.com\/index.php?rest_route=\/wp\/v2\/posts\/1305\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/cybersecurityinfocus.com\/index.php?rest_route=\/wp\/v2\/media\/1306"}],"wp:attachment":[{"href":"https:\/\/cybersecurityinfocus.com\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=1305"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/cybersecurityinfocus.com\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=1305"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/cybersecurityinfocus.com\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=1305"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}