{"id":2889,"date":"2025-04-24T04:00:00","date_gmt":"2025-04-24T04:00:00","guid":{"rendered":"https:\/\/cybersecurityinfocus.com\/?p=2889"},"modified":"2025-04-24T04:00:00","modified_gmt":"2025-04-24T04:00:00","slug":"slopsquatting-die-neue-cyber-bedrohung-dank-ki","status":"publish","type":"post","link":"https:\/\/cybersecurityinfocus.com\/?p=2889","title":{"rendered":"Slopsquatting: Die neue Cyber-Bedrohung dank KI"},"content":{"rendered":"<div>\n<div class=\"grid grid--cols-10@md grid--cols-8@lg article-column\">\n<div class=\"col-12 col-10@md col-6@lg col-start-3@lg\">\n<div class=\"article-column__content\">\n<div class=\"container\"><\/div>\n<div class=\"extendedBlock-wrapper block-coreImage undefined\">\n<p>Halluzinierte Paketnamen sind oft glaubhaft und wiederholen sich \u2013 ideal f\u00fcr Angreifer.<\/p>\n<p class=\"imageCredit\">mongmong_Studio- shutterstock.com<\/p>\n<\/div>\n<p>Cybersicherheitsforscher der University of Texas in San Antonio, der Virginia Tech und der University of Oklahama <a href=\"https:\/\/arxiv.org\/pdf\/2406.10279\">warnen<\/a> vor einer neuen Bedrohung f\u00fcr die Software-Lieferkette namens \u201eSlopsquatting\u201c.<\/p>\n<p>Den Begriff \u201eSlopsquatting\u201c hat Seth Larson, ein Sicherheitsentwickler der Python Software Foundation (PSF), gepr\u00e4gt, weil es der Technik des Typosquatting \u00e4hnelt. Anstatt sich auf den Fehler eines Benutzers zu verlassen, wie es bei <a href=\"https:\/\/de.wikipedia.org\/wiki\/Typosquatting\">Typosquats<\/a> der Fall ist, verlassen sich Bedrohungsakteure auf den Fehler eines KI-Modells.<\/p>\n<h2 class=\"wp-block-heading\"><strong>Gefahr durch KI-erfundene Paketnamen<\/strong><\/h2>\n<p>Dieser entsteht, wenn generative KI-Modelle wie <a href=\"https:\/\/www.csoonline.com\/article\/3836638\/forscher-entdecken-llm-sicherheitsrisiko.html\">LLMs<\/a> nicht existierende Softwarepakete, eine sogenannte Paket-Halluzinationen, vorschlagen. Angreifer k\u00f6nnen diese L\u00fccken ausnutzen, um sch\u00e4dliche Pakete unter den halluzinierten Namen bereitzustellen.<\/p>\n<p><a href=\"https:\/\/www.csoonline.com\/article\/3494507\/large-language-models-absichern-die-10-haufigsten-llm-schwachstellen.html\">Halluzinierte<\/a> Paketnamen in KI-generiertem Code k\u00f6nnen von Angreifern ausgenutzt werden, indem sie diese Namen registrieren und Schadcode verbreiten. Da viele Entwickler den KI-Empfehlungen ohne gr\u00fcndliche <a href=\"https:\/\/www.csoonline.com\/article\/3492503\/devsecops-sichere-softwareentwicklung-mit-genai.html\">Pr\u00fcfung<\/a> folgen, entsteht ein Sicherheitsrisiko.<\/p>\n<p>Diese Paket-Halluzinationen sind besonders gef\u00e4hrlich, da sie sich als hartn\u00e4ckig, wiederholend und glaubhaft erwiesen haben.<\/p>\n<h2 class=\"wp-block-heading\"><strong>Jedes f\u00fcnfte KI-Paket eine F\u00e4lschung<\/strong><\/h2>\n<p>Dies betrifft insbesondere Sprachen wie Python und JavaScript, die in hohem Ma\u00dfe auf zentrale Paket-Repositories und Open-Source-Software angewiesen sind.<\/p>\n<p>In einer Analyse von 16 Codegenerierungsmodellen wurde festgestellt, dass etwa 20 Prozent der empfohlenen Softwarepakete als F\u00e4lschungen identifiziert wurden. Es ist auff\u00e4llig, dass CodeLlama h\u00e4ufig Halluzinationen hatte, wobei \u00fcber ein Drittel der Angaben fehlerhaft waren. GPT-4 Turbo erzielte mit lediglich 3,59 Prozent Halluzinationen noch \u00a0die beste Leistung.<\/p>\n<p>In der vorliegenden Untersuchung wurde festgestellt, dass Open-Source-Modelle wie DeepSeek und WizardCoder im Durchschnitt mit einer h\u00f6heren Frequenz halluzinieren als kommerzielle Modelle wie GPT 4. Die durchschnittliche Pr\u00e4valenz der Halluzinationen betr\u00e4gt bei Open-Source-Modellen 21,7 Prozent, w\u00e4hrend sie bei kommerziellen Modellen 5,2 Prozent aufweist.<\/p>\n<h2 class=\"wp-block-heading\"><strong>Gro\u00dfes Risiko<\/strong><\/h2>\n<p>Die <a href=\"https:\/\/arxiv.org\/pdf\/2406.10279\">Studie<\/a> zeigt, dass viele Pakethalluzinationen von KI-Modellen wiederholbar und nicht zuf\u00e4llig sind, was sie f\u00fcr Angreifer besonders n\u00fctzlich macht. Etwa 38 Prozent der halluzinierten Paketnamen \u00e4hneln echten Paketen, w\u00e4hrend nur 13 Prozent einfache Tippfehler sind. Das macht viele Namen semantisch \u00fcberzeugend.<\/p>\n<p>In der Untersuchung wurden 500 Prompts wiederholt, die zuvor zu halluzinierten Paketen gef\u00fchrt hatten. In 43 Prozent der F\u00e4lle traten die Halluzinationen in zehn aufeinander folgenden Durchg\u00e4ngen immer wieder auf.<\/p>\n<p>In 58 Prozent der F\u00e4lle kamen die Halluzinationen sogar in mehr als einem Durchgang vor. Die Forscher kritisieren, dass die Modelle aufgrund unzureichender Sicherheitstests, wie sie etwa bei OpenAI durchgef\u00fchrt werden, anf\u00e4lliger sind.<\/p>\n<p>Obwohl bisher keine belegten F\u00e4lle von Slopsquatting-Attacken vorliegen, weisen die Forscher auf die potenzielle Risiken hin.<\/p>\n<\/div>\n<\/div>\n<\/div>\n<\/div>","protected":false},"excerpt":{"rendered":"<p>Halluzinierte Paketnamen sind oft glaubhaft und wiederholen sich \u2013 ideal f\u00fcr Angreifer. mongmong_Studio- shutterstock.com Cybersicherheitsforscher der University of Texas in San Antonio, der Virginia Tech und der University of Oklahama warnen vor einer neuen Bedrohung f\u00fcr die Software-Lieferkette namens \u201eSlopsquatting\u201c. Den Begriff \u201eSlopsquatting\u201c hat Seth Larson, ein Sicherheitsentwickler der Python Software Foundation (PSF), gepr\u00e4gt, weil [&hellip;]<\/p>\n","protected":false},"author":0,"featured_media":2890,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[3],"tags":[],"class_list":["post-2889","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-education"],"_links":{"self":[{"href":"https:\/\/cybersecurityinfocus.com\/index.php?rest_route=\/wp\/v2\/posts\/2889"}],"collection":[{"href":"https:\/\/cybersecurityinfocus.com\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/cybersecurityinfocus.com\/index.php?rest_route=\/wp\/v2\/types\/post"}],"replies":[{"embeddable":true,"href":"https:\/\/cybersecurityinfocus.com\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=2889"}],"version-history":[{"count":0,"href":"https:\/\/cybersecurityinfocus.com\/index.php?rest_route=\/wp\/v2\/posts\/2889\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/cybersecurityinfocus.com\/index.php?rest_route=\/wp\/v2\/media\/2890"}],"wp:attachment":[{"href":"https:\/\/cybersecurityinfocus.com\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=2889"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/cybersecurityinfocus.com\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=2889"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/cybersecurityinfocus.com\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=2889"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}