{"id":5690,"date":"2025-11-06T10:22:17","date_gmt":"2025-11-06T10:22:17","guid":{"rendered":"https:\/\/cybersecurityinfocus.com\/?p=5690"},"modified":"2025-11-06T10:22:17","modified_gmt":"2025-11-06T10:22:17","slug":"ki-malware-ist-keine-theorie-mehr","status":"publish","type":"post","link":"https:\/\/cybersecurityinfocus.com\/?p=5690","title":{"rendered":"KI-Malware ist keine Theorie mehr"},"content":{"rendered":"<div>\n<div class=\"grid grid--cols-10@md grid--cols-8@lg article-column\">\n<div class=\"col-12 col-10@md col-6@lg col-start-3@lg\">\n<div class=\"article-column__content\">\n<div class=\"container\"><\/div>\n<div class=\"extendedBlock-wrapper block-coreImage undefined\">KI boomt auch unter Cyberkriminellen. Die ersten operativen Ergebnisse dieses Trends beleuchten Google-Sicherheitsforscher in einem aktuellen Report.\n<p class=\"imageCredit\">Tayler Derden | shutterstock.com<\/p>\n<\/div>\n<p>Was lange bef\u00fcrchtet und vermutet wurde, will die Google Threat Intelligence Group (GTIG) nun im Rahmen <a href=\"https:\/\/cloud.google.com\/blog\/topics\/threat-intelligence\/threat-actor-usage-of-ai-tools?hl=en\" target=\"_blank\" rel=\"noopener\">einer aktuellen Untersuchung<\/a> belegen: Cyberkriminelle nutzen KI im Rahmen ihrer Malware-Angriffskampagnen. Aber l\u00e4ngst nicht mehr nur f\u00fcr <a href=\"https:\/\/www.computerwoche.de\/article\/4034385\/9-wege-mit-vibe-coding-zu-scheitern.html\" target=\"_blank\" rel=\"noopener\">Vibe-Coding-Zwecke<\/a> oder zur technischen Unterst\u00fctzung. Wie die Cybersecurity-Experten feststellen, binden kriminelle Hacker <a href=\"https:\/\/www.csoonline.com\/article\/3494507\/large-language-models-absichern-die-10-haufigsten-llm-schwachstellen.html\" target=\"_blank\" rel=\"noopener\">gro\u00dfe Sprachmodelle<\/a> (Large Language Models; LLMs) inzwischen aktiv in ihre Attacken ein, um b\u00f6sartige Skripte zu generieren und um Schadcode zu verschleiern \u2013 unter anderem. Eine weitere interessante Erkenntnis des Google-Reports: KI-Modelle scheinen ebenso anf\u00e4llig f\u00fcr <a href=\"https:\/\/www.csoonline.com\/article\/3993294\/diese-social-engineering-trends-sollten-sie-kennen.html\" target=\"_blank\" rel=\"noopener\">Social-Engineering-Angriffe<\/a> zu sein wie Menschen.<\/p>\n<p>\u201cEine neue operative Phase des KI-Missbrauchs ist angebrochen. Dabei kommen Tools zum Einsatz, die das Verhalten des Schadcodes w\u00e4hrend der Ausf\u00fchrung dynamisch ver\u00e4ndern, Aktivit\u00e4ten dieser Art beobachten wir erst seit kurzem, erwarten aber, dass diese weiter zunehmen\u201d, warnen die Forscher.<\/p>\n<h1 class=\"wp-block-heading\">Die neue KI-Malware<\/h1>\n<p>Laut den Google-Sicherheitsexperten wird KI von Cyberkriminellen nicht nur auf neuartige Art und Weise, sondern auch hochgradig systematisch eingesetzt. Zum Beispiel in Form der folgenden, von der GTIG identifizierten, dynamischen neuen Malware-Varianten.<\/p>\n<p><strong>PROMPTSTEAL<\/strong> ist demnach die erste in freier Wildbahn beobachtete Malware, die LLMs abfragt. Sie wird dem GTIG zufolge in erster Linie von Cyberakteuren genutzt, die mit dem russischen Staatsapparat in Verbindung stehen. Um Befehle zu generieren, verwende dieser Data Miner die Hugging Face API, anstatt diese fest in die Schadsoftware zu codieren.<\/p>\n<p>\u201cDie Malware tarnt sich als Programm zur Bildgenerierung und f\u00fchrt die Benutzer zu diesem Zweck durch eine Reihe von Prompts, w\u00e4hrend im Hintergrund die API genutzt wird, um \u00fcber das KI-Modell Qwen 2.5-Coder-32B-Instruct schadhafte Kommandos zu erstellen und auszuf\u00fchren\u201d, erkl\u00e4ren die Bedrohungsexperten. Das Ziel der Angreifer bestehe darin, Systeminformationen und Dokumente zu sammeln \u2013 und diese an einen Server weiterzuleiten, der unter ihrer Kontrolle steht.<\/p>\n<p>\u201cDiese Methode ist zwar noch experimentell, stellt jedoch einen bedeutenden Schritt hin zu <a href=\"https:\/\/www.csoonline.com\/article\/4048337\/ki-greift-erstmals-autonom-an.html\" target=\"_blank\" rel=\"noopener\">autonomer<\/a>, anpassungsf\u00e4higer Schadsoftware dar\u201d, res\u00fcmieren die GTIG-Experten.<\/p>\n<p>Bei <strong>PROMPTFLUX<\/strong> handelt es sich hingegen um einen sogenannten \u201cDropper\u201d, der seine malizi\u00f6se Aktivit\u00e4t mit Hilfe eines Fake-Installationsprogramms verbirgt. Diese besteht darin, die Gemini-API anzuweisen, seinen Quellcode neu zu schreiben \u2013 und neue verschleierte Versionen von diesem zu speichern, um Persistenz sicherzustellen. Diese <a href=\"https:\/\/www.csoonline.com\/article\/3491897\/was-ist-malware.html\" target=\"_blank\" rel=\"noopener\">Malware<\/a> kann sich auch auf Wechseldatentr\u00e4ger oder zugeordnete Netzlaufwerke kopieren.<\/p>\n<p>Interessanterweise ist die Schadsoftware au\u00dferdem mit einem \u201cThinking Robot\u201d-Modul ausgestattet. Dar\u00fcber fragt sie den Forschern zufolge regelm\u00e4\u00dfig Gemini auf neuen Code ab, um Antivirus-Software zu umgehen. Die Google-Forscher beobachteten zudem eine weitere Variante, die \u00fcber ein weiterentwickeltes Modul verf\u00fcgte, das daf\u00fcr sorgt, dass der gesamte Malware-Quellcode st\u00fcndlich neu geschrieben wird. Auch dabei geht es darum, Signatur-basierte Erkennungsma\u00dfnahmen auszuhebeln. \u201cDas Ziel besteht darin, ein metamorphes Skript zu entwickeln, das sich im Laufe der Zeit eigenst\u00e4ndig weiterentwickeln kann\u201d, so die Experten.<\/p>\n<p>Weitere neue, KI-gest\u00fctzte Malware-Varianten, die die Sicherheitsexperten identifiziert haben, sind:<\/p>\n<p><strong>FRUITSHELL<\/strong>, eine Reverse-Shell, die eine Remote-Verbindung zu einem Command-and-Control (C2)-Server herstellt. Den Angreifern erm\u00f6glicht das, auf kompromittierten Systemen beliebige Befehle auszuf\u00fchren.<\/p>\n<p><strong>PROMPTLOCK<\/strong>, eine experimentelle <a href=\"https:\/\/www.csoonline.com\/article\/4019530\/ransomware-was-ist-das.html\" target=\"_blank\" rel=\"noopener\">Ransomware<\/a>, die in Go geschrieben ist und LLMs nutzt, um b\u00f6sartige Skripte zu erstellen und auszuf\u00fchren, Systeme auszukundschaften, Daten zu exfiltrieren sowie zu verschl\u00fcsseln.<\/p>\n<p><strong>QUIETVAULT<\/strong>, eine Malware, die darauf ausgelegt ist, <a href=\"https:\/\/www.computerwoche.de\/article\/4061689\/npm-und-die-sicherheit-der-open-source-lieferkette.html\" target=\"_blank\" rel=\"noopener\">GitHub- und npm-Token<\/a> zu stehlen.<\/p>\n<h1 class=\"wp-block-heading\">Social Engineering f\u00fcr LLMs<\/h1>\n<p>Um die Sicherheitsvorkehrungen von LLMs zu umgehen, gehen Cyberkriminelle laut dem GTIG zudem dazu \u00fcber, ihre KI-Prompts mit Social-Engineering-Taktiken anzureichern. So berichten die Forscher, dass sich Kriminelle gegen\u00fcber Gemini unter anderem als Security-Researcher ausgeben, um dem Bot Informationen zu entlocken, die er eigentlich nicht preisgeben d\u00fcrfte.<\/p>\n<p>Die Experten des GTIG beschreiben etwa eine Interaktion, bei der ein Angreifer versuchte, Gemini zu nutzen, um <a href=\"https:\/\/www.csoonline.com\/article\/3492373\/8-vulnerability-management-tipps-wie-sie-schwachstellen-effektiver-managen.html\" target=\"_blank\" rel=\"noopener\">Schwachstellen<\/a> in einem kompromittierten System zu identifizieren. Das sei zun\u00e4chst durch die Sicherheitsvorkehrungen des Modells blockiert worden. Nachdem der Hacker jedoch seinen Prompt neu formuliert und sich als Teilnehmer eines Capture-the-Flag-Wettbewerbs ausgegeben hatte, habe die Google-KI bereitwillig Tipps zu den n\u00e4chsten Schritten in dem angeblichen <a href=\"https:\/\/www.csoonline.com\/article\/3495010\/red-vs-blue-vs-purple-teams-so-trainieren-sie-effektiv-den-ernstfall.html\" target=\"_blank\" rel=\"noopener\">Red-Teaming-Szenario<\/a> gegeben und dabei wertvolle Informationen f\u00fcr einen erfolgreichen Angriff mitgeliefert, so die Sicherheitsprofis.<\/p>\n<p>Eine weitere Prompt-Taktik von Cybercrime-Akteuren besteht offenbar darin, sich als Studenten auszugeben, um unter dem Deckmantel angeblicher Forschungsarbeiten schadhafte Zwecke zu verfolgen. So beobachteten die GTIG-Forscher einen iranischen Bedrohungsakteur, der diese Taktik anwandte, um sich von Gemini dabei unterst\u00fctzen zu lassen, ma\u00dfgeschneiderte Schadsoftware zu erstellen \u2013 beispielsweise in Form von Web-Shells und einem C2-Server auf Python-Basis.<\/p>\n<h1 class=\"wp-block-heading\">KI-Tools f\u00fcr Cyberkriminelle<\/h1>\n<p>Die Google Threat Intelligence Group hat im Rahmen ihrer Untersuchungen auch einen Blick auf den Status Quo des Cybercrime-Markts geworfen \u2013 und dabei festgestellt, dass illegale KI-Tools zunehmend ausgereift sind. Im <a href=\"https:\/\/www.csoonline.com\/article\/3492404\/untergrund-jobrollen-das-cybercrime-who-is-who.html\" target=\"_blank\" rel=\"noopener\">Cybercrime-Untergrund<\/a> sind demnach KI-\u201cL\u00f6sungen\u201d besonders popul\u00e4r, die:<\/p>\n<p>Malware generieren, individualisieren und optimieren.<\/p>\n<p>Deepfakes ern\u00f6glichen, beispielsweise um Content-K\u00f6der zu erstellen oder auch um Know-Your-Customer-Anforderungen bei Finanzinstitutionen auszuhebeln.<\/p>\n<p>Phishing-Kampagnen unterst\u00fctzen \u2013 etwa, indem sie diese automatisiert auf ein breiteres Zielpublikum zuschneiden.<\/p>\n<p>sich f\u00fcr Recherche- und Aufkl\u00e4rungszwecke einsetzen lassen. Das erm\u00f6glicht, schnell Daten zu sammeln und sich einen \u00dcberblick \u00fcber Cybersicherheitskonzepte zu verschaffen.<\/p>\n<p>Schwachstellen ausnutzen, die sie zuvor anhand \u00f6ffentlich zug\u00e4nglicher Informationen \u00fcber bereits bekannte Sicherheitsl\u00fccken identifiziert haben.<\/p>\n<p>technischen Support leisten und Code erstellen.<\/p>\n<p>Die Preismodelle dieser Tools \u00e4hnelten dabei zunehmend denen herk\u00f6mmlicher Softwarel\u00f6sungen, so die Forscher: \u201cViele Entwickler solcher Tools ver\u00f6ffentlichen kostenlose Versionen ihrer L\u00f6sungen, die Werbung beinhalten. Parallel bieten sie Abonnement-Modelle mit fortschrittlicheren oder zus\u00e4tzlichen Funktionen an \u2013 etwa Bildgenerierung, API-Zugriff oder Zugang zu einem Discord-Server\u201d, hei\u00dft es im Report der Google-Sicherheitsprofis. \u00a0<\/p>\n<p>Mit Blick auf die zu erwartenden Folgen halten die GTIG-Forscher fest: \u201cTools und Services dieser Art erm\u00f6glichen auch weniger versierten Cyberakteuren mit limitierten technischen Skills und finanziellen Ressourcen, den Umfang, den Impact und die Komplexit\u00e4t ihrer Angriffe drastisch zu steigern. Auch weil diese Tools immer zug\u00e4nglicher werden, ist damit zu rechnen, dass Bedrohungsakteure k\u00fcnftig immer h\u00e4ufiger auf k\u00fcnstliche Intelligenz zur\u00fcckgreifen werden.\u201d (fm)<\/p>\n<p><strong>Sie wollen weitere interessante Beitr\u00e4ge rund um das Thema IT-Sicherheit lesen? <\/strong><a href=\"https:\/\/www.csoonline.com\/de\/newsletters\/signup\/\" target=\"_blank\" rel=\"noopener\"><strong>Unser kostenloser Newsletter<\/strong><\/a><strong> liefert Ihnen alles, was Sicherheitsentscheider und -experten wissen sollten, direkt in Ihre Inbox.<\/strong><\/p>\n<\/div>\n<\/div>\n<\/div>\n<\/div>","protected":false},"excerpt":{"rendered":"<p>KI boomt auch unter Cyberkriminellen. Die ersten operativen Ergebnisse dieses Trends beleuchten Google-Sicherheitsforscher in einem aktuellen Report. Tayler Derden | shutterstock.com Was lange bef\u00fcrchtet und vermutet wurde, will die Google Threat Intelligence Group (GTIG) nun im Rahmen einer aktuellen Untersuchung belegen: Cyberkriminelle nutzen KI im Rahmen ihrer Malware-Angriffskampagnen. Aber l\u00e4ngst nicht mehr nur f\u00fcr Vibe-Coding-Zwecke [&hellip;]<\/p>\n","protected":false},"author":0,"featured_media":5691,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[3],"tags":[],"class_list":["post-5690","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-education"],"_links":{"self":[{"href":"https:\/\/cybersecurityinfocus.com\/index.php?rest_route=\/wp\/v2\/posts\/5690"}],"collection":[{"href":"https:\/\/cybersecurityinfocus.com\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/cybersecurityinfocus.com\/index.php?rest_route=\/wp\/v2\/types\/post"}],"replies":[{"embeddable":true,"href":"https:\/\/cybersecurityinfocus.com\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=5690"}],"version-history":[{"count":0,"href":"https:\/\/cybersecurityinfocus.com\/index.php?rest_route=\/wp\/v2\/posts\/5690\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/cybersecurityinfocus.com\/index.php?rest_route=\/wp\/v2\/media\/5691"}],"wp:attachment":[{"href":"https:\/\/cybersecurityinfocus.com\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=5690"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/cybersecurityinfocus.com\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=5690"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/cybersecurityinfocus.com\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=5690"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}