LALAKA – shutterstock.com
Das KI-Unternehmen Anthropic gab kürzlich bekannt, dass Unternehmen weltweit von einer KI-gestützten Spionage-Software attackiert wurden. Dabei soll es sich um den ersten öffentlich dokumentierten Fall einer Cyberattacke handeln, die von einem KI-Modell ausgeführt wurde.
Laut Forschungsbericht waren rund 30 Organisationen weltweit von den Angriffen betroffen. Darunter: große Technologiekonzerne, Finanzinstitute, Chemieunternehmen und Regierungsbehörden. Die Attacke wurde bereits Mitte September 2025 entdeckt. Hinter der Angriffskampagne soll die Hackergruppe GTG-1002 stehen, die dem chinesischen Staat zugeordnet wird.
Die Angreifer hätten Anthropics KI-Programmier-Tool “Claude Code” so manipuliert, dass damit weitgehend autonom Infiltrierungsversuche gestartet wurden, heißt es.
Anthropic-Report nur ein Marketing Gag?
Security-Experten hegen jedoch Zweifel daran, wie autonom die Angriffe tatsächlich waren. Der Cybersecurity-Forscher Daniel Card witzelte in einem X-Beitrag: “Diese Anthropic-Sache ist ein Marketing-Gag.”
Zudem bemängelte der IT-Sicherheitsexperte-Experte Kevin Beaumont auf der Plattform Mastodon, dass Anthropic keinerlei IoCs der Angriffe veröffentlicht habe (Indicator of Compromise, “Kompromittierungsindikatoren”).
„Ich glaube nicht, dass Angreifer diese Modelle dazu bringen können, Hürden zu überwinden, die sonst niemand schafft“, betont Dan Tentler, Gründer der Phobos Group, gegenüber Ars Technica “Wieso geben die Modelle den Angreifern 90 Prozent der Zeit das, was sie wollen, während wir uns mit Schmeicheleien, Ablehnen und Halluzinationen herumschlagen müssen?”
Das ist jedoch nicht das erste Mal, dass das Anthropic über einen solchen Fall berichtet. Bereits im August 2025 behauptete das US-Unternehmen, dass das KI-gestützte Entwickler-Tool Claude Code bereits für autonome Cyberattacken missbraucht wurde.
No Responses