srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/09/shutterstock_2668474647.jpg?quality=50&strip=all 6000w, https://b2b-contenthub.com/wp-content/uploads/2025/09/shutterstock_2668474647.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/09/shutterstock_2668474647.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/09/shutterstock_2668474647.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/09/shutterstock_2668474647.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/09/shutterstock_2668474647.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/09/shutterstock_2668474647.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/09/shutterstock_2668474647.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/09/shutterstock_2668474647.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/09/shutterstock_2668474647.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/09/shutterstock_2668474647.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”auto, (max-width: 1024px) 100vw, 1024px”>Chatbot-Assistenten in Unternehmen sind besonders verwundbar, da sie durch Prompt-Injection-Angriffe manipuliert werden können.
UnImages – shutterstock.com
In einer Umfrage der Marktanalysten von Gartner berichten 29 Prozent der Cybersicherheitsverantwortlichen, dass die in ihrer Organisation verwendeten generativen KI-Anwendungen in den vergangenen zwölf Monaten Ziel eines Cyberangriffs war.
Bei 32 Prozent der Unternehmen wurden gezielt Schwachstellen in der Prompt-Struktur ausgenutzt. „Insbesondere Chatbot-Assistenten gelten hier als verwundbar, da sie durch feindselige Prompting-Techniken manipuliert werden können – etwa indem Angreifer Eingaben so gestalten, dass große Sprachmodelle (LLMs) oder multimodale Modelle voreingenommene oder sogar schädliche Antworten erzeugen“, erklären die Gartner-Analysten.
Zudem gaben 62 Prozent der Unternehmen zu, dass sie bereits Opfer von Deepfake-Attacken waren – meist in Kombination mit Social Engineering oder automatisierten Angriffstechniken.
Schutzmaßnahmen erforderlich
Während 67 Prozent der befragten Sicherheitsentscheider der Meinung sind, dass diese neuen Risiken umfassende Veränderungen ihrer Cybersecurity-Strategien erfordern, empfiehlt Gartner ein differenzierteres Vorgehen.
„Anstatt radikale Umbauten oder isolierte Investitionen vorzunehmen, sollten Unternehmen ihre Kernkontrollen konsequent stärken und für jede neue Risikokategorie gezielt Maßnahmen ergreifen“, rät Akif Khan VP Analyst bei Gartner.
Die Befragung fand zwischen März und Mai 2025 statt. Sie umfasste 302 Sicherheitsleiter aus Nordamerika, der EMEA- sowie der Asien-Pazifik-Region.
No Responses