{"id":5876,"date":"2025-11-20T04:00:00","date_gmt":"2025-11-20T04:00:00","guid":{"rendered":"https:\/\/cybersecurityinfocus.com\/?p=5876"},"modified":"2025-11-20T04:00:00","modified_gmt":"2025-11-20T04:00:00","slug":"der-grose-ki-risiko-guide","status":"publish","type":"post","link":"https:\/\/cybersecurityinfocus.com\/?p=5876","title":{"rendered":"Der gro\u00dfe KI-Risiko-Guide"},"content":{"rendered":"<div>\n<div class=\"grid grid--cols-10@md grid--cols-8@lg article-column\">\n<div class=\"col-12 col-10@md col-6@lg col-start-3@lg\">\n<div class=\"article-column__content\">\n<div class=\"container\"><\/div>\n<div class=\"extendedBlock-wrapper block-coreImage undefined\">KI-Risiken zu bewerten und zu quantifizieren, ist in der GenAI-\u00c4ra unerl\u00e4sslich.\n<p class=\"imageCredit\">Lerbank-bbk22 | shutterstock.com<\/p>\n<\/div>\n<p>Wie jede Technologie birgt auch k\u00fcnstliche Intelligenz (KI) nicht nur Vorteile. Insbesondere seit dem Aufkommen von Generative AI (<a href=\"https:\/\/www.computerwoche.de\/article\/2821922\/was-ist-generative-ai.html\" title=\"GenAI\" target=\"_blank\" rel=\"noopener\">GenAI<\/a>) und der explosionsartigen Verbreitung entsprechender Tools und L\u00f6sungen ist es f\u00fcr Unternehmen wichtiger denn je, die Risiken <a href=\"https:\/\/www.csoonline.com\/article\/3492643\/generative-aieine-neue-herausforderung-fur-den-ciso.html\" title=\"in Zusammenhang mit KI zu kennen\" target=\"_blank\" rel=\"noopener\">in Zusammenhang mit KI zu kennen<\/a>. Entsprechend steht das Thema GenAI bei Rechts-, Compliance- und Datenschutzverantwortlichen <a href=\"https:\/\/www.gartner.com\/en\/newsroom\/press-releases\/2023-12-13-gartner-says-legal-compliance-and-privacy-leaders-rank-rapid-generative-ai-adoption-their-top-issue-in-the-next-two-years\" title=\"einer Gartner-Umfrage\" target=\"_blank\" rel=\"noopener\">einer Gartner-Umfrage<\/a> zufolge in den n\u00e4chsten zwei Jahren ganz oben auf der Agenda.<\/p>\n<p>Um KI-Risiken entgegenzuwirken, neue Bedrohungen zu minimieren sowie Compliance und Datenschutz zu gew\u00e4hrleisten, m\u00fcssen Anwenderunternehmen ihr KI-Engagement gr\u00fcndlich bewerten, Risiken abw\u00e4gen und Richtlinien sowie Strategien <a href=\"https:\/\/www.csoonline.com\/article\/3492417\/ki-vs-mensch-der-aufstieg-des-ai-ciso.html\" title=\"definieren\" target=\"_blank\" rel=\"noopener\">definieren<\/a>. Die Bewertungsstrategien unterscheiden sich dabei je nach Art der eingesetzten KI-L\u00f6sung. Ganz allgemein lassen sich die Risiken in Zusammenhang mit der Technologie in drei Kategorien einteilen:<\/p>\n<p>interne KI-Projekte,<\/p>\n<p>KI-L\u00f6sungen von Drittanbietern sowie<\/p>\n<p>schadhafter KI-Einsatz durch Bedrohungsakteure.<\/p>\n<p>Im Folgenden nehmen wir die einzelnen Bereiche ausf\u00fchrlich unter die Lupe.<\/p>\n<h1 class=\"wp-block-heading\">Interne KI-Risiken bewerten<\/h1>\n<p>Um Risiken bewerten zu k\u00f6nnen, m\u00fcssen Unternehmen im ersten Schritt wissen, wie k\u00fcnstliche Intelligenz intern eingesetzt wird. Um das zu bewerkstelligen, bieten sich zwei M\u00f6glichkeiten.<\/p>\n<p><strong>1. Frameworks f\u00fcr Risiko- und Qualit\u00e4tsmanagement<\/strong><\/p>\n<p>Das Softwareunternehmen Abbyy bewertet und quantifiziert die Performance seiner KI-Modelle schon seit einigen Jahren. Daf\u00fcr verwendet das Unternehmen Frameworks f\u00fcr Risiko- und Qualit\u00e4tsmanagement \u2013 unter anderem das <a href=\"https:\/\/www.iso.org\/iso-31000-risk-management.html\" title=\"ISO Risk Management Framework\" target=\"_blank\" rel=\"noopener\">ISO Risk Management Framework<\/a>. Spezielle Risikomanagement-Frameworks f\u00fcr k\u00fcnstliche Intelligenz werden derzeit erarbeitet \u2013 sowohl <a href=\"https:\/\/www.nist.gov\/itl\/ai-risk-management-framework\" title=\"in den USA\" target=\"_blank\" rel=\"noopener\">in den USA<\/a> als auch <a href=\"https:\/\/digital-strategy.ec.europa.eu\/de\/policies\/regulatory-framework-ai\" title=\"in Europa\" target=\"_blank\" rel=\"noopener\">in Europa<\/a>.<\/p>\n<p>Warum Abbyy f\u00fcr seine internen GenAI-Projekte in erster Linie auf \u00e4ltere Frameworks setzt, erkl\u00e4rt Andrew Pery, AI Ethics Evangelist beim KI-Softwarespezialisten, folgenderma\u00dfen: \u201cDiese Frameworks sind noch sehr rudiment\u00e4r. Es ist noch zu fr\u00fch, sie zum Einsatz zu bringen. Unser Kernprodukt extrahiert Daten und Inhalte aus Dokumenten und wir haben spezifische Genauigkeitsziele f\u00fcr unsere traditionellen KI-Modelle.\u201d<\/p>\n<p>Laut einer <a title=\"Wiz-Untersuchung\" href=\"https:\/\/www.wiz.io\/lp\/state-of-ai-report-2024\" target=\"_blank\" rel=\"noopener\">Wiz-Untersuchung<\/a> von 150.000 Public-Cloud-Accounts kommen in 70 Prozent der Cloud-Umgebungen inzwischen Generative-AI-Dienste zum Einsatz. Die beliebteste KI-Plattform ist dabei mit 53 Prozent die von OpenAI. Dicht gefolgt von Hugging Face und anderen Open-Source-Projekten. Diese Plattformen zu nutzen, birgt f\u00fcr Unternehmen diverse Risiken, beispielsweise mit Blick darauf, dass eingegebene Daten f\u00fcr das KI-Modelltraining verwendet werden.<\/p>\n<p>Ein umfassender \u00dcberblick dar\u00fcber, welche KI-L\u00f6sungen wo zum Einsatz kommen, ist deshalb unerl\u00e4sslich. Laut Priya Iragavarapu, VP of Technology Services bei der Unternehmensberatung AArete, erfordert das sowohl einen Top-Down- als auch einen Bottom-Up-Ansatz: \u201cUnternehmensentscheider sollten Prozesse, bei denen KI beteiligt ist, \u00fcberpr\u00fcfen und mit dem KI-Governance-Team <a href=\"https:\/\/www.csoonline.com\/article\/3496105\/governance-als-losung-genai-zwischen-akzeptanz-und-verbot.html\" title=\"diskutieren\" target=\"_blank\" rel=\"noopener\">diskutieren<\/a>. Wenn die F\u00fchrungskr\u00e4fte nicht wissen, welche KI wo verwendet wird, kommt der Bottom-up-Ansatz ins Spiel: Alle Endpunkte im Unternehmen werden getrackt, um die Systeme und Benutzer zu finden, die auf KI-Anwendungen zugreifen.\u201d<\/p>\n<p>Das stelle keine perfekte L\u00f6sung dar, gibt die Beraterin zu: \u201cEs gibt immer noch Dinge, die unter den Tisch fallen. Aber an dieser Stelle kommt der Aspekt einer gr\u00fcndlichen Schulung beziehungsweise Weiterbildung ins Spiel, um Mitarbeiter vor selbstverschuldeten <a href=\"https:\/\/www.csoonline.com\/article\/3577944\/diese-unternehmen-hats-schon-erwischt.html\" title=\"Dummheiten\" target=\"_blank\" rel=\"noopener\">Dummheiten<\/a> zu bewahren.\u201d<\/p>\n<p><strong>2. Eigene AI Deployment Frameworks<\/strong><\/p>\n<p>Unternehmen sollten auch ein Framework daf\u00fcr aufsetzen, wie KI-Modelle im Sinne ihrer jeweiligen Compliance-Umgebung und Risikotoleranz eingesetzt werden. So k\u00f6nnten etwa einige Anwendungsf\u00e4lle erfordern, dass s\u00e4mtliche KI-Outputs manuell \u00fcberpr\u00fcft werden m\u00fcssen. \u201cEs gibt mehrere Risikodimensionen, die f\u00fcr generative KI relevant sind\u201d, erkl\u00e4rt Iragavarapu. \u201cWie viele Menschen sind davon betroffen? Wie gro\u00df ist der Impact?\u201d AArete arbeitet mit einigen Unternehmen zusammen, um sie dabei zu unterst\u00fctzen, diese Risiken zu messen. F\u00fcr einige Branchen existieren auch bereits erste Generative-AI-Risiko-Benchmarks.<\/p>\n<p>Das ist ein Bereich, auf den sich jetzt diverse Beratungsunternehmen konzentrieren \u2013 Ernst &amp; Young zum Beispiel hat einen \u201c<a href=\"https:\/\/www.ey.com\/en_gl\/ai\/platform\/our-approach\" title=\"AI Confidence Index\" target=\"_blank\" rel=\"noopener\">AI Confidence Index<\/a>\u201d entwickelt. Kapish Vanvaria, Risk Markets Leader bei EY Americas, erkl\u00e4rt, was es damit auf sich hat: \u201cUnser Vertrauensindex basiert auf f\u00fcnf Kriterien \u2013 Datenschutz und Sicherheit, Bias und Fairness, Verl\u00e4sslichkeit, Transparenz und Erkl\u00e4rbarkeit und schlie\u00dflich die Verantwortlichkeit. Das ist die eine Achse des Indexes. Die andere umfasst Compliance und ethische Grunds\u00e4tze. So l\u00e4sst sich eine Heatmap der verschiedenen Prozesse erstellen und eine gewichtete Bewertungsmethode auf jeden einzelnen anwenden.\u201d <\/p>\n<p>Im Bereich Recht und <a href=\"https:\/\/www.csoonline.com\/article\/3496124\/cloud-security-journey-wie-compliance-bei-accenture-geht.html\" title=\"Compliance\" target=\"_blank\" rel=\"noopener\">Compliance<\/a> seien diese Berechnungen relativ einfach, weil sie auf Scoring-Werten basierten. In anderen gebe es hingegen mehr Ermessensspielraum, so der EY-Entscheider: \u201cEin Unternehmen k\u00f6nnte beispielsweise den Reifegrad anhand von Faktoren wie einer Richtlinie zur akzeptablen KI-Nutzung bewerten. Sie k\u00f6nnen numerische Punktzahlen anwenden, um die Grundlinien zu messen, und wenn sich das Ziel ver\u00e4ndert entsprechende \u00c4nderungen vornehmen.\u201d<\/p>\n<h1 class=\"wp-block-heading\">Drittanbieter-KI-Risiken bewerten<\/h1>\n<p>Datenschutz- und Sicherheitsprobleme in Zusammenhang mit Drittanbieter-Services sind <a href=\"https:\/\/www.csoonline.com\/article\/3492170\/third-party-risk-management-5-wege-mit-drittanbietern-unterzugehen.html\" title=\"nicht neu\" target=\"_blank\" rel=\"noopener\">nicht neu<\/a>. Potenziell k\u00f6nnte jeder Anbieter \u2013 egal, ob es um E-Mail-, Marketing- oder Daten-Services geht \u2013 Zugriff auf sensible Daten haben und diese unter Umst\u00e4nden sogar an seine jeweiligen Partner weitergeben. Risiken dieser Art zu minimieren, war schon vor Generative AI eine Herausforderung f\u00fcr Unternehmen \u2013 jetzt haben die Sicherheitsentscheider und ihre Teams gar keine andere Wahl mehr, als <a href=\"https:\/\/www.csoonline.com\/article\/3494219\/chatgpt-und-co-was-cisos-beim-einsatz-von-genai-beachten-sollten.html\" title=\"wachsam zu sein\" target=\"_blank\" rel=\"noopener\">wachsam zu sein<\/a>.<\/p>\n<p>Schlie\u00dflich k\u00f6nnten Tools, die bislang nicht als Sicherheitsrisiko galten, etwa f\u00fcr die Bildbearbeitung, inzwischen \u00fcber GenAI-Funktionalit\u00e4ten verf\u00fcgen \u2013 die hochgeladenen Informationen also bei einer KI landen. Um das zu verhindern, m\u00fcssen in erster Linie s\u00e4mtliche Vertr\u00e4ge und Nutzungsbedingungen genau studiert und im Auge behalten werden. Dar\u00fcber hinaus kann ein dediziertes Risikomanagement-Team f\u00fcr Drittanbieter dazu beitragen, Risiken zu minimieren.<\/p>\n<p>Greg Notch, CISO beim Security-Anbieter Expel, hat noch einen Tipp auf Lager, wenn es darum geht, die Zeichen am Horizont zu deuten: \u201cWenn ein Anbieter intern neue KI-Funktionen entwickelt, kann eine \u00c4nderung seiner Datenschutzrichtlinie ein erster Hinweis darauf sein. Bleiben Sie wachsam!\u201d<\/p>\n<p>In diesem Zusammenhang entfaltet auch die europ\u00e4ische Datenschutzgrundverordnung (DSGVO) positive Wirkung. Sie verpflichtet Anbieter dazu, offenzulegen, wenn sie mit Subunternehmern zusammenarbeiten. <\/p>\n<h1 class=\"wp-block-heading\">Externe KI-Bedrohungen bewerten<\/h1>\n<p>Generative KI wird l\u00e4ngst auch zu unlauteren Zwecken genutzt, etwa um <a href=\"https:\/\/www.csoonline.com\/article\/3495991\/google-prognose-2024-genai-verstarkt-phishing-kampagnen.html\" title=\"(Spear)-Phising-Emails zu generieren\" target=\"_blank\" rel=\"noopener\">(Spear)-Phising-Emails zu generieren<\/a>. Das stellt die Sicherheitsteams in Unternehmen zunehmend vor Probleme, wie CISO Notch konstatiert: \u201cJede Organisation will sich vor Business E-Mail Compromise sch\u00fctzen. Allerdings sind die Indikatoren daf\u00fcr, dass es sich um eine nicht koschere E-Mail handelt, sowohl f\u00fcr Menschen als auch f\u00fcr Maschinen immer schwieriger zu erkennen. K\u00fcnstliche Intelligenz ist in der Lage, E-Mails und Webseiten nahezu perfekt zu f\u00e4lschen.\u201d<\/p>\n<p>Perys Arbeitgeber Abbyy arbeitet deswegen gezielt mit Sicherheitsanbietern zusammen, die sich auf GenAI-Bedrohungen spezialisiert haben. Dennoch sind die KI-Risiken schwer zu quantifizieren. An dieser Stelle sollen k\u00fcnftig neue Frameworks Abhilfe schaffen \u2013 etwa die vom Cybersecurity-Experten Daniel Miessler 2023 ver\u00f6ffentlichte \u201c<a href=\"https:\/\/danielmiessler.com\/p\/the-ai-attack-surface-map-v1-0\" title=\"AI Attack Surface Map\" target=\"_blank\" rel=\"noopener\">AI Attack Surface Map<\/a>\u201c. Sasa Zdjelar, Chief Trust Officer beim Supply-Chain-Spezialisten ReversingLabs, rechnet damit, dass demn\u00e4chst auch gr\u00f6\u00dfere Organisationen nachziehen: \u201cCISA, NIST, die Cloud Security Alliance, ENISA und andere werden spezielle Task Forces bilden, die sich mit diesen neuen Bedrohungen befassen.\u201d<\/p>\n<p>Bis es soweit ist, k\u00f6nnen Unternehmen pr\u00fcfen, wie gut sie die Grundlagen beherrschen. Dazu geh\u00f6rt beispielsweise, zu \u00fcberpr\u00fcfen:<\/p>\n<p>ob alle Endpunkte gesch\u00fctzt sind;<\/p>\n<p>ob alle User Multi-Faktor-Authentifizierung nutzen;<\/p>\n<p>wie gut die Mitarbeiter Phishing-Versuche erkennen;<\/p>\n<p>wie gro\u00df der R\u00fcckstand in Sachen Patching ist;<\/p>\n<p>zu welchem Grad <a title=\"Zero-Trust-Prinzipien\" href=\"https:\/\/www.csoonline.com\/article\/3491851\/was-ist-zero-trust.html\" target=\"_blank\" rel=\"noopener\">Zero-Trust-Prinzipien<\/a> die IT-Umgebung abdecken.<\/p>\n<p>Diese grundlegenden Hygienema\u00dfnahmen k\u00f6nnen leicht unter den Tisch fallen, wenn neue Bedrohungen auftauchen.<\/p>\n<p>Dar\u00fcber hinaus k\u00f6nnen Firmen auch hinsichtlich neuer und aufkeimender Threats t\u00e4tig werden, wie Sean Loveland, COO vom Sicherheitsanbieter Resecurity, nahelegt: \u201cOffensive Cyber Threat Intelligence und KI-spezifisches Threat Monitoring k\u00f6nnen Informationen \u00fcber neue Angriffsmethoden und Schwachstellen liefern sowie dar\u00fcber, wie diese monetarisiert werden. Es gibt zum Beispiel ein Produkt namens \u2018FraudGPT\u2019, das \u00fcber das Dark Web und Telegram vertrieben wird.\u201d Dass kriminelle Hacker KI-Tools inzwischen<a href=\"https:\/\/www.csoonline.com\/article\/3492536\/chatgpt-wie-cybergangster-generative-ai-nutzen.html\" title=\" in erheblichem Umfang nutzen\" target=\"_blank\" rel=\"noopener\"> in erheblichem Umfang nutzen<\/a>, kann auch Greg Stewart, Vice President Artificial Intelligence bei SentinelOne, best\u00e4tigen: \u201cWir beobachten eine starke Zunahme von adaptiver und polymorpher Malware, die sich autonom verbreitet.\u201d<\/p>\n<p>Davon abgesehen ist GenAI jedoch auch in der Lage, das Angriffsvolumen drastisch zu steigern. Das Weltwirtschaftsforum identifiziert in seinem \u201c<a title=\"Global Risks Report 2024\" href=\"https:\/\/www.weforum.org\/publications\/global-risks-report-2024\/\" target=\"_blank\" rel=\"noopener\">Global Risks Report<\/a>\u201d ein weiteres, erhebliches Risiko f\u00fcr Unternehmen: KI-generierte Fehl- und Desinformationen. Schlie\u00dflich k\u00f6nnen sich entsprechende Fake News schnell drastisch auf den Aktienkurs eines Unternehmens auswirken.<\/p>\n<h1 class=\"wp-block-heading\">Risikobehaftete Aussichten<\/h1>\n<p>\u201cUnternehmen m\u00fcssen sich darauf konzentrieren, einen ganzheitlichen Plan zu erstellen, um den Stand der generativen KI in ihrem Unternehmen zu bewerten\u201d, h\u00e4lt Paul Silverglate, Technology Leader bei Deloitte USA, fest. Er erg\u00e4nzt: \u201cSie m\u00fcssen zeigen, dass es f\u00fcr das Unternehmen wichtig ist, es richtig zu machen und darauf vorbereitet zu sein, schnell zu reagieren und Abhilfe zu schaffen, falls etwas passiert.\u201d<\/p>\n<p>Wie wahrscheinlich es ist, dass das genau so und zeitnah passiert, ist mit Blick auf eine <a title=\"Riskonnect-Survey\" href=\"https:\/\/riskonnect.com\/reports\/new-generation-of-risk-ahead-of-the-curve-or-behind-the-pack\/\" target=\"_blank\" rel=\"noopener\">Riskonnect-Survey<\/a> unter 300 Risiko- und Compliance-Entscheidern fraglich:<\/p>\n<p>93 Prozent der Unternehmen rechnen mit erheblichen Bedrohungen im Zusammenhang mit generativer KI.<\/p>\n<p>Dennoch geben nur 17 Prozent der Teilnehmer an, das gesamte Unternehmen in Bezug auf GenAI-Risiken geschult oder informiert zu haben.<\/p>\n<p>Lediglich neun Prozent sind nach eigenen Angaben darauf vorbereitet, diese Risiken zu managen.<\/p>\n<p>Eine \u00e4hnlich gelagerte ISACA-Umfrage unter mehr als 2.300 Fachleuten aus den Bereichen Audit, Risiko, Sicherheit, Datenschutz und IT-Governance kommt dar\u00fcber hinaus zum Ergebnis, dass lediglich zehn Prozent der Befragten \u00fcber eine umfassende <a href=\"https:\/\/www.csoonline.com\/article\/3494657\/windows-sicherheit-meets-generative-ai-sind-ihre-richtlinien-schon-ki-ready.html\" title=\"Generative-AI-Richtlinie\" target=\"_blank\" rel=\"noopener\">Generative-AI-Richtlinie<\/a> verf\u00fcgen. Noch schlimmer: Mehr als ein Viertel der Befragten plant auch nicht, eine solche zu entwickeln. Gravierende Fehler, wie Silvergate erkl\u00e4rt: \u201cTrust ist <a href=\"https:\/\/www.csoonline.com\/article\/3495889\/verbesserungswurdige-compliance-masnahmen-generative-ai-konnte-das-vertrauen-der-kunden-untergraben.html\" title=\"der heilige Gral\" target=\"_blank\" rel=\"noopener\">der heilige Gral<\/a>. Wenn Sie das Vertrauen ihrer Kunden verlieren, wird es sehr schwer zur\u00fcckzugewinnen sein.\u201d (fm)<\/p>\n<p><strong>Sie wollen weitere interessante Beitr\u00e4ge rund um das Thema IT-Sicherheit lesen? Unser <a href=\"https:\/\/www.csoonline.com\/de\/newsletters\/signup\/\" target=\"_blank\" rel=\"noopener\">kostenloser Newsletter<\/a> liefert Ihnen alles, was Sicherheitsentscheider und -experten wissen sollten, direkt in Ihre Inbox.<\/strong><\/p>\n<\/div>\n<\/div>\n<\/div>\n<\/div>","protected":false},"excerpt":{"rendered":"<p>KI-Risiken zu bewerten und zu quantifizieren, ist in der GenAI-\u00c4ra unerl\u00e4sslich. Lerbank-bbk22 | shutterstock.com Wie jede Technologie birgt auch k\u00fcnstliche Intelligenz (KI) nicht nur Vorteile. Insbesondere seit dem Aufkommen von Generative AI (GenAI) und der explosionsartigen Verbreitung entsprechender Tools und L\u00f6sungen ist es f\u00fcr Unternehmen wichtiger denn je, die Risiken in Zusammenhang mit KI zu [&hellip;]<\/p>\n","protected":false},"author":0,"featured_media":5877,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[3],"tags":[],"class_list":["post-5876","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-education"],"_links":{"self":[{"href":"https:\/\/cybersecurityinfocus.com\/index.php?rest_route=\/wp\/v2\/posts\/5876"}],"collection":[{"href":"https:\/\/cybersecurityinfocus.com\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/cybersecurityinfocus.com\/index.php?rest_route=\/wp\/v2\/types\/post"}],"replies":[{"embeddable":true,"href":"https:\/\/cybersecurityinfocus.com\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=5876"}],"version-history":[{"count":0,"href":"https:\/\/cybersecurityinfocus.com\/index.php?rest_route=\/wp\/v2\/posts\/5876\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/cybersecurityinfocus.com\/index.php?rest_route=\/wp\/v2\/media\/5877"}],"wp:attachment":[{"href":"https:\/\/cybersecurityinfocus.com\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=5876"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/cybersecurityinfocus.com\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=5876"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/cybersecurityinfocus.com\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=5876"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}