{"id":1860,"date":"2025-02-10T15:45:29","date_gmt":"2025-02-10T15:45:29","guid":{"rendered":"https:\/\/cybersecurityinfocus.com\/?p=1860"},"modified":"2025-02-10T15:45:29","modified_gmt":"2025-02-10T15:45:29","slug":"datenleck-durch-genai-nutzung","status":"publish","type":"post","link":"https:\/\/cybersecurityinfocus.com\/?p=1860","title":{"rendered":"Datenleck durch GenAI-Nutzung"},"content":{"rendered":"<div>\n<div class=\"grid grid--cols-10@md grid--cols-8@lg article-column\">\n<div class=\"col-12 col-10@md col-6@lg col-start-3@lg\">\n<div class=\"article-column__content\">\n<div class=\"container\"><\/div>\n<div class=\"extendedBlock-wrapper block-coreImage undefined\">Viele Mitarbeiter teilen sensible Unternehmensdaten, wenn sie generative KI-Apps anwenden.\n<p class=\"imageCredit\">Owlie Productions \u2013 Shutterstock.com<\/p>\n<\/div>\n<p>Laut einem <a href=\"https:\/\/www.harmonic.security\/resources\/from-payrolls-to-patents-the-spectrum-of-data-leaked-into-genai\">aktuellen Bericht \u00fcber Gen-AI-Datenlecks<\/a> von Harmonic enthielten 8,5 Prozent der Mitarbeiteranfragen an beliebte LLMs sensible Daten, was zu Sicherheits-, Compliance-, Datenschutz- und rechtlichen Bedenken f\u00fchrte.<\/p>\n<p>Der Security-Spezialist hat im vierten Quartal 2024 Zehntausende von Eingabeaufforderungen an ChatGPT, Copilot, Gemini, Claude und Perplexity analysiert. Dabei stellte sich heraus, dass Kundendaten, einschlie\u00dflich Rechnungs- und Authentifizierungsdaten, mit 46 Prozent den gr\u00f6\u00dften Anteil an den durchgesickerten Daten ausmachten. Harmonic fiel dabei vor allem der hohe Anteil an Versicherungsanspr\u00fcche auf. Demnach werden diese mit Kundendaten gespickten Berichte h\u00e4ufig von Mitarbeitern in KI-Tools eingegeben, um Zeit bei der Bearbeitung zu sparen.<\/p>\n<p>Der Analyse zufolge machten Mitarbeiterdaten, einschlie\u00dflich Gehaltsabrechnungsdaten und personenbezogener Daten (PII), 27 Prozent der sensiblen Anfragen aus, gefolgt von Rechts- und Finanzdaten mit 15 Prozent.<\/p>\n<p>\u201eSicherheitsrelevante Informationen, die fast sieben Prozent der sensiblen Anfragen ausmachen, sind besonders besorgniserregend\u201c, warnt der Bericht. \u201cBeispiele hierf\u00fcr sind Ergebnisse von Penetrationstests, Netzwerkkonfigurationen und Vorfallsberichte. Solche Daten k\u00f6nnten Angreifern eine Blaupause f\u00fcr die Ausnutzung von Schwachstellen liefern.\u201c<\/p>\n<h2 class=\"wp-block-heading\"><strong>Raus aus dem Schatten<\/strong><\/h2>\n<p>Der Verlust von GenAI-Daten ist ein schwieriges Problem \u2013 und ein Hauptgrund daf\u00fcr, dass <a href=\"https:\/\/www.csoonline.com\/article\/3801012\/gen-ai-strategies-put-cisos-in-a-stressful-bind.html\">generative KI-Strategien CISOs in eine Zwickm\u00fchle<\/a> bringen.<\/p>\n<p>Die Nutzung von LLM in Unternehmen l\u00e4sst sich in drei gro\u00dfe Kategorien einteilen:<\/p>\n<p>Sanktionierte Deployments, einschlie\u00dflich lizenzierter und intern entwickelter Implementierungen;<\/p>\n<p>Schatten-KI, also in der Regel kostenlose, Consumer-Apps, die vom Unternehmen <a href=\"https:\/\/www.csoonline.com\/article\/2138447\/unauthorized-ai-is-eating-your-company-data-thanks-to-your-employees.html\">aus gutem Grund<\/a> verboten sind; und<\/p>\n<p>Halbschatten-GenAI .<\/p>\n<p>Nicht autorisierte Schatten-KI ist ein Hauptproblem f\u00fcr CISOs, das am schwierigsten zu kontrollieren sein d\u00fcrfte. Von den Leitern der Gesch\u00e4ftsbereiche initiiert, kann Semi-Shadow-KI kostenpflichtige generative KI-Apps umfassen, die kein Okay von der IT erhalten haben und f\u00fcr Experimente, bestimmte Zwecke oder eine h\u00f6here Produktivit\u00e4t eingesetzt werden. In solchen F\u00e4llen kann es sein, dass die F\u00fchrungskraft die Nutzung von Schatten-IT propagiert . Die Mitarbeiter der einzelnen Gesch\u00e4ftsbereiche sind sich jedoch keiner Schuld bewusst, da sie vom Management im Rahmen der KI-Strategie angewiesen wurden, die Tools zu nutzen.<\/p>\n<p>Schatten- oder Halbschatten-Apps f\u00fcr freie generative KI sind am problematischsten, da ihre Lizenzbedingungen in der Regel vorsehen, dass die Daten bei jeder Abfrage f\u00fcr das Training der KI-Modelle genutzt werden d\u00fcrfen. Laut der Harmonic-Studie ist die Nutzung von KI im kostenlosen Bereich f\u00fcr den L\u00f6wenanteil der sensiblen Datenlecks verantwortlich. So wurden beispielsweise 54 Prozent der sensiblen Eingabeaufforderungen in der kostenlosen Version von ChatGPT eingegeben.<\/p>\n<p>Die meisten Datenspezialisten raten CISOs jedoch auch davon ab, den vertraglichen Versprechen kostenpflichtiger generativer KI-Apps zu vertrauen. In den meisten F\u00e4llen verbieten sie das Training mit Benutzeranfragen in Unternehmensversionen.<\/p>\n<p>Robert Taylor, Anwalt bei Carstens, Allen &amp; Gourley, warnt davor, dass zum Beispiel Gesch\u00e4ftsgeheimnisse preisgegeben werden k\u00f6nnen. \u201eVerschiedene rechtliche Schutzma\u00dfnahmen \u2013 insbesondere der Schutz von Gesch\u00e4ftsgeheimnissen \u2013 k\u00f6nnen verloren gehen, wenn ein Mitarbeiter einem GenAI-System eine Frage stellt.\u201c<\/p>\n<p>Er f\u00fcgt hinzu: \u201eWenn ein Konkurrent von dem Leck erf\u00e4hrt, kann er vor Gericht argumentieren, dass das Leck den rechtlichen Schutz des Gesch\u00e4ftsgeheimnisses ung\u00fcltig macht.\u201c Laut Taylor m\u00fcssen die Anw\u00e4lte des IP-Inhabers dann nachweisen, dass das Unternehmen eine Vielzahl von Schutzmechanismen eingesetzt hat.<\/p>\n<p>\u00a0\u201eSich auf die Bestimmungen eines Vertrags zu verlassen, der kein Training mit GenAI-Abfragen verspricht, reicht nicht aus\u201c, betont der Experte. Unternehmen m\u00fcssten Richtlinien einf\u00fchren, die ihre Mitarbeiter bei der Nutzung dieser Daten einschr\u00e4nken.<\/p>\n<h2 class=\"wp-block-heading\"><strong>Datenbewusste Praktiken<\/strong><\/h2>\n<p>Nach Meinung von Jeff Pollard, Vizepr\u00e4sident und leitender Analyst bei Forrester, sollten CISOs mit F\u00fchrungskr\u00e4ften bei den Schulungen der Mitarbeiter zusammenarbeiten. Auf diese Weise werde sichergestellt, dass die Mitarbeiter darin geschult werden, wie sie mit LLMs die gleichen Ergebnisse erzielen k\u00f6nnen, ohne gesch\u00fctzte Daten zu verwenden, erkl\u00e4rt er.<\/p>\n<p>\u201eMan muss wirklich keine sensiblen Informationen preisgeben, um einen positiven Nutzen aus dem System zu ziehen. Aber wir m\u00fcssen die Benutzer darin schulen, die Strategien der Prompt-Formulierung zu verstehen\u201c, erg\u00e4nzt Pollard.<\/p>\n<p>Vor diesem Hintergrund setzte sich Arun Chandrasekaran, Vizepr\u00e4sident und Analyst bei Gartner,\u00a0 mit folgender Frage auseinander: Warum verwenden Mitarbeiter kostenlose KI-Tools anstelle von abgesperrten, Enterprise-tauglichen Bezahlversionen ? \u201eDie Mitarbeiter tun es, weil die IT-Abteilung ihnen nicht die Tools zur Verf\u00fcgung stellt, die sie ben\u00f6tigen\u201c, argumentierte er.<\/p>\n<p>\u201eDie Nutzung von KI durch die Mitarbeiter ist soweit fortgeschritten, dass die IT-Teams kaum aufholen k\u00f6nnen\u201c, f\u00fcgt Kaz Hassan, Senior Community and Partner Marketing Manager beim Softwareanbieter Unily. hinzu. \u201eEs ist ein neues Konzepterforderlich. Unternehmen brauchen jetzt klare KI-Strategien, um Risiken zu reduzieren. Sie m\u00fcssen KI in den Tech-Stack der Mitarbeiter integrieren.\u201c<\/p>\n<p>Hassan zufolge reichen typische \u00dcberwachungs- und Kontroll-Apps nicht aus, um solche Datenlecks zu verhindern. \u201eDer Grund, warum Power-User sensible Daten \u00fcber nicht autorisierte KI-Tools verwenden ist nicht, weil sie nicht kontrolliert werden k\u00f6nnen, sondern, weil sie nicht ausgebremst werden wollen. Das alte Muster des Einschr\u00e4nkens und Sch\u00fctzens versagt nicht nur \u2013 es dr\u00e4ngt KI-Innovationen aktiv in eine Grauzone\u201c, so der Unily-Experte. \u201cCISOs m\u00fcssen sich dieser Realit\u00e4t stellen: Entweder sie f\u00fchren die KI-Transformation an oder sie m\u00fcssen zusehen, wie sich ihr Sicherheitsbereich aufl\u00f6st.\u201c<\/p>\n<p>Hassan wies darauf hin, dass das Datenproblem der generativen KI in zwei Richtungen geht: Sensible Daten, die \u00fcber Abfragen das Unternehmen verlassen, und fehlerhafte Daten \u2013 entweder durch Halluzinationen oder durch Training mit falschen Informationen \u2013, die \u00fcber generative KI-Antworten, auf die sich Ihr Team bei der Unternehmensanalyse verl\u00e4sst, in das Unternehmen gelangen. (jm)<\/p>\n<\/div>\n<\/div>\n<\/div>\n<\/div>","protected":false},"excerpt":{"rendered":"<p>Viele Mitarbeiter teilen sensible Unternehmensdaten, wenn sie generative KI-Apps anwenden. Owlie Productions \u2013 Shutterstock.com Laut einem aktuellen Bericht \u00fcber Gen-AI-Datenlecks von Harmonic enthielten 8,5 Prozent der Mitarbeiteranfragen an beliebte LLMs sensible Daten, was zu Sicherheits-, Compliance-, Datenschutz- und rechtlichen Bedenken f\u00fchrte. Der Security-Spezialist hat im vierten Quartal 2024 Zehntausende von Eingabeaufforderungen an ChatGPT, Copilot, Gemini, [&hellip;]<\/p>\n","protected":false},"author":0,"featured_media":1861,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[3],"tags":[],"class_list":["post-1860","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-education"],"_links":{"self":[{"href":"https:\/\/cybersecurityinfocus.com\/index.php?rest_route=\/wp\/v2\/posts\/1860"}],"collection":[{"href":"https:\/\/cybersecurityinfocus.com\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/cybersecurityinfocus.com\/index.php?rest_route=\/wp\/v2\/types\/post"}],"replies":[{"embeddable":true,"href":"https:\/\/cybersecurityinfocus.com\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=1860"}],"version-history":[{"count":0,"href":"https:\/\/cybersecurityinfocus.com\/index.php?rest_route=\/wp\/v2\/posts\/1860\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/cybersecurityinfocus.com\/index.php?rest_route=\/wp\/v2\/media\/1861"}],"wp:attachment":[{"href":"https:\/\/cybersecurityinfocus.com\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=1860"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/cybersecurityinfocus.com\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=1860"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/cybersecurityinfocus.com\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=1860"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}