{"id":11470,"date":"2025-04-22T11:28:00","date_gmt":"2025-04-22T09:28:00","guid":{"rendered":"https:\/\/www.psw-group.de\/blog\/?p=11470"},"modified":"2025-04-28T17:28:49","modified_gmt":"2025-04-28T15:28:49","slug":"llmjacking-unsichtbare-bedrohung-fuer-ki-systeme","status":"publish","type":"post","link":"https:\/\/www.psw-group.de\/blog\/llmjacking-unsichtbare-bedrohung-fuer-ki-systeme\/","title":{"rendered":"LLMJacking: Unsichtbare Bedrohung f\u00fcr KI-Systeme"},"content":{"rendered":"<p>K\u00fcnstliche Intelligenz ist l\u00e4ngst zu einem festen Bestandteil unseres Alltags geworden. Ob ChatGPT, Google Gemini oder das k\u00fcrzlich erschienene DeepSeek: Large Language Models (LLMs) erleichtern zahlreiche berufliche und private Aufgaben. Doch diese Beliebtheit blieb nicht unbemerkt: Cyberkriminelle nutzen die Verbreitung von KI-Diensten gezielt aus, um sogenannte LLMJacking-Angriffe durchzuf\u00fchren. In diesem Beitrag erfahren Sie, was LLMJacking-Angriffe sind, wie sie funktionieren und welche Ma\u00dfnahmen Sie zum Schutz ergreifen k\u00f6nnen.<\/p>\n<h2>Ein \u00dcberblick: Was sind Large Language Models (LLMs)?<\/h2>\n<p>Large Language Models (LLMs) sind KI-Modelle, die mithilfe gro\u00dfer Textdatenmengen trainiert wurden. Sie sind darauf spezialisiert, menschliche Sprache zu verstehen und zu generieren. Bekannte Beispiele f\u00fcr LLMs sind ChatGPT, DeepSeek, Google Gemini und Microsoft Copilot. Dank ihrer F\u00e4higkeit, Texte zu analysieren und Inhalte zu erstellen, erfreuen sich diese Modelle gro\u00dfer Beliebtheit. Doch genau diese Beliebtheit birgt auch Risiken: Mit der zunehmenden Nutzung von LLMs ist das sogenannte LLMJacking entstanden.<\/p>\n<h2>LLMJacking und wie es funktioniert<\/h2>\n<h3>Was sind LLMJacking-Angriffe?<\/h3>\n<p>LLMJacking-Angriffe sind neue und gef\u00e4hrliche Formen des Cyberangriffs, die speziell auf gro\u00dfe Sprachmodelle wie ChatGPT, DeepSeek oder Google Gemini abzielen. Der Begriff &#8222;LLMJacking&#8220; beschreibt den Diebstahl von Zugangsdaten zu diesen KI-Diensten, um diese anschlie\u00dfend unbefugt zu nutzen. Dabei verschaffen sich die Angreifenden Zugriff auf kostenintensive KI-Ressourcen und nutzen diese f\u00fcr eigene Projekte oder illegale Aktivit\u00e4ten. Die betroffenen Unternehmen bleiben auf den hohen Kosten sitzen, w\u00e4hrend die Kriminellen die KI-Modelle f\u00fcr eigene Zwecke missbrauchen.<\/p>\n<h3>Unterschied zu klassischen Cloudangriffen<\/h3>\n<p>LLMJacking-Angriffe \u00e4hneln klassischen Cloudangriffen auf Plattformen wie AWS oder Microsoft Azure. Auch hier stehen gestohlene Zugangsdaten im Mittelpunkt, mit denen Angreifer unberechtigt auf kostenintensive Ressourcen zugreifen. Der Unterschied liegt in der Zielgruppe: W\u00e4hrend Cloudangriffe klassische Server-Infrastrukturen betreffen, konzentriert sich LLMJacking gezielt auf Sprachmodelle und deren Rechenleistung.<\/p>\n<h3>Ziel der Angreifer<\/h3>\n<p>Das Hauptziel der Angreifer besteht darin, teure KI-Dienste unbefugt zu nutzen. Die aufwendige Rechenleistung hinter Modellen wie ChatGPT oder DeepSeek bietet enorme M\u00f6glichkeiten, sei es f\u00fcr die Generierung von Inhalten, das Training neuer Modelle oder andere ressourcenintensive Aufgaben. Durch den Missbrauch dieser Zugangsdaten k\u00f6nnen die Kriminellen erhebliche Kosten einsparen, die sonst bei legaler Nutzung anfallen w\u00fcrden.<\/p>\n<h3>Vorgehen der Angreifer<\/h3>\n<p>Um an die Zugangsdaten zu gelangen, setzen Cyberkriminelle h\u00e4ufig auf Phishing-Angriffe. Dabei versenden sie t\u00e4uschend echt wirkende E-Mails, die das Opfer auf gef\u00e4lschte Anmeldeseiten f\u00fchren. Gibt es dort seine Zugangsdaten ein, erhalten die Angreifer direkten Zugriff auf den jeweiligen KI-Dienst. Einmal im Besitz dieser Zugangsdaten, k\u00f6nnen sich die Angreifer ungehindert einloggen und die wertvolle Rechenleistung f\u00fcr eigene Projekte nutzen.<\/p>\n<h2>Aktuelles Beispiel f\u00fcr LLMJacking-Angriffe<\/h2>\n<p>LLMJacking-Angriffe sind eine ernstzunehmende Bedrohung, die seit ihrer Entdeckung im Mai 2024 durch das Sysdig Threat Research Team stark zugenommen haben. Besonders besorgniserregend ist dabei die Geschwindigkeit, mit der Cyberkriminelle neue Technologien ins Visier nehmen und f\u00fcr ihre Zwecke missbrauchen.<\/p>\n<p>Ein prominentes Beispiel ist das KI-Modell DeepSeek: Nur wenige Tage nach der Ver\u00f6ffentlichung des fortgeschrittenen Modells DeepSeek-V3 wurde es auch schon Ziel eines LLMJacking-Angriffs. Die Angreifenden integrierten das Modell in Proxy-Server, die mit gestohlenen API-Schl\u00fcsseln ausgestattet waren. Dies erm\u00f6glichte es den Kriminellen, die leistungsstarke KI-Infrastruktur unbefugt zu nutzen, um eigene Projekte umzusetzen.<\/p>\n<p>Die Geschwindigkeit dieses Angriffs verdeutlicht die Effizienz und das Know-how der Cyberkriminellen: Nur wenige Tage nach der Ver\u00f6ffentlichung des Modells konnten sie bereits Zugangsdaten entwenden und missbrauchen!<\/p>\n<p>Und tats\u00e4chlich ist LLMJacking l\u00e4ngst kein Randph\u00e4nomen mehr. Denn laut Sysdig haben sich bereits spezialisierte Communities auf Plattformen wie 4chan und Discord gebildet, die aktiv Tools und Techniken zur missbr\u00e4uchlichen Nutzung von LLMs austauschen. Die Nutzung dieser gestohlenen Ressourcen reicht von der Generierung nicht jugendfreier Inhalte bis hin zu betr\u00fcgerischen Rollenspielen mit KI-Charakteren.<\/p>\n<h2>Schutzma\u00dfnahmen gegen LLMJacking<\/h2>\n<p>Um sich effektiv gegen LLMJacking-Angriffe zu sch\u00fctzen, k\u00f6nnen und sollten Sie gezielte Sicherheitsma\u00dfnahmen implementieren. Dazu z\u00e4hlen unter anderem:<\/p>\n<p><strong>Multi-Faktor-Authentifizierung (MFA)<\/strong><\/p>\n<p><a href=\"https:\/\/www.psw-group.de\/blog\/multi-faktor-authentifizierung\/?srsltid=AfmBOooi-9Q_Aa063Uy-gCt0tqhlPeL5qcmbN3ZNeCzkKy_vCnkyhhMl\">Implementieren Sie MFA<\/a> f\u00fcr alle Zug\u00e4nge zu KI-Diensten. Durch die zus\u00e4tzliche Verifizierung wird die Sicherheit der Anmeldeprozesse erheblich verbessert und unbefugter Zugriff erschwert.<\/p>\n<p><strong>\u00dcberwachung und Logging<\/strong><\/p>\n<p>Setzen Sie umfassende \u00dcberwachungsmechanismen ein, um ungew\u00f6hnliche Aktivit\u00e4ten fr\u00fchzeitig zu erkennen. Nutzen Sie spezialisierte Tools, die auf verd\u00e4chtige API-Nutzungen, auff\u00e4llige Zugriffsmuster oder stark abweichende Nutzungszeiten hinweisen. Erg\u00e4nzen Sie diese Ma\u00dfnahmen durch automatisierte Alarme und detaillierte Protokolle, um Sicherheitsvorf\u00e4lle effizient nachzuverfolgen.<\/p>\n<p><strong>Schulung Ihrer Mitarbeitenden<\/strong><\/p>\n<p>Sensibilisieren Sie Ihre Mitarbeitenden f\u00fcr Phishing-Angriffe und andere Social-Engineering-Methoden. Bieten Sie <a href=\"https:\/\/www.psw-training.de\/\" target=\"_blank\" rel=\"noopener\">regelm\u00e4\u00dfige Schulungen<\/a> und Simulationen an, um das Bewusstsein und die Reaktionsf\u00e4higkeit zu st\u00e4rken. Mitarbeitende sollten lernen, verd\u00e4chtige E-Mails zu erkennen, insbesondere wenn sie Links zu Anmeldeseiten oder verd\u00e4chtige Dateianh\u00e4nge enthalten.<\/p>\n<p><strong>Sicherung von Zugangsschl\u00fcsseln und Anmeldedaten<\/strong><\/p>\n<p>Ein zentraler Aspekt der Verteidigungsstrategie ist der Schutz von API-Schl\u00fcsseln und Zugangsdaten. Vermeiden Sie es, diese im Quellcode zu speichern. Stattdessen sollten Unternehmen Umgebungsvariablen oder spezialisierte Secret-Management-Tools wie HashiCorp Vault, AWS Secrets Manager oder Azure Key Vault nutzen. Zudem sollten API-Schl\u00fcssel regelm\u00e4\u00dfig rotiert und mit restriktiven Zugriffsbeschr\u00e4nkungen versehen werden, um Missbrauch zu verhindern.<\/p>\n<p><strong>Zugriffskontrollen und Rechteverwaltung<\/strong><\/p>\n<p>Implementieren Sie ein striktes Rechte- und Rollenkonzept (Principle of Least Privilege, PoLP), bei dem jeder Nutzer nur die minimalen Berechtigungen erh\u00e4lt, die zur Erf\u00fcllung seiner Aufgaben erforderlich sind. Beschr\u00e4nken Sie au\u00dferdem den Zugriff auf sensible KI-Dienste durch IP-Whitelisting und andere Netzwerk-Sicherheitsma\u00dfnahmen.<\/p>\n<p><strong>Regelm\u00e4\u00dfige Sicherheits\u00fcberpr\u00fcfungen<\/strong><\/p>\n<p>F\u00fchren Sie regelm\u00e4\u00dfige Sicherheits-Audits und Penetrationstests durch, um Schwachstellen fr\u00fchzeitig zu identifizieren. Diese Tests sollten insbesondere die Sicherheit von API-Schnittstellen, Zugangsdaten und der gesamten IT-Infrastruktur abdecken.<\/p>\n<h2>Fazit: LLMJacking ist eine ernstzunehmende Gefahr im KI-Zeitalter<\/h2>\n<p>LLMJacking ist eine ernstzunehmende Bedrohung f\u00fcr Unternehmen, die KI-Modelle einsetzen. Die rasante Weiterentwicklung von Angriffstechniken und die hohe Attraktivit\u00e4t von LLM-Diensten f\u00fcr Cyberkriminelle machen dieses Thema besonders brisant. Ohne angemessene Schutzma\u00dfnahmen riskieren Unternehmen nicht nur finanzielle Sch\u00e4den durch den unbefugten Verbrauch kostenintensiver Ressourcen, sondern auch einen potenziellen Reputationsverlust.<\/p>\n<p>Um dieser wachsenden Gefahr zu begegnen, ist ein ganzheitlicher Sicherheitsansatz unerl\u00e4sslich. Dazu geh\u00f6rt die konsequente Implementierung von Multi-Faktor-Authentifizierung, die laufende \u00dcberwachung von Zugriffsaktivit\u00e4ten und die regelm\u00e4\u00dfige Schulung der Mitarbeitenden. Besonders wichtig ist der verantwortungsvolle Umgang mit Zugangsdaten und API-Schl\u00fcsseln, um Angreifern keine unn\u00f6tigen Einfallstore zu bieten.<\/p>\n<p>Unternehmen, die ihre Sicherheitsstrategien kontinuierlich anpassen und auf verd\u00e4chtige Aktivit\u00e4ten achten, k\u00f6nnen das Risiko durch LLMJacking-Angriffe erheblich minimieren und die Integrit\u00e4t ihrer KI-Systeme langfristig gew\u00e4hrleisten.<\/p>\n<p>&nbsp;<\/p>\n<div class=\"shariff\"><ul class=\"shariff-buttons theme-default orientation-horizontal buttonsize-medium\"><li class=\"shariff-button facebook shariff-nocustomcolor\" style=\"background-color:#4273c8\"><a href=\"https:\/\/www.facebook.com\/sharer\/sharer.php?u=https%3A%2F%2Fwww.psw-group.de%2Fblog%2Fllmjacking-unsichtbare-bedrohung-fuer-ki-systeme%2F\" title=\"Bei Facebook teilen\" aria-label=\"Bei Facebook teilen\" role=\"button\" rel=\"nofollow\" class=\"shariff-link\" style=\"; background-color:#3b5998; color:#fff\" target=\"_blank\"><span class=\"shariff-icon\" style=\"\"><svg width=\"32px\" height=\"20px\" xmlns=\"http:\/\/www.w3.org\/2000\/svg\" viewBox=\"0 0 18 32\"><path fill=\"#3b5998\" d=\"M17.1 0.2v4.7h-2.8q-1.5 0-2.1 0.6t-0.5 1.9v3.4h5.2l-0.7 5.3h-4.5v13.6h-5.5v-13.6h-4.5v-5.3h4.5v-3.9q0-3.3 1.9-5.2t5-1.8q2.6 0 4.1 0.2z\"\/><\/svg><\/span><span class=\"shariff-text\">teilen<\/span>&nbsp;<\/a><\/li><li class=\"shariff-button twitter shariff-nocustomcolor\" style=\"background-color:#595959\"><a href=\"https:\/\/twitter.com\/share?url=https%3A%2F%2Fwww.psw-group.de%2Fblog%2Fllmjacking-unsichtbare-bedrohung-fuer-ki-systeme%2F&text=LLMJacking%3A%20Unsichtbare%20Bedrohung%20f%C3%BCr%20KI-Systeme\" title=\"Bei X teilen\" aria-label=\"Bei X teilen\" role=\"button\" rel=\"noopener nofollow\" class=\"shariff-link\" style=\"; background-color:#000; color:#fff\" target=\"_blank\"><span class=\"shariff-icon\" style=\"\"><svg width=\"32px\" height=\"20px\" xmlns=\"http:\/\/www.w3.org\/2000\/svg\" viewBox=\"0 0 24 24\"><path fill=\"#000\" d=\"M14.258 10.152L23.176 0h-2.113l-7.747 8.813L7.133 0H0l9.352 13.328L0 23.973h2.113l8.176-9.309 6.531 9.309h7.133zm-2.895 3.293l-.949-1.328L2.875 1.56h3.246l6.086 8.523.945 1.328 7.91 11.078h-3.246zm0 0\"\/><\/svg><\/span><span class=\"shariff-text\">teilen<\/span>&nbsp;<\/a><\/li><li class=\"shariff-button xing shariff-nocustomcolor\" style=\"background-color:#29888a\"><a href=\"https:\/\/www.xing.com\/spi\/shares\/new?url=https%3A%2F%2Fwww.psw-group.de%2Fblog%2Fllmjacking-unsichtbare-bedrohung-fuer-ki-systeme%2F\" title=\"Bei XING teilen\" aria-label=\"Bei XING teilen\" role=\"button\" rel=\"noopener nofollow\" class=\"shariff-link\" style=\"; background-color:#126567; color:#fff\" target=\"_blank\"><span class=\"shariff-icon\" style=\"\"><svg width=\"32px\" height=\"20px\" xmlns=\"http:\/\/www.w3.org\/2000\/svg\" viewBox=\"0 0 25 32\"><path fill=\"#126567\" d=\"M10.7 11.9q-0.2 0.3-4.6 8.2-0.5 0.8-1.2 0.8h-4.3q-0.4 0-0.5-0.3t0-0.6l4.5-8q0 0 0 0l-2.9-5q-0.2-0.4 0-0.7 0.2-0.3 0.5-0.3h4.3q0.7 0 1.2 0.8zM25.1 0.4q0.2 0.3 0 0.7l-9.4 16.7 6 11q0.2 0.4 0 0.6-0.2 0.3-0.6 0.3h-4.3q-0.7 0-1.2-0.8l-6-11.1q0.3-0.6 9.5-16.8 0.4-0.8 1.2-0.8h4.3q0.4 0 0.5 0.3z\"\/><\/svg><\/span><span class=\"shariff-text\">teilen<\/span>&nbsp;<\/a><\/li><li class=\"shariff-button linkedin shariff-nocustomcolor\" style=\"background-color:#1488bf\"><a href=\"https:\/\/www.linkedin.com\/sharing\/share-offsite\/?url=https%3A%2F%2Fwww.psw-group.de%2Fblog%2Fllmjacking-unsichtbare-bedrohung-fuer-ki-systeme%2F\" title=\"Bei LinkedIn teilen\" aria-label=\"Bei LinkedIn teilen\" role=\"button\" rel=\"noopener nofollow\" class=\"shariff-link\" style=\"; background-color:#0077b5; color:#fff\" target=\"_blank\"><span class=\"shariff-icon\" style=\"\"><svg width=\"32px\" height=\"20px\" xmlns=\"http:\/\/www.w3.org\/2000\/svg\" viewBox=\"0 0 27 32\"><path fill=\"#0077b5\" d=\"M6.2 11.2v17.7h-5.9v-17.7h5.9zM6.6 5.7q0 1.3-0.9 2.2t-2.4 0.9h0q-1.5 0-2.4-0.9t-0.9-2.2 0.9-2.2 2.4-0.9 2.4 0.9 0.9 2.2zM27.4 18.7v10.1h-5.9v-9.5q0-1.9-0.7-2.9t-2.3-1.1q-1.1 0-1.9 0.6t-1.2 1.5q-0.2 0.5-0.2 1.4v9.9h-5.9q0-7.1 0-11.6t0-5.3l0-0.9h5.9v2.6h0q0.4-0.6 0.7-1t1-0.9 1.6-0.8 2-0.3q3 0 4.9 2t1.9 6z\"\/><\/svg><\/span><span class=\"shariff-text\">teilen<\/span>&nbsp;<\/a><\/li><\/ul><\/div>","protected":false},"excerpt":{"rendered":"<p>K\u00fcnstliche Intelligenz ist l\u00e4ngst zu einem festen Bestandteil unseres Alltags geworden. Ob ChatGPT, Google Gemini oder das k\u00fcrzlich erschienene DeepSeek: Large Language Models (LLMs) erleichtern zahlreiche berufliche und private Aufgaben. Doch diese Beliebtheit blieb nicht unbemerkt: Cyberkriminelle nutzen die Verbreitung von KI-Diensten gezielt aus, um sogenannte LLMJacking-Angriffe durchzuf\u00fchren. In diesem Beitrag erfahren Sie, was LLMJacking-Angriffe sind, wie sie funktionieren und welche Ma\u00dfnahmen Sie zum Schutz ergreifen k\u00f6nnen. Ein \u00dcberblick: Was [&hellip;]<\/p>\n","protected":false},"author":67,"featured_media":11471,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[767],"tags":[1131,1454,1389,1453],"class_list":["post-11470","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-bedrohungslage","tag-ki","tag-ki-angriffe","tag-kuenstliche-intelligenz","tag-llmjacking"],"_links":{"self":[{"href":"https:\/\/www.psw-group.de\/blog\/wp-json\/wp\/v2\/posts\/11470","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.psw-group.de\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.psw-group.de\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.psw-group.de\/blog\/wp-json\/wp\/v2\/users\/67"}],"replies":[{"embeddable":true,"href":"https:\/\/www.psw-group.de\/blog\/wp-json\/wp\/v2\/comments?post=11470"}],"version-history":[{"count":3,"href":"https:\/\/www.psw-group.de\/blog\/wp-json\/wp\/v2\/posts\/11470\/revisions"}],"predecessor-version":[{"id":11474,"href":"https:\/\/www.psw-group.de\/blog\/wp-json\/wp\/v2\/posts\/11470\/revisions\/11474"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.psw-group.de\/blog\/wp-json\/wp\/v2\/media\/11471"}],"wp:attachment":[{"href":"https:\/\/www.psw-group.de\/blog\/wp-json\/wp\/v2\/media?parent=11470"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.psw-group.de\/blog\/wp-json\/wp\/v2\/categories?post=11470"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.psw-group.de\/blog\/wp-json\/wp\/v2\/tags?post=11470"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}