{"id":9003,"date":"2022-06-08T09:13:52","date_gmt":"2022-06-08T07:13:52","guid":{"rendered":"https:\/\/www.psw-group.de\/blog\/?p=9003"},"modified":"2023-11-03T09:26:32","modified_gmt":"2023-11-03T08:26:32","slug":"deepfakes-bedrohung-2022","status":"publish","type":"post","link":"https:\/\/www.psw-group.de\/blog\/deepfakes-bedrohung-2022\/","title":{"rendered":"Deepfakes: Kinderleichte Erstellung mit gro\u00dfer Schadenswirkung!"},"content":{"rendered":"<p>Die m\u00f6glichen Bedrohungsszenarien und Angriffe im World Wide Web nehmen mit der voranschreitenden Entwicklung im digitalen Zeitalter ma\u00dfgeblich zu. Neben Malware, Ransomware, Phishing, Distributed-Denial-of-Service-Angriffen (DDoS) und Botnetzwerke geh\u00f6ren auch Deepfakes bald zum Standardrepertoire der Cyber-Kriminellen. Doch, wie bei jedem Angriffsszenario, gibt es auch hier Mittel und Wege, sich vor Deepfake Szenarien zu sch\u00fctzen und diese fr\u00fchzeitig zu erkennen.<\/p>\n<p>&nbsp;<\/p>\n<h2>Deepfakes Szenarien, bisher nur bekannt aus Hollywood und jetzt in Realit\u00e4t<\/h2>\n<p>Deepfakes Szenarien kannte man bisher nur aus Hollywood, aus angesagtem Blockbuster Filmen mit viel Action, Verschw\u00f6rungstheorien und u.a. das Mitwirken von Geheimdiensten. Unter Deepfake Videos versteht man, mit Deepfake Software manipulierte Ton-, Video- oder Bildmaterial, dass wiederum gro\u00dfz\u00fcgig von technik-affinen Bedrohungsakteure im Netz verbreitet werden, um einen kriminellen Zweck zu erf\u00fcllen.<\/p>\n<h3>Was steckt hinter den Deepfakes?<\/h3>\n<p>Der Begriff \u201eDeepfake\u201c ist eine Verschmelzung der Begriffe \u201eDeep Learning\u201c und \u201eFake\u201c. In dieser Kombination bezeichnet man mediale Inhalte von Bild- und Tonaufnahmen, die recht authentisch (echt) wirken, aber mit einer k\u00fcnstlichen Intelligenz, beziehungsweise Deep Learning, hergestellt beziehungsweise ver\u00e4ndert wurden. Diese Deepfakeaufnahmen dienen meist zur T\u00e4uschung oder Blo\u00dfstellung.<\/p>\n<p>Die Qualit\u00e4t dieser Deepfakes hat sich mit dem technologischen Fortschritt mitentwickelt und mit der richtigen technischen Ausstattung (besonders durch hohe Grafikprozessoren) lassen sich heutzutage solche Deepfakes Videoaufnahmen, auf den ersten Blick kaum vom echtem Videoinhalten unterscheiden oder erkennen.<\/p>\n<h3>Deepfakes erstellen mit Autoencoder<\/h3>\n<p>Die Erstellung von den sogenannten Deepfake Videos erfordert neben dem notwendigen Know-how und Zeit, auch die technischen Voraussetzungen von Hard- und Software. Urspr\u00fcnglich kamen f\u00fcr die Erstellung der Deepfakes vor allem <a href=\"https:\/\/de.wikipedia.org\/wiki\/Autoencoder\" target=\"_blank\" rel=\"noopener\">Autoencoder<\/a> zum Einsatz. Diese Autoencoder bestehen aus einem k\u00fcnstlichen neuronalen Netz, welches effizient lernt, aus einem Satz von Daten die wesentlichen Merkmale zu extrahieren und anschlie\u00dfend eine Dimensionsreduktion zu erstellen.<\/p>\n<p>Dabei arbeitet der Autoencoder mit einem zweistufigen Prozess, mit dem er ein Deepfake erzeugt. Im ersten Schritt werden mithilfe des k\u00fcnstlichen Netzwerkes das Gesicht und markante Merkmale aus dem Originalen oder Quellbild extrahiert und in sogenannte Merkmalsvektoren zerlegt. Diese werden von Schicht zur n\u00e4chsten Schicht zu einem Modell zusammengef\u00fcgt. Im zweiten Schritt des Deepfakeprozesses \u00fcbernimmt die k\u00fcnstliche Intelligenz (KI) die Decodierung der Vektoren, richtet das Gesicht entsprechend der vorgegebenen Definition und Wunsch zur T\u00e4uschung aus und setzt dieses auf das urspr\u00fcngliche Original-Bildmaterial um. Bei der Manipulation durch einen Autoencoder ben\u00f6tigt es bei der Erstellung eines Deepfakes eine Vielzahl an Bild- oder Videomaterial mit den entsprechenden Aufnahmen des Gesichtes aus mehreren Blickwinkeln und mit Ber\u00fccksichtigung der verschiedensten Lichtverh\u00e4ltnisse. Der Prozess kann entsprechend einige Wochen in Anspruch nehmen, wenn die Leistung der Grafikprozessoren nicht optimal bereitgestellt werden.<\/p>\n<h3>Deepfakes erstellen mit Generative Adversarial Networks (GANs)<\/h3>\n<p>Neben den eben beschriebenen Autoencoder werden \u00fcber ein Generative Adversarial Networks (GANs) die Deepfakes-Ergebnisse des Autoencoders weiterverarbeitet und verfeinert. Die <a href=\"https:\/\/de.wikipedia.org\/wiki\/Generative_Adversarial_Networks\" target=\"_blank\" rel=\"nofollow noopener\">Generative Adversarial Networks<\/a> sind im Vergleich zu einem Autoencoder ein generatives Netz, das entspricht einer Gruppierung von solchen mehreren neuralen Netzwerken, die an dem Ergebnis des Deepfakes gleichzeitig arbeiten k\u00f6nnen. So kann beispielsweise das eine generative Netz die dieselben Statistiken wie das Original aufweisen, w\u00e4hrend ein anderes,\u00a0 das diskriminative Netz versucht, Unterschiede zwischen der F\u00e4lschung und dem Original zu erkennen und es zu verschleiern.<\/p>\n<p>Generative Adversarial Networks ist im Vergleich zum Autoencoder ein sehr zeitintensives, iteratives Vorgehen und erfordert Unmenge an Rechen-Leistung eines Grafikprozessors. Derzeit werden Generative Adversarial Networks (GANs) eher f\u00fcr realistische Bilder von fiktiven Personen genutzt. Die Gefahr liegt hier, dass die rasante Entwicklung von Deep Learning Hardware in absehbarer Zeit dies \u00e4ndert und die Technik f\u00fcr die Zwecke genutzt werden, f\u00fcr diese es eigentlich entwickelt worden sind.<\/p>\n<p>&nbsp;<\/p>\n<h2>Warnung und Bedrohung vor Deepfakes in absehbarer Zeit<\/h2>\n<p>Selbst die europ\u00e4ische Polizeibeh\u00f6rde, Europol, warnt vor zuk\u00fcnftig verst\u00e4rkten Einsatz der Deepfake Technologie und geht davon aus, dass manipulierte Bild- und Videoaufnahmen in naher Zukunft zu den einfachen Straftaten z\u00e4hlen wird. In einem <a href=\"https:\/\/www.europol.europa.eu\/publications-events\/publications\/facing-reality-law-enforcement-and-challenge-of-deepfakes\" target=\"_blank\" rel=\"nofollow noopener\">Bericht vom 28. April 2022 ver\u00f6ffentlicht das Europol Innovation Lab, die Bef\u00fcrchtungen zu Deepfake Videoaufnahmen<\/a> und gibt m\u00f6gliche Bek\u00e4mpfungswege vor. Die gr\u00f6\u00dfte Bef\u00fcrchtung der Fachleute ist es, dass durch die neue Technologie neue Formen der Cyberkriminalit\u00e4t entstehen k\u00f6nnten, die man derzeitig nicht genau absehen kann.<\/p>\n<h3>Deepfakes sind eine Gefahr f\u00fcr die Gesellschaft<\/h3>\n<p>Bei den Deepfakes nutzen die Cyberkriminellen Desinformationskampagnen und die gef\u00e4lschten Inhalte, um die \u00d6ffentlichkeit zu t\u00e4uschen. Es gibt Organisationen und Spezialisten, die in der Deepfake-Technologie ein sehr hohes Risiko sehen und dem m\u00f6glichen Identit\u00e4tsdiebstahl \u2013 bei dem wiederum auch Deepfakes eingesetzt werden k\u00f6nnen. Diese Deepfakespirale k\u00f6nnte einen sehr hohen Schaden im privaten und gesellschaftlichen Bereich anrichten. Eine Studie des University College of London erw\u00e4hnt diese Technologie als <a href=\"https:\/\/www.ucl.ac.uk\/news\/2020\/aug\/deepfakes-ranked-most-serious-ai-crime-threat\" target=\"_blank\" rel=\"nofollow noopener\">gr\u00f6\u00dfte kriminelle Bedrohung f\u00fcr die heutige Gesellschaft<\/a>. Das Europol Innovation Lab hat zu dem Thema intensive Sekund\u00e4rforschung betrieben und ebenfalls in seinen Report integriert und er gibt einen Ausblick auf diese Ergebnisse.<\/p>\n<h3>\u201eRealit\u00e4tsverlust\u201c durch Deepfakes<\/h3>\n<p>T\u00e4uschungen und falsche Nachrichten gibt es seit Anbeginn der Informationsverbreitung, in dem Sinn ist es nichts Neues manipulierte Nachrichten zu verschicken, sondern lediglich die neue Art und Weise der Verbreitung der Informationen. Fachleuten zufolge verst\u00e4rkt sich der Trend zur Desinformation und Fake News in der Masse von neuen Informationen und Akteure setzen immer h\u00e4ufiger die Deepfake-Technologie f\u00fcr ihre Zwecke ein.<\/p>\n<p>Nicht nur die Masse an den t\u00e4glichen Nachrichten, die man als autonormal User verfolgt, sondern auch die heutige Glaubw\u00fcrdigkeit wird zunehmend auf die Probe gestellt. Die Nachrichten und die verbreitenden Informationen beeinflussen tiefgreifend die Art und Weise, wie Menschen die Medien und die Autorit\u00e4t der \u00f6ffentlichen Einrichtungen und Institutionen wahrnehmen. Das Vertrauen in offiziellen Beh\u00f6rden und unabh\u00e4ngige Berichterstatter von offiziellen Fakten werden untergraben und hinterfragt. Experten f\u00fcrchten hier die Entstehung einer \u201egesellschaftliche Verwirrung\u201c, welche Quellen \u00fcberhaupt zuverl\u00e4ssig sind und welche Quellen es eben nicht sind. Die Spezialisten deklarieren diese Folgen als \u201eInformationsapokalypse\u201c und \u201eRealit\u00e4tsverlust\u201c der Gesellschaft.<\/p>\n<h3>Deepfakes Kriminalit\u00e4t und m\u00f6glich verursachter Schaden der Betroffenen<\/h3>\n<p>Neben der Desinformation und Manipulation der \u00d6ffentlichkeit beziehungsweise der breiten Masse erleichtern Deepfakes verschiedene M\u00f6glichkeiten von kriminellen Machenschaften. Besonders werden Deepfakes f\u00fcr diverse Arten von Betrug, Dem\u00fctigung im Internet bis hin zur Erpressung oder Beweismittelf\u00e4lschung genutzt. Im Bereich Betrug z\u00e4hlt u. a. auch durch Deepfakes das Untergraben von visuellen Identit\u00e4tspr\u00fcfungen, das dazu genutzt werden kann f\u00fcr einen breiten Katalog an Straftaten wie Menschenhandel, Verkauf illegaler Waren und Terrorismus. Deepfakes eigenen sich besonders gut f\u00fcr alle kriminellen Aktivit\u00e4ten, die Dokumentenbetrug und Identit\u00e4tsf\u00e4lschung als Grundlage haben.<\/p>\n<p>&nbsp;<\/p>\n<h2>Deepfakes erkennen mit und ohne Deepfake Software Erkennung<\/h2>\n<p>Viele offizielle Beh\u00f6ren und Institute sind der Meinung, dass ein erstellter Deepfake auf den ersten Blick zwar glaubw\u00fcrdig erscheint, aber bei n\u00e4herer Betrachtung Fehler und Unzul\u00e4nglichkeiten enthalten k\u00f6nnen.<\/p>\n<p>Auff\u00e4lligkeiten k\u00f6nnen u.a. sein:<\/p>\n<ul>\n<li>Fehler bei Unsch\u00e4rfe bei den Gesichtsr\u00e4ndern,<\/li>\n<li>fehlendes Augenblinzeln,<\/li>\n<li>falsche Lichtreflexionen in den Augen,<\/li>\n<li>falscher Schattenwurf<\/li>\n<li>Unregelm\u00e4\u00dfigkeiten in der Haarstruktur, bei Venen und Narben,<\/li>\n<li>Unstimmigkeiten im Hintergrund, im Motiv, der sch\u00e4rfe oder Tiefe<\/li>\n<\/ul>\n<p>Wenn man bei der Deepfakes Betrachtung auf die Kleinigkeiten, Fehler und Unstimmigkeiten achtet, kann man diese als F\u00e4lschung erkennen und entlarven. Zuk\u00fcnftig soll es zus\u00e4tzlich Software zum Erkennen von Deepfake Bildmaterial geben, so beispielsweise der Deepfake Detector von Facebook oder der Video Authenticator aus dem Hause Microsoft, um zwei Programme zu nennen. Diese Programme arbeiten, wie auch die Deepfake-Generatoren, mit maschinellem Lernen (\u201eDeep Learning\u201c) und verarbeiten die Daten in einem neuronalen Netzwerk (KI-Instanzen). Europol Innovation Lab weist zwar in seinem Bericht auf den derzeit hohen technischen Stand dieser Erkennungstools hin, z\u00e4hlt aber auch Einschr\u00e4nkungen auf, durch die die Software get\u00e4uscht werden kann. Es ist somit ein Wettlauf zwischen Deepfake Erkennungstool und Software zur Erstellung des Fake-Materials.<\/p>\n<p>&nbsp;<\/p>\n<h2>Was k\u00f6nnen Sie in der Zukunft gegen Deepfakes tun?<\/h2>\n<p>Die in den letzten Jahren stattfindende Digitalisierung und der technologische Fortschritt haben zur Weiterentwicklung der Technologie zur F\u00e4lschung medialer Identit\u00e4ten und k\u00fcnstlichen Intelligenz gef\u00fchrt. Vor allen die sozialen Plattformen werden als neue Spielwiese zur Verbreitung des Deepfake Materials genutzt. Daher arbeiten Plattformanbieter von Meta \u00fcber Reddit bis zu TikTok intensiv an der Bek\u00e4mpfung von Deepfakes und nutzen eine Liste von Tools, diese aufzusp\u00fcren. So gelang es, erfolgreich das Deepfake-Video zu entlarven, in dem der ukrainische Pr\u00e4sident Selenskyj sich vermeintlich den russischen Invasoren ergab. Genau solche Beispiele zeigen, wie wichtig die rechtzeitige und vor allem fr\u00fchzeitige Erkennung von gef\u00e4lschtem Bildmaterial sein kann. Die Forschungsergebnisse aus dem Bericht von Europol deuten darauf hin, dass sich dieser Deepfake Trend fortsetzen wird und es ein regelrechter Wettlauf mit der Zeit gibt zwischen der Deepfake Erstellung und der Erkennung der F\u00e4lschung.<\/p>\n<p>Beunruhigend ist es, dass die Erstellung entsprechender Deepfake Videos bereits im Darknet als Dienstleistung angeboten wird. Auch im Bereich Marketing zur Erstellung von Produktvideos oder Vorstellungsvideo etc. gibt es bereits kostenlose oder auch kostenpflichtige Tools, wie zum Beispiel Synthesia.io.<\/p>\n<p>Auf diesen Dienstleistungsplattformen sucht man sich seinen Avatar aus, gibt seinen Text ein, w\u00e4hlt die Sprache und der Internetdienstleister erledigt den Erstellungsprozess. Sie m\u00fcssen lediglich nur noch das Video herunterladen und entsprechend verbreiten. Es gibt sogar schon Anbieter, die eine synthetischen Avatar von einem Selbst f\u00fcr die Software anbieten, was im Bereich des Datenschutzes schon mehr als bedenklich sein sollte. Wie Sie sehen, gef\u00e4hrdet die Deepfake Technologie die Privatsph\u00e4re und die pers\u00f6nliche Sicherheit jedes Einzelnen.<\/p>\n<p>Fachleute erwarten neue Kriminalit\u00e4tsformen und fordern mehr Forschung und Finanzierung, um die Risiken und die Gefahr der Deepfake Technologie abzumildern. Aus diesen Gr\u00fcnden ist es von hoher Bedeutung, dass die aufgef\u00fchrten Gegenma\u00dfnahmen weiterentwickelt und in Kombination nach einer applikationsspezifischen Auswahl eingesetzt werden.<\/p>\n<p>&nbsp;<\/p>\n<p>Im nachfolgenden Blogbeitrag \u00fcber Deepfakes \u201e<a href=\"https:\/\/www.psw-group.de\/blog\/deepfake-angriffe\/9894\">Deepfake-Angriffe: Die tiefgreifenden Bedrohungen und das Vorgehen der Cyberkriminellen<\/a>\u201c gehen wir auf die Angriffe an sich ein, wie das menschliche Gehirn diese instektiv erkennen kann und was Sie und Ihre Mitarbeiter pr\u00e4ventiv machen k\u00f6nnen.<\/p>\n<div class=\"shariff\"><ul class=\"shariff-buttons theme-default orientation-horizontal buttonsize-medium\"><li class=\"shariff-button facebook shariff-nocustomcolor\" style=\"background-color:#4273c8\"><a href=\"https:\/\/www.facebook.com\/sharer\/sharer.php?u=https%3A%2F%2Fwww.psw-group.de%2Fblog%2Fdeepfakes-bedrohung-2022%2F\" title=\"Bei Facebook teilen\" aria-label=\"Bei Facebook teilen\" role=\"button\" rel=\"nofollow\" class=\"shariff-link\" style=\"; background-color:#3b5998; color:#fff\" target=\"_blank\"><span class=\"shariff-icon\" style=\"\"><svg width=\"32px\" height=\"20px\" xmlns=\"http:\/\/www.w3.org\/2000\/svg\" viewBox=\"0 0 18 32\"><path fill=\"#3b5998\" d=\"M17.1 0.2v4.7h-2.8q-1.5 0-2.1 0.6t-0.5 1.9v3.4h5.2l-0.7 5.3h-4.5v13.6h-5.5v-13.6h-4.5v-5.3h4.5v-3.9q0-3.3 1.9-5.2t5-1.8q2.6 0 4.1 0.2z\"\/><\/svg><\/span><span class=\"shariff-text\">teilen<\/span>&nbsp;<\/a><\/li><li class=\"shariff-button twitter shariff-nocustomcolor\" style=\"background-color:#595959\"><a href=\"https:\/\/twitter.com\/share?url=https%3A%2F%2Fwww.psw-group.de%2Fblog%2Fdeepfakes-bedrohung-2022%2F&text=Deepfakes%3A%20Kinderleichte%20Erstellung%20mit%20gro%C3%9Fer%20Schadenswirkung%21\" title=\"Bei X teilen\" aria-label=\"Bei X teilen\" role=\"button\" rel=\"noopener nofollow\" class=\"shariff-link\" style=\"; background-color:#000; color:#fff\" target=\"_blank\"><span class=\"shariff-icon\" style=\"\"><svg width=\"32px\" height=\"20px\" xmlns=\"http:\/\/www.w3.org\/2000\/svg\" viewBox=\"0 0 24 24\"><path fill=\"#000\" d=\"M14.258 10.152L23.176 0h-2.113l-7.747 8.813L7.133 0H0l9.352 13.328L0 23.973h2.113l8.176-9.309 6.531 9.309h7.133zm-2.895 3.293l-.949-1.328L2.875 1.56h3.246l6.086 8.523.945 1.328 7.91 11.078h-3.246zm0 0\"\/><\/svg><\/span><span class=\"shariff-text\">teilen<\/span>&nbsp;<\/a><\/li><li class=\"shariff-button xing shariff-nocustomcolor\" style=\"background-color:#29888a\"><a href=\"https:\/\/www.xing.com\/spi\/shares\/new?url=https%3A%2F%2Fwww.psw-group.de%2Fblog%2Fdeepfakes-bedrohung-2022%2F\" title=\"Bei XING teilen\" aria-label=\"Bei XING teilen\" role=\"button\" rel=\"noopener nofollow\" class=\"shariff-link\" style=\"; background-color:#126567; color:#fff\" target=\"_blank\"><span class=\"shariff-icon\" style=\"\"><svg width=\"32px\" height=\"20px\" xmlns=\"http:\/\/www.w3.org\/2000\/svg\" viewBox=\"0 0 25 32\"><path fill=\"#126567\" d=\"M10.7 11.9q-0.2 0.3-4.6 8.2-0.5 0.8-1.2 0.8h-4.3q-0.4 0-0.5-0.3t0-0.6l4.5-8q0 0 0 0l-2.9-5q-0.2-0.4 0-0.7 0.2-0.3 0.5-0.3h4.3q0.7 0 1.2 0.8zM25.1 0.4q0.2 0.3 0 0.7l-9.4 16.7 6 11q0.2 0.4 0 0.6-0.2 0.3-0.6 0.3h-4.3q-0.7 0-1.2-0.8l-6-11.1q0.3-0.6 9.5-16.8 0.4-0.8 1.2-0.8h4.3q0.4 0 0.5 0.3z\"\/><\/svg><\/span><span class=\"shariff-text\">teilen<\/span>&nbsp;<\/a><\/li><li class=\"shariff-button linkedin shariff-nocustomcolor\" style=\"background-color:#1488bf\"><a href=\"https:\/\/www.linkedin.com\/sharing\/share-offsite\/?url=https%3A%2F%2Fwww.psw-group.de%2Fblog%2Fdeepfakes-bedrohung-2022%2F\" title=\"Bei LinkedIn teilen\" aria-label=\"Bei LinkedIn teilen\" role=\"button\" rel=\"noopener nofollow\" class=\"shariff-link\" style=\"; background-color:#0077b5; color:#fff\" target=\"_blank\"><span class=\"shariff-icon\" style=\"\"><svg width=\"32px\" height=\"20px\" xmlns=\"http:\/\/www.w3.org\/2000\/svg\" viewBox=\"0 0 27 32\"><path fill=\"#0077b5\" d=\"M6.2 11.2v17.7h-5.9v-17.7h5.9zM6.6 5.7q0 1.3-0.9 2.2t-2.4 0.9h0q-1.5 0-2.4-0.9t-0.9-2.2 0.9-2.2 2.4-0.9 2.4 0.9 0.9 2.2zM27.4 18.7v10.1h-5.9v-9.5q0-1.9-0.7-2.9t-2.3-1.1q-1.1 0-1.9 0.6t-1.2 1.5q-0.2 0.5-0.2 1.4v9.9h-5.9q0-7.1 0-11.6t0-5.3l0-0.9h5.9v2.6h0q0.4-0.6 0.7-1t1-0.9 1.6-0.8 2-0.3q3 0 4.9 2t1.9 6z\"\/><\/svg><\/span><span class=\"shariff-text\">teilen<\/span>&nbsp;<\/a><\/li><\/ul><\/div>","protected":false},"excerpt":{"rendered":"<p>Die m\u00f6glichen Bedrohungsszenarien und Angriffe im World Wide Web nehmen mit der voranschreitenden Entwicklung im digitalen Zeitalter ma\u00dfgeblich zu. Neben Malware, Ransomware, Phishing, Distributed-Denial-of-Service-Angriffen (DDoS) und Botnetzwerke geh\u00f6ren auch Deepfakes bald zum Standardrepertoire der Cyber-Kriminellen. Doch, wie bei jedem Angriffsszenario, gibt es auch hier Mittel und Wege, sich vor Deepfake Szenarien zu sch\u00fctzen und diese fr\u00fchzeitig zu erkennen. &nbsp; Deepfakes Szenarien, bisher nur bekannt aus Hollywood und jetzt in Realit\u00e4t [&hellip;]<\/p>\n","protected":false},"author":68,"featured_media":9005,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[767],"tags":[1249,783,782,1242,784,1251,1250,1144],"class_list":["post-9003","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-bedrohungslage","tag-bild","tag-deepfake","tag-deepfakes","tag-fake","tag-identitaetsdiebstahl","tag-material","tag-medien","tag-video"],"_links":{"self":[{"href":"https:\/\/www.psw-group.de\/blog\/wp-json\/wp\/v2\/posts\/9003","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.psw-group.de\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.psw-group.de\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.psw-group.de\/blog\/wp-json\/wp\/v2\/users\/68"}],"replies":[{"embeddable":true,"href":"https:\/\/www.psw-group.de\/blog\/wp-json\/wp\/v2\/comments?post=9003"}],"version-history":[{"count":8,"href":"https:\/\/www.psw-group.de\/blog\/wp-json\/wp\/v2\/posts\/9003\/revisions"}],"predecessor-version":[{"id":10650,"href":"https:\/\/www.psw-group.de\/blog\/wp-json\/wp\/v2\/posts\/9003\/revisions\/10650"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.psw-group.de\/blog\/wp-json\/wp\/v2\/media\/9005"}],"wp:attachment":[{"href":"https:\/\/www.psw-group.de\/blog\/wp-json\/wp\/v2\/media?parent=9003"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.psw-group.de\/blog\/wp-json\/wp\/v2\/categories?post=9003"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.psw-group.de\/blog\/wp-json\/wp\/v2\/tags?post=9003"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}