{"id":25006,"date":"2023-07-24T17:32:10","date_gmt":"2023-07-24T15:32:10","guid":{"rendered":"https:\/\/blog.mi.hdm-stuttgart.de\/?p=25006"},"modified":"2023-07-24T22:02:03","modified_gmt":"2023-07-24T20:02:03","slug":"sicherheitscheck-wie-sicher-sind-deep-learning-systeme","status":"publish","type":"post","link":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/2023\/07\/24\/sicherheitscheck-wie-sicher-sind-deep-learning-systeme\/","title":{"rendered":"Sicherheitscheck \u2013 Wie sicher sind Deep Learning Systeme?"},"content":{"rendered":"<div class=\"wp-block-aioseo-table-of-contents\"><ul><li><a class=\"aioseo-toc-item\" href=\"#aioseo-was-ist-deep-learning\">Was ist Deep Learning?<\/a><\/li><li><a class=\"aioseo-toc-item\" href=\"#aioseo-angriffe-auf-deep-learning-systeme\">Angriffe auf Deep Learning Systeme<\/a><ul><li><a class=\"aioseo-toc-item\" href=\"#aioseo-ubersicht-von-angriffen\">\u00dcbersicht von Angriffen<\/a><\/li><li><a class=\"aioseo-toc-item\" href=\"#aioseo-vor-wahrend-des-trainings\">Vor\/W\u00e4hrend des Trainings<\/a><ul><li><a class=\"aioseo-toc-item\" href=\"#aioseo-poisoning-attacks\">Poisoning Attacks<\/a><\/li><li><a class=\"aioseo-toc-item\" href=\"#aioseo-model-extraction-attack\">Model Extraction Attacks<\/a><\/li><li><a class=\"aioseo-toc-item\" href=\"#aioseo-model-inversion-attacks\">Model Inversion Attacks<\/a><\/li><\/ul><\/li><li><a class=\"aioseo-toc-item\" href=\"#aioseo-nach-dem-training-inferenzphase\">Nach dem Training (Inferenzphase)<\/a><ul><li><a class=\"aioseo-toc-item\" href=\"#aioseo-adversarial-attacks\">Adversarial Attacks<\/a><\/li><\/ul><\/li><\/ul><\/li><li><a class=\"aioseo-toc-item\" href=\"#aioseo-gegenmassnahmen\">Gegenma\u00dfnahmen<\/a><\/li><li><a class=\"aioseo-toc-item\" href=\"#aioseo-ausblick\">Ausblick<\/a><\/li><li><a class=\"aioseo-toc-item\" href=\"#aioseo-literatur\">Literatur<\/a><\/li><\/ul><\/div>\n\n\n<p>In einer immer st\u00e4rker digitalisierten Welt haben Neuronale Netze und Deep Learning eine immer wichtigere Rolle eingenommen und viele Bereiche unseres Alltags in vielerlei Hinsicht bereichert. Von Sprachmodellen \u00fcber autonome Fahrzeuge bis hin zur Bilderkennung\/-generierung, haben Deep Learning Systeme eine erstaunliche F\u00e4higkeit zur L\u00f6sung komplexer Aufgaben gezeigt. Die Anwendungsm\u00f6glichkeiten zeigen scheinbar keine Grenzen. Doch w\u00e4hrend oft nur die Vorteile und die F\u00e4higkeiten dieser Technologie hervorgehoben werden, ist es unerl\u00e4sslich auch die damit verbundenen Sicherheitsaspekte gr\u00fcndlicher zu beleuchten.<\/p>\n\n\n\n<p>Der Einsatz von Deep Learning Systemen hat l\u00e4ngst nicht mehr nur eine Nischenbedeutung, sondern ist in vielen Bereichen zu einem integralen Bestandteil geworden. Mit dem zunehmenden Vertrauen in diese Systeme stellt sich unweigerlich die Frage: <em>Wie sicher sind Deep Learning Systeme wirklich?<\/em> Die Sicherheit von Deep Learning Systemen ist zu einem Schl\u00fcsselaspekt geworden, der nicht ignoriert werden darf. Vor allem da Cyberkriminelle keine M\u00fchen scheuen, um potenzielle Schwachstellen auszunutzen und Schaden zu verursachen. Daher ist es notwendig, potenzielle Risiken und Verwundbarkeiten zu verstehen, die mit der Implementierung von Neuronalen Netzen und Deep Learning einhergehen.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"aioseo-was-ist-deep-learning\">Was ist Deep Learning?<\/h2>\n\n\n\n<figure class=\"wp-block-image aligncenter size-full is-resized\"><a href=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/07\/Bild2.png\"><img loading=\"lazy\" decoding=\"async\" data-attachment-id=\"25019\" data-permalink=\"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/2023\/07\/24\/sicherheitscheck-wie-sicher-sind-deep-learning-systeme\/bild2-3\/\" data-orig-file=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/07\/Bild2.png\" data-orig-size=\"746,597\" data-comments-opened=\"1\" data-image-meta=\"{&quot;aperture&quot;:&quot;0&quot;,&quot;credit&quot;:&quot;&quot;,&quot;camera&quot;:&quot;&quot;,&quot;caption&quot;:&quot;&quot;,&quot;created_timestamp&quot;:&quot;0&quot;,&quot;copyright&quot;:&quot;&quot;,&quot;focal_length&quot;:&quot;0&quot;,&quot;iso&quot;:&quot;0&quot;,&quot;shutter_speed&quot;:&quot;0&quot;,&quot;title&quot;:&quot;&quot;,&quot;orientation&quot;:&quot;0&quot;}\" data-image-title=\"Bild2\" data-image-description=\"\" data-image-caption=\"\" data-large-file=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/07\/Bild2.png\" src=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/07\/Bild2.png\" alt=\"\" class=\"wp-image-25019\" width=\"519\" height=\"415\" srcset=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/07\/Bild2.png 746w, https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/07\/Bild2-300x240.png 300w\" sizes=\"auto, (max-width: 519px) 100vw, 519px\" \/><\/a><figcaption class=\"wp-element-caption\"><em>Abbildung 1: Einordnung Deep Learning [1]<\/em><\/figcaption><\/figure>\n\n\n\n<p>Bevor wir uns den Sicherheitsaspekten von Deep Learning Systemen zuwenden, werfen wir einen kurzen Blick darauf, was das Konzept hinter Deep Learning darstellt. Deep Learning ist ein Teil des maschinellen Lernens, das sich vor allem mit dem Training und der Nutzung von K\u00fcnstlichen Neuronalen Netzen besch\u00e4ftigt. Ein Neuronales Netz besteht dabei aus mehreren Schichten von k\u00fcnstlichen Neuronen, die miteinander verbunden sind. Es soll dabei grob die biologische Funktionsweise des menschlichen Gehirns nachstellen.<\/p>\n\n\n\n<p>Das Training eines Deep Learning Modells erfolgt durch die Pr\u00e4sentation von Trainingsdaten, die aus Eingabe- und entsprechenden Ausgabedaten bestehen. Das neuronale Netzwerk passt w\u00e4hrend des Trainings die Gewichte und Parameter der k\u00fcnstlichen Neuronen an, um eine bestm\u00f6gliche Leistung zu erzielen. Dieser Prozess wird als \u201eLernen\u201c bezeichnet, da das Modell iterativ seine F\u00e4higkeit verbessert, Eingaben korrekt zu interpretieren und passende Ausgaben zu generieren. Der Kerngedanke des Deep Learning besteht dabei darin, dass ein tiefes neuronales Netz selbst\u00e4ndig in der Lage ist, Muster, Zusammenh\u00e4nge und Merkmale in den Daten zu erkennen. Sie sind somit in der Lage von sich aus zu lernen, ohne dass der Mensch in den eigentlichen \u201eLernprozess\u201c eingreift. F\u00fcr das Training eines solchen Systems sind eine gro\u00dfe Menge an Daten notwendig, was sich auch in den riesigen Mengen an Daten widerspiegelt, die z.&nbsp;B. f\u00fcr ChatGPT verwendet wurden [2, 3].<\/p>\n\n\n\n<p>Doch wie k\u00f6nnen nun Angriffe auf diese Art von Systemen ausgef\u00fchrt werden und welche Gefahren entstehen dadurch?<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"aioseo-angriffe-auf-deep-learning-systeme\">Angriffe auf Deep Learning Systeme<\/h2>\n\n\n\n<p>Deep Learning Systeme sind anf\u00e4llig f\u00fcr verschiedene Arten von Angriffen. Dabei zielen die Angriffe auf die folgenden drei Grunds\u00e4tze ab, die ein System sicher machen:<\/p>\n\n\n\n<ol class=\"wp-block-list\" type=\"1\">\n<li class=\"has-medium-font-size\"><strong>Vertraulichkeit: <\/strong>Schutz vor unbefugtem Zugriff auf Informationen.<\/li>\n\n\n\n<li><strong>Integrit\u00e4t: <\/strong>Sicherstellung, dass Informationen unver\u00e4ndert und korrekt bleiben.<\/li>\n\n\n\n<li><strong>Verf\u00fcgbarkeit: <\/strong>Gew\u00e4hrleistung, dass Informationen und Ressourcen immer zug\u00e4nglich sind, wenn sie ben\u00f6tigt werden.<\/li>\n<\/ol>\n\n\n\n<p>Diese Angriffe k\u00f6nnen w\u00e4hrend der Trainings- oder in der Inferenz-Phase stattfinden. Die Gefahr von Angriffen auf Deep Learning Systeme ist ein wichtiger Aspekt, der bei der Entwicklung und Implementierung von KI-Anwendungen ber\u00fccksichtigt werden muss [4].<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"aioseo-ubersicht-von-angriffen\">\u00dcbersicht von Angriffen<\/h3>\n\n\n\n<figure class=\"wp-block-image aligncenter size-full\"><a href=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/07\/Bild1.png\"><img loading=\"lazy\" decoding=\"async\" width=\"907\" height=\"377\" data-attachment-id=\"25017\" data-permalink=\"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/2023\/07\/24\/sicherheitscheck-wie-sicher-sind-deep-learning-systeme\/bild1-5\/\" data-orig-file=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/07\/Bild1.png\" data-orig-size=\"907,377\" data-comments-opened=\"1\" data-image-meta=\"{&quot;aperture&quot;:&quot;0&quot;,&quot;credit&quot;:&quot;&quot;,&quot;camera&quot;:&quot;&quot;,&quot;caption&quot;:&quot;&quot;,&quot;created_timestamp&quot;:&quot;0&quot;,&quot;copyright&quot;:&quot;&quot;,&quot;focal_length&quot;:&quot;0&quot;,&quot;iso&quot;:&quot;0&quot;,&quot;shutter_speed&quot;:&quot;0&quot;,&quot;title&quot;:&quot;&quot;,&quot;orientation&quot;:&quot;0&quot;}\" data-image-title=\"Bild1\" data-image-description=\"\" data-image-caption=\"\" data-large-file=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/07\/Bild1.png\" src=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/07\/Bild1.png\" alt=\"\" class=\"wp-image-25017\" srcset=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/07\/Bild1.png 907w, https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/07\/Bild1-300x125.png 300w, https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/07\/Bild1-768x319.png 768w\" sizes=\"auto, (max-width: 907px) 100vw, 907px\" \/><\/a><figcaption class=\"wp-element-caption\"><em>Abbildung 2: Deep Learning Systeme und die damit verbundenen Angriffe [5]<\/em><\/figcaption><\/figure>\n\n\n\n<p>Die vorangehende Abbildung bietet eine \u00fcbersichtliche Darstellung der verschiedenen Angriffe, denen Deep Learning Systeme ausgesetzt sein k\u00f6nnen. Diese Angriffe k\u00f6nnen je nach ihrer zeitlichen Einordnung in zwei Hauptphasen unterteilt werden: Vor\/W\u00e4hrend des Trainings und nach dem Training (Inferenz-Phase).<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"aioseo-vor-wahrend-des-trainings\">Vor\/W\u00e4hrend des Trainings<\/h3>\n\n\n\n<p>In dieser Phase finden Angriffe statt, w\u00e4hrend das Deep Learning Modell noch im Trainingsprozess ist und aus den bereitgestellten Trainingsdaten lernt. W\u00e4hrend dieser Zeit besteht die M\u00f6glichkeit, das Modell absichtlich zu beeinflussen oder zu manipulieren, um es zu einem sp\u00e4teren Zeitpunkt in der Vorhersage-Phase anf\u00e4lliger zu machen.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\" id=\"aioseo-poisoning-attacks\">Poisoning Attacks<\/h4>\n\n\n\n<figure class=\"wp-block-image aligncenter size-full\"><a href=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/07\/Bild3.png\"><img loading=\"lazy\" decoding=\"async\" width=\"607\" height=\"235\" data-attachment-id=\"25022\" data-permalink=\"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/2023\/07\/24\/sicherheitscheck-wie-sicher-sind-deep-learning-systeme\/bild3-3\/\" data-orig-file=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/07\/Bild3.png\" data-orig-size=\"607,235\" data-comments-opened=\"1\" data-image-meta=\"{&quot;aperture&quot;:&quot;0&quot;,&quot;credit&quot;:&quot;&quot;,&quot;camera&quot;:&quot;&quot;,&quot;caption&quot;:&quot;&quot;,&quot;created_timestamp&quot;:&quot;0&quot;,&quot;copyright&quot;:&quot;&quot;,&quot;focal_length&quot;:&quot;0&quot;,&quot;iso&quot;:&quot;0&quot;,&quot;shutter_speed&quot;:&quot;0&quot;,&quot;title&quot;:&quot;&quot;,&quot;orientation&quot;:&quot;0&quot;}\" data-image-title=\"Bild3\" data-image-description=\"\" data-image-caption=\"\" data-large-file=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/07\/Bild3.png\" src=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/07\/Bild3.png\" alt=\"\" class=\"wp-image-25022\" srcset=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/07\/Bild3.png 607w, https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/07\/Bild3-300x116.png 300w\" sizes=\"auto, (max-width: 607px) 100vw, 607px\" \/><\/a><figcaption class=\"wp-element-caption\"><em>Abbildung 3: Ablauf Poisoning Attack [5]<\/em><\/figcaption><\/figure>\n\n\n\n<p>Bei einem Poisoning Attack werden falsche, irref\u00fchrende oder anderweitig b\u00f6swillige oder sch\u00e4dliche Daten in den Trainingsdatensatz eines Systems eingeschleust. Diese Daten werden bewusst so ausgew\u00e4hlt, dass sie das Modell verf\u00e4lschen und die Modellleistung beeintr\u00e4chtigen. Ziel eines Poisoning Attacks ist es, das Modell so zu manipulieren, dass es in der Anwendung falsche Vorhersagen t\u00e4tigt.<\/p>\n\n\n\n<p>So k\u00f6nnte beispielsweise ein Angreifer absichtlich falsch gelabelte Daten in den Trainingsdatensatz einschleusen. Wenn das Modell w\u00e4hrend des Trainings diese manipulierten Daten verarbeitet, kann es lernen, falsche Muster zu erkennen und fehlerhafte Zusammenh\u00e4nge zu ziehen. Dadurch kann die Verf\u00fcgbarkeit des Systems eingeschr\u00e4nkt werden. Ebenfalls k\u00f6nnte ein Angreifer mithilfe von Confused Data eine Hintert\u00fcr im Zielmodell erzeugen. Das Modell verh\u00e4lt sich dabei die meiste Zeit normal, aber macht mit den manipulierten Daten falsche Vorhersagen. Mithilfe dieser eingerichtet Hintert\u00fcr und den eingepflanzten Daten, kann ein Angreifer die Ergebnisse des Modells manipulieren und so weitere Angriffe starten [5, 6].<\/p>\n\n\n\n<p>Ein sehr bekanntes Beispiel eines Poisoning Attacks auf ein Machine Learning System ist der Fall des \u201eTay\u201c Bots von Microsoft. Tay war ein k\u00fcnstlicher intelligenter Chatbot, der auf Twitter entwickelt wurde und als 19-j\u00e4hriges M\u00e4dchen auftrat. Tay wurde trainiert, um menschen\u00e4hnliche Konversationen zu f\u00fchren und aus den Interaktionen mit Benutzern zu lernen. Tay wurde von Trolls und b\u00f6sartigen Benutzern gezielt manipuliert, indem sie den Bot mit rassistischen, sexistischen und extremistischen Aussagen f\u00fctterten. Das Ergebnis war, dass Tay die negativen Inhalte aufnahm und in ihren Antworten wiedergab [7].<\/p>\n\n\n\n<h4 class=\"wp-block-heading\" id=\"aioseo-model-extraction-attack\">Model Extraction Attacks<\/h4>\n\n\n\n<figure class=\"wp-block-image aligncenter size-full\"><a href=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/07\/Bild4.png\"><img loading=\"lazy\" decoding=\"async\" width=\"598\" height=\"283\" data-attachment-id=\"25027\" data-permalink=\"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/2023\/07\/24\/sicherheitscheck-wie-sicher-sind-deep-learning-systeme\/bild4-2\/\" data-orig-file=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/07\/Bild4.png\" data-orig-size=\"598,283\" data-comments-opened=\"1\" data-image-meta=\"{&quot;aperture&quot;:&quot;0&quot;,&quot;credit&quot;:&quot;&quot;,&quot;camera&quot;:&quot;&quot;,&quot;caption&quot;:&quot;&quot;,&quot;created_timestamp&quot;:&quot;0&quot;,&quot;copyright&quot;:&quot;&quot;,&quot;focal_length&quot;:&quot;0&quot;,&quot;iso&quot;:&quot;0&quot;,&quot;shutter_speed&quot;:&quot;0&quot;,&quot;title&quot;:&quot;&quot;,&quot;orientation&quot;:&quot;0&quot;}\" data-image-title=\"Bild4\" data-image-description=\"\" data-image-caption=\"\" data-large-file=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/07\/Bild4.png\" src=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/07\/Bild4.png\" alt=\"\" class=\"wp-image-25027\" srcset=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/07\/Bild4.png 598w, https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/07\/Bild4-300x142.png 300w\" sizes=\"auto, (max-width: 598px) 100vw, 598px\" \/><\/a><figcaption class=\"wp-element-caption\"><em>Abbildung 4: Ablauf Model Extraction Attack [5]<\/em><\/figcaption><\/figure>\n\n\n\n<p>Ein Model Extraction Attack ist eine Art von Angriff auf ein Deep Learning System, bei der der Angreifer versucht, das Model ohne vorherige Kenntnis der Trainingsdaten und Algorithmen zu kopieren. Dadurch k\u00f6nnen Informationen gewonnen werden, um ein \u00e4hnliches Modell zu erstellen und dies f\u00fcr die Zwecke des Angreifers zu nutzen.<\/p>\n\n\n\n<p>Der Prozess des Model Extraction Attack beginnt in der Regel damit, dass der Angreifer Zugriff auf das Zielmodell erh\u00e4lt. Dies kann durch verschiedene M\u00f6glichkeiten geschehen, wie zum Beispiel durch Black-Box-Zugriff auf ein Modell, bei dem der Angreifer nur die M\u00f6glichkeit hat, Eingaben an das Modell zu stellen und die Ausgaben zu beobachten, aber keine Kenntnisse \u00fcber die internen Strukturen oder Gewichte des Modells hat. Durch gezielte Abfragen an das Zielmodell, sammelt der Angreifer die Ausgaben des Modells. Mithilfe der Eingaben und der Reaktionen des Modells k\u00f6nnen durch unterschiedliche Ans\u00e4tze wie das Training eines Substitute Models, dass das Verhalten des Zielmodells nachahmt, wichtige Informationen wie Hyperparameter, etc. gesammelt werden.<\/p>\n\n\n\n<p>Ein Model Extraction Attack kann verschiedene Motivationen haben. In einigen F\u00e4llen kann ein konkurrierendes Unternehmen das Modell extrahieren, um Zeit und Ressourcen f\u00fcr die eigene Modellentwicklung zu sparen. In anderen Szenarien k\u00f6nnten Angreifer das Modell f\u00fcr b\u00f6swillige Zwecke nutzen, wie zum Beispiel das Erstellen von b\u00f6sartigen Gegenmodellen, um die Sicherheitssysteme des urspr\u00fcnglichen Modells zu umgehen [5, 8].<\/p>\n\n\n\n<h4 class=\"wp-block-heading\" id=\"aioseo-model-inversion-attacks\">Model Inversion Attacks<\/h4>\n\n\n\n<p>Bei einem Model Inversion Attacks handelt es sich um Angriffe, die auf die Privatsph\u00e4re abzielen, um sensible Informationen \u00fcber die Trainingsdaten zu extrahieren. Ziel des Angriffes ist es den Informationsfluss, der im Training des Modells verwendet wird, um aus den Trainingsdaten ein Modell zu erhalten umzukehren. Diese Inversion erm\u00f6glicht es Angreifern, vom Modell auf die Trainingsdaten zu schlie\u00dfen, da sich neuronale Netze m\u00f6glicherweise zu viele Informationen aus den Trainingsdaten merken. So k\u00f6nnen Zugeh\u00f6rigkeiten oder Eigenschaften in den Daten wieder hergestellt werden und erhebliche Risiken f\u00fcr den Datenschutz mit sich bringen, insbesondere in Szenarien, in denen die Trainingsdaten sensible oder pers\u00f6nliche Informationen enthalten.<\/p>\n\n\n\n<p>Ein Angriff l\u00e4uft dabei folgenderma\u00dfen ab:<\/p>\n\n\n\n<ol class=\"wp-block-list\" type=\"1\">\n<li><strong>Generierung Synthetischer Daten: <\/strong>Der Angreifer generiert synthetische Daten und beobachtet die entsprechenden Ausgaben des Zielmodells. Dabei handelt es sich in der Regel um Beispiele, die f\u00fcr den Angreifer von Interesse sind, wie zum Beispiel spezifische Klassen oder Merkmale, die vom Modell identifiziert werden.<\/li>\n\n\n\n<li><strong>Erstellen eines Inversionsmodells:<\/strong> Der Angreifer erstellt ein sogenanntes \u201eShadow-Modell\u201c, das in der Lage ist, aus den Ausgaben des Zielmodells R\u00fcckschl\u00fcsse auf die entsprechenden Eingabedaten, d.&nbsp;h. den Originaldatensatz, zu ziehen. Das Inversionsmodell wird so trainiert, dass es Eingabebeispiele generiert, die \u00e4hnlich den Ausgaben des Zielmodells sind.<\/li>\n\n\n\n<li><strong>Ausf\u00fchren des Angriffs:<\/strong> Der Angreifer verwendet das trainierte Inversionsmodell, um Eingabedaten zu generieren, die den gew\u00fcnschten Klassen oder Merkmalen des Zielmodells entsprechen. Durch das Generieren dieser invertierten Eingaben kann der Angreifer R\u00fcckschl\u00fcsse auf interne Strukturen und Trainingsdaten des Modells ziehen.<\/li>\n<\/ol>\n\n\n\n<p>Der Angriff zielt darauf ab, vertrauliche Details \u00fcber individuelle Trainingsdatenpunkte zu erlangen und kann in Szenarien wie medizinischen Diagnosen oder Gesichtserkennung erhebliche Datenschutzrisiken darstellen [5, 9].<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"aioseo-nach-dem-training-inferenzphase\">Nach dem Training (Inferenzphase)<\/h3>\n\n\n\n<p>In der Inferenzphase befindet sich das Deep Learning Modell im produktiven Einsatz, nachdem es erfolgreich trainiert wurde. W\u00e4hrend dieser Phase nimmt das Modell neue, nicht in den Trainingsdatensatz enthaltene Eingaben entgegen und generiert Vorhersagen oder Ausgaben basierend auf dem erlernten Wissen aus dem Trainingsprozess.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\" id=\"aioseo-adversarial-attacks\">Adversarial Attacks<\/h4>\n\n\n\n<p>Adversarial Attacks sind eine spezielle Art von Angriffen auf Deep Learning Modelle, die darauf abzielen, das Modell in der Prediction Phase gezielt zu t\u00e4uschen. Bei diesen Angriffen werden gezielt kleine und oft kaum erkennbare St\u00f6rungen oder Ver\u00e4nderungen in den Eingabedaten vorgenommen, um das Modell zu irref\u00fchren und falsche Vorhersagen zu erzeugen. Diese ver\u00e4nderten Daten, werden Adversarial Examples genannt.<\/p>\n\n\n\n<figure class=\"wp-block-image aligncenter size-full\"><a href=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/07\/Bild5.png\"><img loading=\"lazy\" decoding=\"async\" width=\"731\" height=\"281\" data-attachment-id=\"25036\" data-permalink=\"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/2023\/07\/24\/sicherheitscheck-wie-sicher-sind-deep-learning-systeme\/bild5\/\" data-orig-file=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/07\/Bild5.png\" data-orig-size=\"731,281\" data-comments-opened=\"1\" data-image-meta=\"{&quot;aperture&quot;:&quot;0&quot;,&quot;credit&quot;:&quot;&quot;,&quot;camera&quot;:&quot;&quot;,&quot;caption&quot;:&quot;&quot;,&quot;created_timestamp&quot;:&quot;0&quot;,&quot;copyright&quot;:&quot;&quot;,&quot;focal_length&quot;:&quot;0&quot;,&quot;iso&quot;:&quot;0&quot;,&quot;shutter_speed&quot;:&quot;0&quot;,&quot;title&quot;:&quot;&quot;,&quot;orientation&quot;:&quot;0&quot;}\" data-image-title=\"Bild5\" data-image-description=\"\" data-image-caption=\"\" data-large-file=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/07\/Bild5.png\" src=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/07\/Bild5.png\" alt=\"\" class=\"wp-image-25036\" srcset=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/07\/Bild5.png 731w, https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/07\/Bild5-300x115.png 300w\" sizes=\"auto, (max-width: 731px) 100vw, 731px\" \/><\/a><figcaption class=\"wp-element-caption\"><em>Abbildung 5: Adversarial Example eines Pandas [10]<\/em><\/figcaption><\/figure>\n\n\n\n<p>Die Besonderheit von Adversarial Attacks liegt darin, dass die Manipulationen an den Eingabedaten f\u00fcr das menschliche Auge meist nicht sichtbar sind. Die ver\u00e4nderten Eingaben sehen f\u00fcr den Menschen identisch oder nahezu identisch zu den originalen Eingaben aus, jedoch kann das trainierte Modell darauf v\u00f6llig unterschiedliche oder sogar falsche Ergebnisse liefern.<\/p>\n\n\n\n<p>Adversarial Attacks beruhen auf Schw\u00e4chen im Verhalten von Deep Learning Modellen, insbesondere in Bezug auf die Robustheit und Generalisierungsf\u00e4higkeit. Diese Angriffe k\u00f6nnen auf verschiedenen Methoden basieren, wie zum Beispiel auf der Optimierung spezieller St\u00f6rungen (auch Adversarial Perturbations genannt) oder auf der Verwendung speziell entwickelter Algorithmen zur Generierung der manipulierten Eingabedaten. Durch diese Angriffe k\u00f6nnen Gefahren entstehen f\u00fcr zum Beispiel autonome Fahrzeuge, falls Verkehrszeichen mit Absicht ver\u00e4ndert werden. Ebenso k\u00f6nnten Gesichtserkennungssysteme so get\u00e4uscht werden, dass man die Identit\u00e4t anderer Menschen annehmen k\u00f6nnte [5, 10, 11].<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"aioseo-gegenmassnahmen\">Gegenma\u00dfnahmen<\/h2>\n\n\n\n<p>Angesichts der vielf\u00e4ltigen Gefahren, denen Deep Learning Systeme ausgesetzt sind, ist es entscheidend, geeignete Gegenma\u00dfnahmen zu implementieren, um die Sicherheit und Vertrauensw\u00fcrdigkeit dieser Systeme zu gew\u00e4hrleisten. Folgende Gegenma\u00dfnahmen k\u00f6nnen besseren Schutz bieten:<\/p>\n\n\n\n<ol class=\"wp-block-list\" type=\"1\">\n<li>&nbsp;<strong>Modellverschleierung:<\/strong> Diese Techniken werden verwendet, um die Funktionsweise und Struktur des Modells vor potenziellen Angreifern zu verbergen. Das kann durch Techniken wie \u201eGradient Masking\u201c erreicht werden, bei denen sensible Informationen \u00fcber das Modell, wie beispielsweise die Gradienten w\u00e4hrend des Trainings, nicht \u00f6ffentlich gemacht werden.<\/li>\n\n\n\n<li><strong>Datenschutz: <\/strong>Um Datenschutzrisiken zu minimieren, sollten Datenschutztechniken wie \u201eDifferential Privacy\u201c eingesetzt werden. Diese Techniken f\u00fcgen zuf\u00e4lliges Rauschen zu den Trainingsdaten hinzu, um zu verhindern, dass das Modell spezifische Informationen \u00fcber einzelne Datenpunkte lernt.<\/li>\n\n\n\n<li><strong>Adversarial Training:<\/strong> Beim Adversarial Training wird das Modell w\u00e4hrend des Trainings mit speziell generierten Adversarialen Examples konfrontiert. Dadurch lernt das Modell, robuster gegen\u00fcber Adversarial Attacks zu sein und kann besser mit manipulierten Eingaben umgehen.<\/li>\n<\/ol>\n\n\n\n<figure class=\"wp-block-image aligncenter size-full\"><a href=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/07\/Bild6.png\"><img loading=\"lazy\" decoding=\"async\" width=\"907\" height=\"458\" data-attachment-id=\"25039\" data-permalink=\"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/2023\/07\/24\/sicherheitscheck-wie-sicher-sind-deep-learning-systeme\/bild6\/\" data-orig-file=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/07\/Bild6.png\" data-orig-size=\"907,458\" data-comments-opened=\"1\" data-image-meta=\"{&quot;aperture&quot;:&quot;0&quot;,&quot;credit&quot;:&quot;&quot;,&quot;camera&quot;:&quot;&quot;,&quot;caption&quot;:&quot;&quot;,&quot;created_timestamp&quot;:&quot;0&quot;,&quot;copyright&quot;:&quot;&quot;,&quot;focal_length&quot;:&quot;0&quot;,&quot;iso&quot;:&quot;0&quot;,&quot;shutter_speed&quot;:&quot;0&quot;,&quot;title&quot;:&quot;&quot;,&quot;orientation&quot;:&quot;0&quot;}\" data-image-title=\"Bild6\" data-image-description=\"\" data-image-caption=\"\" data-large-file=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/07\/Bild6.png\" src=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/07\/Bild6.png\" alt=\"\" class=\"wp-image-25039\" srcset=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/07\/Bild6.png 907w, https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/07\/Bild6-300x151.png 300w, https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/07\/Bild6-768x388.png 768w\" sizes=\"auto, (max-width: 907px) 100vw, 907px\" \/><\/a><figcaption class=\"wp-element-caption\"><em>Abbildung 6: Anzahl an AI Security Papers [12]<\/em><\/figcaption><\/figure>\n\n\n\n<p>Durch die Implementierung dieser umfassenden Gegenma\u00dfnahmen k\u00f6nnen Deep Learning Systeme besser gegen Angriffe gesch\u00fctzt werden und ihre Sicherheit und Integrit\u00e4t gest\u00e4rkt werden. Wie aktuell das Thema derzeit ist, zeigt die obige Abbildung. Die Anzahl der Paper, die im Bereich KI-Security erscheinen, haben sich in letzter Zeit deutlich erh\u00f6ht. Je mehr K\u00fcnstliche Intelligenz und die Deep Learning in die unterschiedlichen Lebensbereiche integriert werden, desto wichtiger ist es diese vor Angriffen zu besch\u00fctzen [5, 12].<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"aioseo-ausblick\">Ausblick<\/h2>\n\n\n\n<p>Die Sicherheit von Deep Learning Systemen ist ein Thema von entscheidender Bedeutung, dass weiterhin eine Vielzahl von Herausforderungen und Entwicklungen mit sich bringt. Obwohl Deep Learning viele beeindruckende Fortschritte gemacht hat, sind diese Systeme nach wie vor anf\u00e4llig f\u00fcr verschiedene Arten von Angriffen, die ihre Integrit\u00e4t und Zuverl\u00e4ssigkeit gef\u00e4hrden k\u00f6nnen. Die Forschung in diesem Bereich entwickelt sich schnell, und es gibt vielversprechende Ans\u00e4tze, um die Sicherheit von Deep Learning Systemen zu verbessern.<\/p>\n\n\n\n<p>Ein entscheidender Schritt in Richtung Sicherheit ist die stetige Verbesserung der Angriffserkennung und -abwehr. Forscher arbeiten daran, immer effektivere Gegenma\u00dfnahmen zu entwickeln, um bekannte Angriffe wie Poisoning Attacks, Model Inversion Attacks und Adversarial Attacks zu erkennen und abzuschw\u00e4chen. Die pr\u00e4ventive Absicherung w\u00e4hrend des Trainingsprozesses und die st\u00e4ndige \u00dcberwachung w\u00e4hrend der Inferenzphase werden essenziell, um potenzielle Schwachstellen fr\u00fchzeitig zu identifizieren und zu entsch\u00e4rfen. Ein vielversprechender Ansatz zur St\u00e4rkung der Sicherheit besteht auch in der Kombination von Deep Learning mit anderen Technologien, wie beispielsweise Blockchain. Blockchain kann als dezentrales Sicherheitsprotokoll fungieren, um die Integrit\u00e4t der Trainingsdaten zu gew\u00e4hrleisten und Angriffe auf das Modell zu erschweren. <\/p>\n\n\n\n<p>Insgesamt bleibt die Sicherheit von Deep Learning Systemen ein fortlaufendes Forschungsgebiet mit vielen Facetten. Die Forscher und Entwickler m\u00fcssen sich dabei immer wieder in die Rolle der Angreifer, als auch die der Verteidiger versetzen, um die Sicherheit der Systeme verbessern zu k\u00f6nnen. In den kommenden Jahren werden immer mehr Angriffe auf Neuronale Netze m\u00f6glich sein, die auch f\u00fcr die breite Masse an Angreifern interessant werden. Bis dahin werden aber hoffentlich auch starke Gegenma\u00dfnahmen und Abwehrtechniken entwickelt, um vor solchen Angriffen sicher zu sein.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"aioseo-literatur\">Literatur<\/h2>\n\n\n\n<figure class=\"wp-block-table has-small-font-size\"><table><tbody><tr><td>[1]<\/td><td>SCS. \u201eSimplifying the Difference: Machine Learning vs Deep Learning.\u201d https:\/\/\u200bwww.scs.org.sg\u200b\/\u200barticles\/\u200bmachine-\u200blearning-\u200bvs-\u200bdeep-\u200blearning (Zugriff am: 19. Juli 2023).<\/td><\/tr><tr><td>[2]<\/td><td>IBM. \u201eWas ist Deep Learning?\u201d https:\/\/\u200bwww.ibm.com\u200b\/\u200bde-\u200bde\/\u200btopics\/\u200bdeep-\u200blearning (Zugriff am: 18. Juli 2023).<\/td><\/tr><tr><td>[3]<\/td><td>J. Ronsdorf. \u201eMicrosoft erkl\u00e4rt: Was ist Deep Learning? Definition &amp; Funktionen von DL | News Center Microsoft.\u201d https:\/\/\u200bnews.microsoft.com\u200b\/\u200bde-\u200bde\/\u200bmicrosoft-\u200berklaert-\u200bwas-\u200bist-\u200bdeep-\u200blearning-\u200bdefinition-\u200bfunktionen-\u200bvon-\u200bdl\/\u200b (Zugriff am: 18. Juli 2023).<\/td><\/tr><tr><td>[4]<\/td><td>W. Chai. \u201eWhat is the CIA Triad? Definition, Explanation, Examples | TechTarget.\u201d https:\/\/\u200bwww.techtarget.com\u200b\/\u200bwhatis\/\u200bdefinition\/\u200bConfidentiality-\u200bintegrity-\u200band-\u200bavailability-\u200bCIA (Zugriff am: 19. Juli 2023).<\/td><\/tr><tr><td>[5]<\/td><td>Y. He, G. Meng, K. Chen, X. Hu und J. He, \u201eTowards Security Threats of Deep Learning Systems: A Survey,\u201c <em>IEEE Transactions on Software Engineering. <\/em>[Online]. Verf\u00fcgbar unter: https:\/\/\u200barxiv.org\u200b\/\u200bpdf\/\u200b1911.12562<\/td><\/tr><tr><td>[6]<\/td><td>ODSC &#8211; Open Data Science, \u201eExploring the Security Vulnerabilities of Neural Networks,\u201c <em>Medium<\/em>, 11. Juli 2022. https:\/\/\u200bodsc.medium.com\u200b\/\u200bexploring-\u200bthe-\u200bsecurity-\u200bvulnerabilities-\u200bof-\u200bneural-\u200bnetworks-\u200b4a4f5b5987b8 (Zugriff am: 15. Juli 2023).<\/td><\/tr><tr><td>[7]<\/td><td>B. Graff, \u201eChat-Bot &#8220;Tay&#8221; lernt im Internet &#8211; vor allem Rassismus,\u201c <em>S\u00fcddeutsche Zeitung<\/em>, 03. April 2016. https:\/\/\u200bwww.sueddeutsche.de\u200b\/\u200bdigital\/\u200bmicrosoft-\u200bprogramm-\u200btay-\u200brassistischer-\u200bchat-\u200broboter-\u200bmit-\u200bfalschen-\u200bwerten-\u200bbombardiert-\u200b1.2928421 (Zugriff am: 24. Juli 2023).<\/td><\/tr><tr><td>[8]<\/td><td>A. Polyakov, \u201eHow to attack Machine Learning ( Evasion, Poisoning, Inference, Trojans, Backdoors),\u201c <em>Towards Data Science<\/em>, 06. August 2019. https:\/\/\u200btowardsdatascience.com\u200b\/\u200bhow-\u200bto-\u200battack-\u200bmachine-\u200blearning-\u200bevasion-\u200bpoisoning-\u200binference-\u200btrojans-\u200bbackdoors-\u200ba7cb5832595c (Zugriff am: 15. Juli 2023).<\/td><\/tr><tr><td>[9]<\/td><td>N. Adams, \u201eModel inversion attacks | A new AI security risk,\u201c <em>Michalsons<\/em>, 08. M\u00e4rz 2023. https:\/\/\u200bwww.michalsons.com\u200b\/\u200bblog\/\u200bmodel-\u200binversion-\u200battacks-\u200ba-\u200bnew-\u200bai-\u200bsecurity-\u200brisk\/\u200b64427 (Zugriff am: 24. Juli 2023).<\/td><\/tr><tr><td>[10]<\/td><td>I. J. Goodfellow, J. Shlens und C. Szegedy, \u201eExplaining and Harnessing Adversarial Examples,\u201c Dez. 2014. [Online]. Verf\u00fcgbar unter: https:\/\/\u200barxiv.org\u200b\/\u200bpdf\/\u200b1412.6572<\/td><\/tr><tr><td>[11]<\/td><td>J. Despois, \u201eAdversarial Examples and their implications &#8211; Deep Learning bits #3,\u201c <em>HackerNoon.com<\/em>, 11. August 2017. https:\/\/\u200bmedium.com\u200b\/\u200bhackernoon\/\u200bthe-\u200bimplications-\u200bof-\u200badversarial-\u200bexamples-\u200bdeep-\u200blearning-\u200bbits-\u200b3-\u200b4086108287c7 (Zugriff am: 15. Juli 2023).<\/td><\/tr><tr><td>[12]<\/td><td>Adversa, \u201eThe Road to Secure and Trusted AI: The Decade of AI Secruity Challenges,\u201c Rep. 1.1, Apr. 2021.<\/td><\/tr><\/tbody><\/table><\/figure>\n","protected":false},"excerpt":{"rendered":"<p>In einer immer st\u00e4rker digitalisierten Welt haben Neuronale Netze und Deep Learning eine immer wichtigere Rolle eingenommen und viele Bereiche unseres Alltags in vielerlei Hinsicht bereichert. Von Sprachmodellen \u00fcber autonome Fahrzeuge bis hin zur Bilderkennung\/-generierung, haben Deep Learning Systeme eine erstaunliche F\u00e4higkeit zur L\u00f6sung komplexer Aufgaben gezeigt. Die Anwendungsm\u00f6glichkeiten zeigen scheinbar keine Grenzen. Doch w\u00e4hrend [&hellip;]<\/p>\n","protected":false},"author":1116,"featured_media":25052,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[1,652,661,26],"tags":[933,119,57,58,27],"ppma_author":[891],"class_list":["post-25006","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-allgemein","category-artificial-intelligence","category-deep-learning","category-secure-systems","tag-attacks","tag-deep-learning","tag-machine-learning","tag-secure-systems","tag-security"],"aioseo_notices":[],"jetpack_featured_media_url":"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/07\/ga_banner_EA15O715KD.jpg","jetpack-related-posts":[{"id":1017,"url":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/2016\/07\/25\/machine-learning-in-secure-systems\/","url_meta":{"origin":25006,"position":0},"title":"Machine Learning in secure systems","author":"Claudius Messerschmidt","date":"25. July 2016","format":false,"excerpt":"Sadly today's security systems often be hacked and sensitive informations get stolen. To protect a company against cyber-attacks security experts define a \"rule set\" to detect and prevent any attack. This \u201canalyst-driven solutions\u201d are build up from human experts with their domain knowledge. This knowledge is based on experiences and\u2026","rel":"","context":"In &quot;Allgemein&quot;","block_context":{"text":"Allgemein","link":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/category\/allgemein\/"},"img":{"alt_text":"","src":"https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2016\/07\/Machine_learning_SeSy_robot_landscape.jpg?resize=350%2C200&ssl=1","width":350,"height":200,"srcset":"https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2016\/07\/Machine_learning_SeSy_robot_landscape.jpg?resize=350%2C200&ssl=1 1x, https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2016\/07\/Machine_learning_SeSy_robot_landscape.jpg?resize=525%2C300&ssl=1 1.5x, https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2016\/07\/Machine_learning_SeSy_robot_landscape.jpg?resize=700%2C400&ssl=1 2x"},"classes":[]},{"id":23138,"url":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/2022\/03\/31\/an-overview-of-large-scale-deep-learning\/","url_meta":{"origin":25006,"position":1},"title":"An overview of Large Scale Deep Learning","author":"mk374","date":"31. March 2022","format":false,"excerpt":"article by Annika Strau\u00df (as426) and Maximilian Kaiser (mk374) Introduction Improving Deep Learning with ULS for superior model training Single Instance Single Device (SISD) Multi Instance Single Device (MISD) Multi Instance Multi Device (MIMD) Single Instance Multi Device (SIMD) Model parallelism Data parallelism Improving ULS and its components with the\u2026","rel":"","context":"In &quot;Allgemein&quot;","block_context":{"text":"Allgemein","link":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/category\/allgemein\/"},"img":{"alt_text":"","src":"https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2022\/03\/quantum-physics-g1357f44f5_1920-Kopie.jpg?resize=350%2C200&ssl=1","width":350,"height":200,"srcset":"https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2022\/03\/quantum-physics-g1357f44f5_1920-Kopie.jpg?resize=350%2C200&ssl=1 1x, https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2022\/03\/quantum-physics-g1357f44f5_1920-Kopie.jpg?resize=525%2C300&ssl=1 1.5x, https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2022\/03\/quantum-physics-g1357f44f5_1920-Kopie.jpg?resize=700%2C400&ssl=1 2x, https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2022\/03\/quantum-physics-g1357f44f5_1920-Kopie.jpg?resize=1050%2C600&ssl=1 3x, https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2022\/03\/quantum-physics-g1357f44f5_1920-Kopie.jpg?resize=1400%2C800&ssl=1 4x"},"classes":[]},{"id":5523,"url":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/2019\/02\/28\/federated-learning\/","url_meta":{"origin":25006,"position":2},"title":"Federated Learning","author":"Simon Fabian Wolf","date":"28. February 2019","format":false,"excerpt":"The world is enriched daily with the latest and most sophisticated achievements of Artificial Intelligence (AI). But one challenge that all new technologies need to take seriously is training time. With deep neural networks and the computing power available today, it is finally possible to perform the most complex analyses\u2026","rel":"","context":"In &quot;Allgemein&quot;","block_context":{"text":"Allgemein","link":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/category\/allgemein\/"},"img":{"alt_text":"","src":"https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/08\/Federated_Learning_averaging_sw189.png?resize=350%2C200&ssl=1","width":350,"height":200,"srcset":"https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/08\/Federated_Learning_averaging_sw189.png?resize=350%2C200&ssl=1 1x, https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/08\/Federated_Learning_averaging_sw189.png?resize=525%2C300&ssl=1 1.5x"},"classes":[]},{"id":2615,"url":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/2017\/08\/27\/fooling-the-intelligence\/","url_meta":{"origin":25006,"position":3},"title":"FOOLING THE INTELLIGENCE","author":"Jonas Miederer","date":"27. August 2017","format":false,"excerpt":"Adversarial machine learning and its dangers The world is led by machines, humans are subjected to the robot\u2019s rule. Omniscient computer systems hold the control of the world. The newest technology has outpaced human knowledge, while the mankind is powerless in the face of the stronger, faster, better and almighty\u2026","rel":"","context":"In &quot;Allgemein&quot;","block_context":{"text":"Allgemein","link":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/category\/allgemein\/"},"img":{"alt_text":"","src":"https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2017\/08\/AAEAAQAAAAAAAAxmAAAAJDcyNzkyZjkzLTUzZTEtNGU1ZS04OWYxLWU4NDU5Y2QxOTRjYQ.png?resize=350%2C200&ssl=1","width":350,"height":200,"srcset":"https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2017\/08\/AAEAAQAAAAAAAAxmAAAAJDcyNzkyZjkzLTUzZTEtNGU1ZS04OWYxLWU4NDU5Y2QxOTRjYQ.png?resize=350%2C200&ssl=1 1x, https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2017\/08\/AAEAAQAAAAAAAAxmAAAAJDcyNzkyZjkzLTUzZTEtNGU1ZS04OWYxLWU4NDU5Y2QxOTRjYQ.png?resize=525%2C300&ssl=1 1.5x, https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2017\/08\/AAEAAQAAAAAAAAxmAAAAJDcyNzkyZjkzLTUzZTEtNGU1ZS04OWYxLWU4NDU5Y2QxOTRjYQ.png?resize=700%2C400&ssl=1 2x, https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2017\/08\/AAEAAQAAAAAAAAxmAAAAJDcyNzkyZjkzLTUzZTEtNGU1ZS04OWYxLWU4NDU5Y2QxOTRjYQ.png?resize=1050%2C600&ssl=1 3x"},"classes":[]},{"id":6076,"url":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/2019\/03\/12\/large-scale-deployment-for-deep-learning-models-with-tensorflow-serving\/","url_meta":{"origin":25006,"position":4},"title":"Large Scale Deployment for Deep Learning Models with TensorFlow Serving","author":"Florian Wintel","date":"12. March 2019","format":false,"excerpt":"Image source Introduction \"How do you turn a trained model into a product, that will bring value to your enterprise?\" In recent years, serving has become a hot topic in machine learning. With the ongoing success of deep neural networks, there is a growing demand for solutions that address the\u2026","rel":"","context":"In &quot;Allgemein&quot;","block_context":{"text":"Allgemein","link":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/category\/allgemein\/"},"img":{"alt_text":"","src":"https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/08\/serving_architecture-1.png?resize=350%2C200&ssl=1","width":350,"height":200,"srcset":"https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/08\/serving_architecture-1.png?resize=350%2C200&ssl=1 1x, https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/08\/serving_architecture-1.png?resize=525%2C300&ssl=1 1.5x"},"classes":[]},{"id":10442,"url":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/2020\/08\/19\/adversarial-attacks\/","url_meta":{"origin":25006,"position":5},"title":"The Dark Side of AI &#8211; Part 2: Adversarial Attacks","author":"Florian Wintel","date":"19. August 2020","format":false,"excerpt":"Find out how AI may become an attack vector! Could an attacker use your models against your? Also, what\u2019s the worst that could happen? Welcome to the domain of adversarial AI!","rel":"","context":"In &quot;Allgemein&quot;","block_context":{"text":"Allgemein","link":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/category\/allgemein\/"},"img":{"alt_text":"","src":"https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2020\/08\/fgsm_panda_image_preds_1.png?resize=350%2C200&ssl=1","width":350,"height":200,"srcset":"https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2020\/08\/fgsm_panda_image_preds_1.png?resize=350%2C200&ssl=1 1x, https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2020\/08\/fgsm_panda_image_preds_1.png?resize=525%2C300&ssl=1 1.5x, https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2020\/08\/fgsm_panda_image_preds_1.png?resize=700%2C400&ssl=1 2x, https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2020\/08\/fgsm_panda_image_preds_1.png?resize=1050%2C600&ssl=1 3x, https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2020\/08\/fgsm_panda_image_preds_1.png?resize=1400%2C800&ssl=1 4x"},"classes":[]}],"jetpack_sharing_enabled":true,"authors":[{"term_id":891,"user_id":1116,"is_guest":0,"slug":"silas_blumenstock","display_name":"Silas Blumenstock","avatar_url":"https:\/\/secure.gravatar.com\/avatar\/92ffff788e006877ca7c7ff092a31e79b55bd06f7f6d801adda7cc372c46fee3?s=96&d=mm&r=g","0":null,"1":"","2":"","3":"","4":"","5":"","6":"","7":"","8":""}],"_links":{"self":[{"href":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/wp-json\/wp\/v2\/posts\/25006","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/wp-json\/wp\/v2\/users\/1116"}],"replies":[{"embeddable":true,"href":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/wp-json\/wp\/v2\/comments?post=25006"}],"version-history":[{"count":32,"href":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/wp-json\/wp\/v2\/posts\/25006\/revisions"}],"predecessor-version":[{"id":25050,"href":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/wp-json\/wp\/v2\/posts\/25006\/revisions\/25050"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/wp-json\/wp\/v2\/media\/25052"}],"wp:attachment":[{"href":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/wp-json\/wp\/v2\/media?parent=25006"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/wp-json\/wp\/v2\/categories?post=25006"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/wp-json\/wp\/v2\/tags?post=25006"},{"taxonomy":"author","embeddable":true,"href":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/wp-json\/wp\/v2\/ppma_author?post=25006"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}