{"id":25062,"date":"2023-07-27T00:40:15","date_gmt":"2023-07-26T22:40:15","guid":{"rendered":"https:\/\/blog.mi.hdm-stuttgart.de\/?p=25062"},"modified":"2023-08-06T21:36:04","modified_gmt":"2023-08-06T19:36:04","slug":"machine-learning-fluch-oder-segen-fur-die-it-security","status":"publish","type":"post","link":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/2023\/07\/27\/machine-learning-fluch-oder-segen-fur-die-it-security\/","title":{"rendered":"Machine Learning: Fluch oder Segen f\u00fcr die IT Security?"},"content":{"rendered":"\n<p class=\"has-large-font-size\">Inhalt<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li class=\"has-small-font-size\"><a href=\"#_Toc141306548\">1. Einleitung<\/a><\/li>\n\n\n\n<li class=\"has-small-font-size\"><a href=\"#_Toc141306549\">2. Segen: Die Vorteile von Maschinellem Lernen f\u00fcr die IT Security<\/a>\n<ul class=\"wp-block-list\">\n<li><a href=\"#_Toc141306550\">Umgang mit Gro\u00dfen Datens\u00e4tzen<\/a><\/li>\n\n\n\n<li><a href=\"#_Toc141306551\">Erkennung von Betrug und Anomalien<\/a><\/li>\n\n\n\n<li><a href=\"#_Toc141306552\">Automatisierte Analyse von ungew\u00f6hnlichem Verhalten im Netz<\/a><\/li>\n\n\n\n<li><a href=\"#_Toc141306553\">Erkennung in Echtzei<\/a>t<\/li>\n\n\n\n<li><a href=\"#_Toc141306554\">Verbesserung der Reaktion auf Vorf\u00e4lle<\/a><\/li>\n\n\n\n<li><a href=\"#_Toc141306555\">Schwachstellen-Management<\/a><\/li>\n\n\n\n<li><a href=\"#_Toc141306556\">Reuzierung Menschlicher Fehler<\/a><\/li>\n<\/ul>\n<\/li>\n\n\n\n<li class=\"has-small-font-size\"><a href=\"#_Toc141306557\">3. Fluch: Risiken von Maschinellem Lernen f\u00fcr die IT-Security<\/a>\n<ul class=\"wp-block-list\">\n<li><a href=\"#_Toc141306558\">3.1 ML als Tool f\u00fcr Angriffe<\/a>\n<ul class=\"wp-block-list\">\n<li><a href=\"#_Toc141306559\">Spam, Phishing und Spear-Phishing<\/a><\/li>\n\n\n\n<li><a href=\"#_Toc141306560\">Malware<\/a><\/li>\n\n\n\n<li><a href=\"#_Toc141306561\">F\u00e4lschungen und Deep Fakes<\/a><\/li>\n<\/ul>\n<\/li>\n\n\n\n<li><a href=\"#_Toc141306562\">3.2 Sicherheitsl\u00fccken \/ Risiken von ML-Systemen<\/a>\n<ul class=\"wp-block-list\">\n<li><a href=\"#_Toc141306563\">Prompt injection Attacks<\/a><\/li>\n\n\n\n<li><a href=\"#_Toc141306564\">Undetectable Backdoors in ML Systems<\/a><\/li>\n\n\n\n<li><a href=\"#_Toc141306565\">Adverseriale Attacken<\/a><\/li>\n<\/ul>\n<\/li>\n<\/ul>\n<\/li>\n\n\n\n<li class=\"has-small-font-size\"><a href=\"#_Toc141306566\">4. Richtlinien zum guten Umgang mit Machine Learning im Bereich IT-Security<\/a>\n<ul class=\"wp-block-list\">\n<li><a href=\"#_Toc141306567\">Allgemeines<\/a><\/li>\n\n\n\n<li><a href=\"#_Toc141306568\">Konkretes Beispiel: Was kann gegen Adversarial Attacks unternommen werden?<\/a><\/li>\n<\/ul>\n<\/li>\n\n\n\n<li class=\"has-small-font-size\"><a href=\"#_Toc141306569\">5. Ist hundertprozentige Sicherheit von ML m\u00f6glich?<\/a>\n<ul class=\"wp-block-list\">\n<li><a href=\"#_Toc141306570\">Das Grundlegende Problem der IT-Security<\/a><\/li>\n<\/ul>\n<\/li>\n\n\n\n<li class=\"has-small-font-size\"><a href=\"#_Toc141306571\">6. Fazit<\/a><\/li>\n\n\n\n<li class=\"has-small-font-size\"><a href=\"#_Toc141306572\">7. Quellen<\/a><\/li>\n<\/ul>\n\n\n\n<h1 class=\"wp-block-heading\"><a id=\"_Toc141306548\">1. Einleitung<\/a><\/h1>\n\n\n\n<p>Im heutigen digitalen Zeitalter ist die Sicherheit von IT-Systemen ein allgegenw\u00e4rtiges Thema von enormer Wichtigkeit. Rund um die Uhr m\u00fcssen riesige Mengen an sensible Daten sicher gespeichert und \u00fcbertragen werden k\u00f6nnen und die Funktionalit\u00e4t von unz\u00e4hligen Systemen muss zuverl\u00e4ssig aufrecht gehalten werden. Industrie 4.0, unz\u00e4hlige Onlinediensten und das Internet of Things (IoT) haben zu einem raschen Anstieg von Cyberangriffen auf diese Systeme und Prozesse gef\u00fchrt. Durch die gro\u00dfe Vielfalt an digitalen Systemen steigt auch die potenzielle Anzahl an Sicherheitsl\u00fccken st\u00e4ndig. <a href=\"#_edn1\" id=\"_ednref1\">[1]<\/a><\/p>\n\n\n\n<p>Maschinelles Lernen (Machine Learning\/ML) bezeichnet das k\u00fcnstliche Erlangen von Wissen durch Erfahrung. Ein Machine Learning Model durchl\u00e4uft eine Trainingsphase, in der es anhand von Trainings- und Testdaten lernt, Muster zu erkennen und zu verallgemeinern. Es wird ein statistisches Modell aufgebaut, welches dann auf zuvor ungesehene Daten angewandt werden kann. <a href=\"#_edn2\" id=\"_ednref2\">[2]<\/a><\/p>\n\n\n\n<p>Mit dem Fortschritt der Technik hat sich Machine Learning als m\u00e4chtiges Werkzeug mit gro\u00dfem Potenzial in vielen Bereichen etabliert, darunter auch in der IT-Security.<br>Viele Unternehmen und Organisationen setzen zunehmend auf Machine Learning als Erg\u00e4nzung ihrer Sicherheitssysteme. <sup>2<\/sup><\/p>\n\n\n\n<p>Automatisierte Bedrohungserkennung, verbesserte Erkennung von Anomalien und Echtzeit Reaktion sind Bereiche, in denen sich Machine Learning in der IT-Security als hilfreich bewiesen hat. Au\u00dferdem kann es einige menschliche Probleme wie Unaufmerksamkeit oder Erm\u00fcdung umgehen. <sup>2<\/sup><\/p>\n\n\n\n<p>Allerdings bringt Machine Learning auch eine nicht zu vernachl\u00e4ssigende Menge an Risiken mit sich, die man bei dem Versuch m\u00f6glichst Sichere Systeme zu erstellen ber\u00fccksichtigen muss. Machine Learning Verfahren k\u00f6nnen als Mittel von Angreifern zu b\u00f6sartigen Zwecken genutzt werden, oder ML-Systeme selbst k\u00f6nnen angreifbar sein und somit zus\u00e4tzliche Angriffsvektoren bieten. Adversarialen Attacken, Prompt Injektion, Deep Fakes, und intelligente Malware k\u00f6nnen ernsthafte Schwierigkeiten bereiten.<a href=\"#_edn3\" id=\"_ednref3\">[3]<\/a><\/p>\n\n\n\n<p>Ist Machine Learning nun also Fluch oder Segen f\u00fcr die IT-Sicherheit? \u00dcberwiegen die Vorteile, die ML zur besseren Erkennung und Abwehr von Bedrohungen bietet, oder doch eher die Risiken, die ML in den H\u00e4nden von Angreifern mit sich bringt, und die verschiedenen Arten ein ML-System zu manipulieren? Ist es m\u00f6glich, eine vollkommene Sicherheit von ML-Systemen zu garantieren?<\/p>\n\n\n\n<p>Dieser Blogeintrag besch\u00e4ftigt sich mit beiden Seiten der Argumentation und wirft ein Blick auf die verschiedenen Chancen und Risiken.<\/p>\n\n\n\n<p>Leider w\u00fcrde es den Umfang dieses Artikels sprengen, auf jedes einzelne Risiko oder jede m\u00f6gliche Attacke einzugehen. Der Fokus liegt in diesem Artikel auf Adversarialen Attacken. F\u00fcr diese wird auch auf Richtlinien eingegangen, wie das Risiko minimiert werden kann.<\/p>\n\n\n\n<p>F\u00fcr weiteres auf das leider nicht im Detail eingegangen werden konnten, bietet dieser Artikel jedoch weiterf\u00fchrende Links, die bei Interesse genutzt werden k\u00f6nnen.<\/p>\n\n\n\n<h1 class=\"wp-block-heading\"><a id=\"_Toc141306549\">2. Segen: Die Vorteile von Machiene Learning f\u00fcr die IT-Security<\/a><\/h1>\n\n\n\n<p>Machine Learning wird bereits seit einiger Zeit in manchen Bereichen der IT-Security eingesetzt, da es viele Vorteile bietet. Das gesamte Potenzial wurde dabei jedoch vermutlich noch nicht ausgesch\u00f6pft.<\/p>\n\n\n\n<p>In diesem Abschnitt des Artikels befassen wir uns mit den Bereichen der IT-Security in denen Machine Learning zum Einsatz kommt und welcher Mehrwert dadurch erzielt wird.<\/p>\n\n\n\n<h3 class=\"wp-block-heading has-large-font-size\"><a id=\"_Toc141306550\">Umgang mit grossen Datens\u00e4tzen<\/a><\/h3>\n\n\n\n<p>Unternehmen m\u00fcssen durch die st\u00e4ndig wachsende Datenmenge und verschiedene Protokollquellen riesige Mengen an Informationen in Echtzeit verarbeiten k\u00f6nnen. Dazu geh\u00f6ren Netzwerksverkehr-Protokolle, Endpunkte und andere Informationsquellen in Bezug auf Cyber-Bedrohungen.<\/p>\n\n\n\n<p>Machine Learning Algorithmen sind gut im Umgang mit gro\u00dfen Datenmengen und daher in dieser Hinsicht eine gro\u00dfe Hilfe. Damit kommen wir auch schon zu dem n\u00e4chsten Vorteil: Das Erkennen automatisiert Muster und Anomalien, die anderenfalls vermutlich unbemerkt bleiben w\u00fcrden.<a href=\"#_edn4\" id=\"_ednref4\">[4]<\/a><\/p>\n\n\n\n<h3 class=\"wp-block-heading has-large-font-size\"><a id=\"_Toc141306551\">Erkennung von Betrug und Anomalien<\/a><\/h3>\n\n\n\n<p>Der h\u00e4ufigste Einsatz von ML in der IT-Security erfolgt zu diesem Zweck.<br>ML-Systeme konnten bereits vielfach hervorragende Ergebnisse darin erzielen, Betrugsversuche und andere Anomalien durch das Erkennen komplexer Muster zu identifizieren. <sup>4<\/sup><\/p>\n\n\n\n<p>Hierzu geh\u00f6rt auch das Erkennen von Spam-Mails, Botnets, Malware und weiteren b\u00f6sartigen oder anormalen Verhaltensmustern. <sup>4<\/sup><\/p>\n\n\n\n<h3 class=\"wp-block-heading has-large-font-size\"><a><\/a><a id=\"_Toc141306552\">Automatisierte Analyse von ungew\u00f6hnlichem Verhalten im Netz<\/a><\/h3>\n\n\n\n<p>Durch Machine Learning wird eine \u00dcberwachung und Analyse der Netzwerkaktivit\u00e4t besser m\u00f6glich. Der normale Netzwerkverkehr wird durch automatische Korrelation und Gruppenbildung als Grundlage genutzt, auf der Ausrei\u00dfer oder ungew\u00f6hnliches Verhalten besser erkannt werden k\u00f6nnen. Es kann \u00fcberpr\u00fcft werden, welche Aktivit\u00e4ten Clients im Netzwerk ausf\u00fchren, und ob diese dem \u00fcblichen Verhalten eines\/diesen Clients entspricht.<\/p>\n\n\n\n<p>Machine Learning Systeme k\u00f6nnen ungew\u00f6hnliche Aktivit\u00e4ten wie die Kommunikation mit Dom\u00e4nen von Dom\u00e4nen generierenden Algorithmen, ungew\u00f6hnliche Weiterverbindungen oder andere verd\u00e4chtige Kommunikationsmuster im Netzwerk zu erkennen helfen. <sup>5<\/sup><\/p>\n\n\n\n<h3 class=\"wp-block-heading has-large-font-size\"><a id=\"_Toc141306553\">Erkennung in Echtzeit<\/a>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;<\/h3>\n\n\n\n<p>Die langen Reaktionszeiten, bis Attacken erkannt und gestoppt werden k\u00f6nnen, werden von mehr als 55 Prozent der Sicherheitsexperten als ein entscheidendes Problem im Bereich IT-Security eingestuft. <sup>6<\/sup><\/p>\n\n\n\n<p>Gibt es f\u00fcr einen Angriff bereits bekannte Indikatoren b\u00f6sartigen Verhaltens, wie zu Beispiel bekannte IP-Adressen oder Dom\u00e4nen, ist es vergleichsweise einfach, dies rechtzeitig als Angriff zu erkennen und zu unterbinden. Wenn diese bekannten Indikatoren jedoch fehlen, wird es einiges schwieriger und viele Angriffe k\u00f6nnen f\u00fcr zu lange Zeit unentdeckt bleiben. <sup>4<\/sup><\/p>\n\n\n\n<p>In diesem Fall sind gute Statistiken und vor allem gute zeit- und korrelationsbasierte Erkennung wichtig, um unbekannte Angriffsmuster als Angriff identifizieren zu k\u00f6nnen, bevor es zu Sch\u00e4den kommt.<\/p>\n\n\n\n<p>Hier kann Machine Learning helfen, herk\u00f6mmliche Sicherheitsverfahren die nach bekannten \u201eIndicators of Compromise\u201c (Indikatoren einer Kompromittierung) suchen zu verbessern. Durch bessere Mustererkennung k\u00f6nnen diese unabh\u00e4ngiger werden, und auch Anomalien ohne bekannte Malware-Indikatoren identifizieren. <sup>4<\/sup><\/p>\n\n\n\n<p>Mit der Problematik der zeitkritischen Reaktionen besch\u00e4ftigt sich der Artikel \u201eIT-Sicherheitsprozesse werden automatisiert \u2013 aber in kleinen Schritten\u201c von Computerwoche, der bei mehr Interesse an dem Thema unter dem Link: <a href=\"https:\/\/www.computerwoche.de\/a\/it-sicherheitsprozesse-werden-automatisiert-aber-in-kleinen-schritten,3331470\">hier<\/a> gefunden werden kann. <sup>5<\/sup><\/p>\n\n\n\n<h3 class=\"wp-block-heading has-large-font-size\"><a id=\"_Toc141306554\">Verbesserung der Reaktion auf Vorf\u00e4lle<\/a><\/h3>\n\n\n\n<p>Wie bereits erw\u00e4hnt, lernen Machine Learning Systeme durch Erfahrung. ML-Systeme k\u00f6nnen durch vorgegebene vergangene Aktivit\u00e4ten eines Analysten die passende Reaktion auf Angriffe und sicherheitskritische Vorf\u00e4lle lernen.<\/p>\n\n\n\n<p>Das macht es m\u00f6glich, zumindest einzelne Aspekte des Reaktionsprozesses auf solche Vorf\u00e4lle zu automatisieren. Dadurch kann nicht nur wertvolle Zeit im Ernstfall gewonnen werden, es k\u00f6nnen auch Ressourcen gespart und Entwickler entlastet werden. <sup>4,<a href=\"#_edn5\" id=\"_ednref5\">[5]<\/a><\/sup><\/p>\n\n\n\n<h3 class=\"wp-block-heading has-large-font-size\"><a id=\"_Toc141306555\">Schwachstellen-Management<\/a><\/h3>\n\n\n\n<p>Schwachstellen eines Systems zu erkennen und zu vermeiden, kann eine sehr gro\u00dfe Herausforderung f\u00fcr Entwickler darstellen. Durch das Analysieren von Benutzerverhalten, Endpunkten, Servern, und sogar Diskussionen im Dark Web k\u00f6nnen ML-Systeme dabei helfen, diese Aufgabe besser zu bew\u00e4ltigen.<br>So k\u00f6nnen mithilfe von Machine Learning Codeschwachstellen erkannt, und Angriffe vorhergesagt werden. <sup>6<\/sup><\/p>\n\n\n\n<h3 class=\"wp-block-heading has-large-font-size\"><a id=\"_Toc141306556\">Reduzierung menschlicher Fehler<\/a><\/h3>\n\n\n\n<p>Durch das Einsetzten von ML k\u00f6nnen menschliche Fehler wie Nachl\u00e4ssigkeit, Alarmerm\u00fcdung angesichts von vielen Bedrohungen, Leichtsinn und Erm\u00fcdung bei wiederholenden T\u00e4tigkeiten verringert werden. ML eignet sich gut daf\u00fcr, repetitive Aufgaben zu automatisieren, um Entwickler zu entlasten und Personalkapazit\u00e4ten zu schaffen. <sup>5<\/sup><br><\/p>\n\n\n\n<h1 class=\"wp-block-heading\"><a id=\"_Toc141306557\">3. Fluch: Risiken von Machiene Learning f\u00fcr die IT-Security<\/a><\/h1>\n\n\n\n<p>Nachdem wir uns mit den Vorteilen die Machine Learning f\u00fcr die IT-Security bringt befasst haben, wird es Zeit einen Blick auf die Nachteile zu werfen.<\/p>\n\n\n\n<p>Dieser Teil ist in zwei Unterkategorien aufgeteilt: Zuerst werden wir ML als Tool, welches Angreifer verwenden k\u00f6nnen betrachten, und zweitens werden wir uns mit den Sicherheitsl\u00fccken von ML-Systemen selbst, welche von Angreifern ausgenutzt werden k\u00f6nnen befassen.<\/p>\n\n\n\n<p>Der besondere Fokus liegt dabei, wie in der Einleitung bereits erw\u00e4hnt, auf Adversarialen Attacken.<\/p>\n\n\n\n<h2 class=\"wp-block-heading has-x-large-font-size\"><a id=\"_Toc141306558\">3.1 ML als Tool f\u00fcr Angriffe<\/a><\/h2>\n\n\n\n<p>Machine Learning ist ein sehr m\u00e4chtiges Tool, das ebenfalls zur Bedrohung werden kann. Angreifer k\u00f6nnen Machine Learning als Tool nutzen, um ihre Angriffe zu verbessern oder effektiver und breitfl\u00e4chiger zu gestalten.<\/p>\n\n\n\n<h3 class=\"wp-block-heading has-large-font-size\"><a id=\"_Toc141306559\">Spam, Phishing und Spear-Phishing<\/a><\/h3>\n\n\n\n<p>Machine Learning kann verwendet werden, um t\u00e4uschend echt aussehende, gef\u00e4lschte Nachrichten zu verfassen. Diese werden genutzt, um Anmeldedaten und pers\u00f6nliche Informationen zu stehlen. <sup>6<\/sup><\/p>\n\n\n\n<p>Eine Black Hat Pr\u00e4sentation von John Seymour und Philip Tully beschreibt, wie ML verwendet wurde virale, Tweets mit gef\u00e4lschten Phishing Links zu erzeugen. Diese waren nach Aussagen der Autoren viermal effektiver als von Menschen manuell erstellte Fakes. Ein Link zu dieser Pr\u00e4sentation kann bei Interesse unter dem Link: <a href=\"https:\/\/www.blackhat.com\/docs\/us-16\/materials\/us-16-Seymour-Tully-Weaponizing-Data-Science-For-Social-Engineering-Automated-E2E-Spear-Phishing-On-Twitter-wp.pdf\">hier<\/a> gefunden werden. <a href=\"#_edn6\" id=\"_ednref6\">[6]<\/a><\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><a id=\"_Toc141306560\">Malware<\/a><\/h3>\n\n\n\n<p>Malware und Ransomware k\u00f6nnen durch das Verwenden von ML effektiver gestaltet werden. Dies hat sich bereits einige Male bewiesen. So gab es beispielsweise einen Angriff unter der Verwendung von ML, der zu einer sechst\u00e4gigen Schlie\u00dfung von Colonial Pipeline und zur Zahlung von 4,4 Millionen Dollar L\u00f6segeld f\u00fchrte. Mehr dazu kann unter dem Link: <a href=\"https:\/\/www.techtarget.com\/whatis\/feature\/Colonial-Pipeline-hack-explained-Everything-you-need-to-know\">hier<\/a> gelesen werde.<a href=\"#_edn7\" id=\"_ednref7\">[7]<\/a><sup>,6<\/sup><\/p>\n\n\n\n<h3 class=\"wp-block-heading has-large-font-size\"><a id=\"_Toc141306561\">F\u00e4lschungen und Deep Fakes<\/a><\/h3>\n\n\n\n<p>Ein Beispiel f\u00fcr das Verwenden von Deep Fakes ist Voice Phishing. Dabei werden durch Machine Learning kreierte Deepfake Audiotechnologien genutzt, um die Stimme einer anderen Person zu kopieren. Diese kann dann zum Ausf\u00fchren von Angriffen verwendet werden. Manche Algorithmen k\u00f6nnen schon anhand weniger Sekunden Sprachaufzeichnung um die Sprache, den Akzent und die Tonlage einer Stimme replizieren. <sup>6<\/sup><\/p>\n\n\n\n<p>Das kann zu gro\u00dfen Problemen f\u00fchren, da manche Banken in den USA und Europa Spracherkennung als anscheinend sichere Methode anbieten, um sich bei seinem Konto anzumelden.<br>Ein sehr spannendes Beispiel dazu wie dies schiefgehen kann, bietet der Artikel \u201eHow I Broke Into a Bank Account With an AI-Generated Voice\u201c (Link: <a href=\"https:\/\/www.vice.com\/en\/article\/dy7axa\/how-i-broke-into-a-bank-account-with-an-ai-generated-voice\">hier<\/a>), in dem der Autor beschreibt, wie er das System einer Bank mit einer ML generierten Stimme austricksen konnte. <a href=\"#_edn8\" id=\"_ednref8\">[8]<\/a><\/p>\n\n\n\n<p>Auch weitere Formen von Angriffen sind durch Deep Fakes leider m\u00f6glich. Hierbei kommt es ganz auf die Kreativit\u00e4t der Hacker an, welche oft sehr gro\u00df ist.<\/p>\n\n\n\n<h2 class=\"wp-block-heading has-large-font-size\"><a id=\"_Toc141306562\">3.2 Sicherheitsl\u00fccken \/ Risiken von ML-Systemen<\/a><\/h2>\n\n\n\n<p>Auch Machine Learning Systeme selbst haben Schw\u00e4chen, welche ausgenutzt werden k\u00f6nnen, um Schaden anzurichten. Wie dies aussehen kann, schauen wir uns in diesem Abschnitt an.<\/p>\n\n\n\n<h3 class=\"wp-block-heading has-large-font-size\"><a id=\"_Toc141306563\">Prompt injection Attacks<\/a><\/h3>\n\n\n\n<p>Prompt Injection Angriffe nutzen eine Sicherheitsl\u00fccke, die einige ML-Modelle, insbesondere bestimmte Arten von Sprachmodellen betrifft, welche prompt-based learning verwenden. Dabei wird durch eine b\u00f6sartige Eingabe ein Sprachmodell dazu gebrachte, sein erwartetes Verhalten zu \u00e4ndern.<a href=\"#_edn9\" id=\"_ednref9\">[9]<\/a><\/p>\n\n\n\n<p>Ein Prompt Injection Angriff auf ein ML-System l\u00e4uft gleich ab wie andere Injektionsangriffe, die man aus dem Bereich der IT-Security kennt. Angreifer geben in die f\u00fcr sie verf\u00fcgbaren Datenfelder eine Verkettung von Anweisungen und Daten ein, die das Modell nicht erwartet. Das zugrunde liegende Modell kann eventuell nicht zwischen \u201enormalen\u201c Eingaben und in Eingaben versteckten Befehlen unterscheiden und kann so zu unerwarteten Aktionen gezwungen werden. Solche Anweisungen k\u00f6nnen beispielsweise SQL-Abfragen auf eine Datenbank sein, oder die Umgehung bestimmter Restriktionen. <sup>9<\/sup><\/p>\n\n\n\n<p>Weiteres dazu kann unter folgendem Link gefunden werden: Link <a href=\"https:\/\/research.nccgroup.com\/2022\/12\/05\/exploring-prompt-injection-attacks\/\">hier<\/a>.<\/p>\n\n\n\n<h3 class=\"wp-block-heading has-large-font-size\"><a id=\"_Toc141306564\">Undetectable Backdoors in ML Systems<\/a><\/h3>\n\n\n\n<p>Das Paper \u201eplanting undetectable backdoors in Machine Learning Models\u201d von Goldwasser et al. (2022) (Link: <a href=\"https:\/\/ieeexplore.ieee.org\/stamp\/stamp.jsp?tp=&amp;arnumber=9996741\">hier<\/a>) besch\u00e4ftigt sich mit dem Risiko von unentdeckbaren Hintert\u00fcren (undetectable backdoors) in Machine Learning Programmen.<a href=\"#_edn10\" id=\"_ednref10\">[10]<\/a><\/p>\n\n\n\n<p>Das Erstellen von ML-Systemen wird aufgrund des gro\u00dfen Zeit- und Ressourcen Aufwands oft an Drittparteien delegiert, also an Dienstleister, welche darauf spezialisiert sind. Dies hat den Vorteil Zeit und Geld zu sparen, und das Wissen von Experten auszunutzen, kann jedoch auch ernsthafte Risiken mit sich bringen, wenn die gew\u00e4hlten Dienstleister nicht vertrauensw\u00fcrdig sind. <sup>10<\/sup><\/p>\n\n\n\n<p>B\u00f6swillige Parteien k\u00f6nnten beim Erstellen des Systems eine undetectable backdoor in einen Klassifikator einbauen, ohne dass es von dem Auftraggeber bemerkt wird. Oberfl\u00e4chlich betrachtet verh\u00e4lt sich ein solcher Klassifikator n\u00e4mlich zun\u00e4chst normal und es f\u00e4llt nicht auf, dass die Person, die das Modell erstellt hat, \u00fcber einen Mechanismus verf\u00fcgt, mit dem sie die Klassifizierung jeder Eingabe mit nur einer kleinen St\u00f6rung \u00e4ndern kann. Ohne \u00fcber den entsprechenden backdoor Schl\u00fcssel zu verf\u00fcgen, bleibt dieser Mechanismus verborgen und kann von Beobachtern nicht entdeckt werden. <sup>10<\/sup><\/p>\n\n\n\n<p>Das Paper demonstriert zwei verschiedene Ans\u00e4tze f\u00fcr das Anbringen von undetectable backdoors, mit sehr hohen Garantien nicht erwischt zu werden. Es wird versichert, dass es rechnerisch nicht m\u00f6glich ist, ein Modell mit backdoor von dem Originalmodell, ohne backdoor, zu unterscheiden. Die verwendeten Methoden sollen nach Angaben der Autoren effektiv gegen\u00fcber herk\u00f6mmlichen Distinguishern und White-Box-Distinguishern verborgen sein. <sup>10<\/sup><\/p>\n\n\n\n<p>Die erste Methode nutzt digitale Signaturverfahren, w\u00e4hrend die zweite auf dem Lernparadigma Random Fourier Features (RFF) basiert. <sup>10<\/sup><\/p>\n\n\n\n<p>Die Existenz solcher backdoors stellt ein gro\u00dfes Risiko f\u00fcr das Delegieren von Machine Learning Systemen dar, und wirft auch Fragen zur Robustheit gegen\u00fcber b\u00f6sartigen Einfl\u00fcssen und Attacken auf. <sup>10<\/sup><\/p>\n\n\n\n<h3 class=\"wp-block-heading has-large-font-size\"><a id=\"_Toc141306565\">Adverseriale Attacken<\/a><\/h3>\n\n\n\n<p>Eine Adversarial Attack (\u201efeindliche Attacke\u201c) bedeutet im Kontext von Machine Learning, dass ein Angreifer Adversarial Examples (\u201efeindliche Beispiele\u201c) nutzt, um die Ergebnisse der Klassifikation eines ML-Modells zu manipulieren.<a id=\"_ednref11\" href=\"#_edn11\">[11]<\/a><\/p>\n\n\n\n<p>Ein Adversarial Example ist also ein Bild, oder anderes Eingangs-Signal, welches auf eine Art und Weise gestaltet wurde, die ein ML-System zur Fehlklassifikation verleitet. F\u00fcr das menschliche Auge ist diese Manipulation meist nicht bemerkbar, da schon eine leichte Ver\u00e4nderung der Pixel gen\u00fcgen kann, wie das folgende Bild zeigt: <a href=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-admin\/post.php?post=25062&amp;action=edit#_edn12\">[12]<\/a><\/p>\n\n\n\n<figure class=\"wp-block-image size-full\"><a href=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/07\/Unbenannt.png\"><img loading=\"lazy\" decoding=\"async\" width=\"793\" height=\"293\" data-attachment-id=\"25065\" data-permalink=\"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/2023\/07\/27\/machine-learning-fluch-oder-segen-fur-die-it-security\/unbenannt-5\/\" data-orig-file=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/07\/Unbenannt.png\" data-orig-size=\"793,293\" data-comments-opened=\"1\" data-image-meta=\"{&quot;aperture&quot;:&quot;0&quot;,&quot;credit&quot;:&quot;&quot;,&quot;camera&quot;:&quot;&quot;,&quot;caption&quot;:&quot;&quot;,&quot;created_timestamp&quot;:&quot;0&quot;,&quot;copyright&quot;:&quot;&quot;,&quot;focal_length&quot;:&quot;0&quot;,&quot;iso&quot;:&quot;0&quot;,&quot;shutter_speed&quot;:&quot;0&quot;,&quot;title&quot;:&quot;&quot;,&quot;orientation&quot;:&quot;0&quot;}\" data-image-title=\"Unbenannt\" data-image-description=\"\" data-image-caption=\"\" data-large-file=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/07\/Unbenannt.png\" src=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/07\/Unbenannt.png\" alt=\"\" class=\"wp-image-25065\" srcset=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/07\/Unbenannt.png 793w, https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/07\/Unbenannt-300x111.png 300w, https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/07\/Unbenannt-768x284.png 768w\" sizes=\"auto, (max-width: 793px) 100vw, 793px\" \/><\/a><figcaption class=\"wp-element-caption\">Abbildung 1: Adversarial Example ( Bild von <a href=\"https:\/\/towardsdatascience.com\/breaking-neural-networks-with-adversarial-attacks-f4290a9a45aa\">https:\/\/towardsdatascience.com\/breaking-neural-networks-with-adversarial-attacks-f4290a9a45aa<\/a> )<\/figcaption><\/figure>\n\n\n\n<p>Wie zu erkennen ist, wird das Bild von dem ML-Modell zun\u00e4chst korrekt klassifiziert als Panda.<br>Wird dann jedoch eine f\u00fcr uns kaum bis nicht wahrnehmbare Menge an Rauschen auf das Bild addiert, \u00e4ndert sich die Vorsage des Modells zu \u201eGibbon\u201c, einem anderen Tier, und das auch noch mit sehr hohem Confidence Wert. Aus unserer Sicht ist die \u00c4nderung nicht merkbar, doch f\u00fcr das Modell ist es ein riesiger Unterschied. <sup>12,<a href=\"#_edn13\" id=\"_ednref13\">[13]<\/a><\/sup><\/p>\n\n\n\n<p>Dies veranschaulicht die gro\u00dfe Bedrohung, die diese Angriffe darstellen:&nbsp; Auch wenn f\u00fcr uns keine \u00c4nderung erkennbar ist, kann das Modell so manipuliert werden, ohne dass es bemerkt wird. <sup>12<\/sup><\/p>\n\n\n\n<p>Eine Anf\u00e4lligkeit f\u00fcr Adversarial Attacks l\u00e4sst sich in allen Anwendungsbereichen von ML-Systemen zeigen.<br>Da Machine Learning auch in sehr sicherheitskritischen Bereichen wie im autonomen Fahren zum Einsatz kommt (Beispiel: erkennen von Verkehrsschildern), wird es immer wichtiger M\u00f6glichkeiten zur Abwehr solcher Attacken zu finden. <sup>11<\/sup><\/p>\n\n\n\n<p>Deshalb stehen Adversarial Attacks und Methoden diese zu erkennen und abzuwehren immer mehr im Fokus der Forschung im Bereich Machine Learning und KI, und auch im Fokus dieses Blogeintrags. <sup>11<\/sup><br><\/p>\n\n\n\n<h4 class=\"wp-block-heading has-large-font-size\">A) Gezielte vs. ungezielte Adversarial Attacks<\/h4>\n\n\n\n<p>Adversarial Attacks werden in zwei Kategorien eingeteilt: gezielte und ungezielte Angriffe.<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Gezielter Angriffe:<\/li>\n\n\n\n<li>Bei einem gezielten Angriff gibt es eine Zielklasse Y (im Beispiel oben: Gibbon), als welche das angegriffene ML-Modell M das abgewandelte Adversarial Example Bild B, klassifizieren soll, obwohl es eigentlich der Klasse X (im Beispiel oben: Panda) angeh\u00f6rt. <sup>12,13<\/sup><\/li>\n<\/ul>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Ungezielter Angriff:<\/li>\n\n\n\n<li>Bei einem ungezielten Angriff hingegen gibt es keine bestimmte Zielklasse. Das Ziel des Angriffs besteht nur darin, das angegriffene ML-Modell M zu einer Fehlklassifizierung zu veranlassen, indem das Adversarial Example Bild B einer beliebigen anderen Klasse au\u00dfer der eigentlichen Klasse X zugeordnet wird. <sup>12<\/sup><\/li>\n<\/ul>\n\n\n\n<p>W\u00e4hrend ungezielte Angriffe im Allgemeinen zwar weniger genau, und daher weniger erfolgreich sind als gezielte, nehmen gezielte Angriffe jedoch sehr viel Zeit in Anspruch, und sind daher schwieriger durchzuf\u00fchren. <sup>12<\/sup><\/p>\n\n\n\n<h4 class=\"wp-block-heading\">B) Blackbox vs. Whitebox Attacks<\/h4>\n\n\n\n<p>Von einem Whitebox Angriff ist dann die Rede, wenn das Zielmodell dem Angreifer bekannt ist, und so gezielt Adversarial Examples erzeugen werden k\u00f6nnen, um dieses spezielle Modell zu t\u00e4uschen. <sup>12<\/sup><\/p>\n\n\n\n<p>Jedoch kennen nicht alle Angreifer ihr Zielmodell oder haben Zugang darauf. Auch Blackbox-Angriffe, bei den die Angreifer die Logik ihres Zielmodells nicht kennen, sind sehr effektiv. <sup>12<\/sup><\/p>\n\n\n\n<p>Blackbox-Angriffe basieren auf dem Konzept der \u00dcbertragbarkeit von Adversarial Examples.<br>Auch wenn Adversarial Examples nur zum Angriff auf ein Surrogate-Modell G generiert wurden, k\u00f6nnen sie trotzdem h\u00e4ufig bei einem Angriff auf das Zielmodell M sehr effektiv Ergebnisse erzielen. <sup>12<\/sup><\/p>\n\n\n\n<p>Ein Blackbox Angriff erfolgt mit den folgenden Schritten:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Das Angriffszielmodell M wurde privat trainiert und ist dem Angreifer nicht bekannt.<\/li>\n\n\n\n<li>Ein Surrogate-Modell G, welches M nachahmt, wird angewandt, um Adversarial Examples zu erzeugen und zu testen.<\/li>\n\n\n\n<li>Die oft vorhandene \u00dcbertragbarkeit von Adversarial Examples wird ausgenutzt, um Blackbox-Angriffe auf M durchzuf\u00fchren. <sup>12<\/sup><\/li>\n<\/ul>\n\n\n\n<p>Ein solcher Angriff kann entweder mit einem bekannten oder einem unbekannten Trainingsdatensatz durchgef\u00fchrt werden. Wenn der Datensatz dem Angreifer bekannt ist, kann das Modell G auf demselben Datensatz wie das Modell M trainiert werden, um M besser zu imitieren. <sup>12<\/sup><\/p>\n\n\n\n<p>Ist der Datensatz nicht bekannt, gibt es trotzdem Wege, wie der Angreifer den Trainingsdatensatz, mit dem M trainiert wurde, besser erahnen und einen Schattendatensatz auf dieser Grundlage erzeugen kann. <sup>12<\/sup><\/p>\n\n\n\n<h5 class=\"wp-block-heading\">Physikalische Angriffe: Ein Beispiel f\u00fcr Blackbox-Angriffe<\/h5>\n\n\n\n<p>Eine einfache M\u00f6glichkeit ein Modell zu manipulieren besteht darin, eine neue physikalische Eigenschaft (z. B. eine helle, auff\u00e4llige Farbe) zu dem eigentlichen Bild hinzuzuf\u00fcgen, um das Modell zu st\u00f6ren.<br>Eine Gruppe an Forschern an der CMU hat als Beispiel hierf\u00fcr bei einem Angriff auf Gesichtserkennungsmodelle einer Person eine sehr bunte Brille hinzuf\u00fcgten. Die Personen wurden daraufhin nicht mehr korrekt erkannt. <sup>12<\/sup><\/p>\n\n\n\n<p>Ein weiteres Beispiel bieten Forscher von Google, die verschiedene Sticker zu Bildern als Input f\u00fcr ein Objektklassifizierung-Modell hinzugef\u00fcgt haben- Folgendes Bild zeigt die Ergebnisse:<\/p>\n\n\n\n<figure class=\"wp-block-image size-full\"><a href=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/07\/Unbenannt2.png\"><img loading=\"lazy\" decoding=\"async\" width=\"751\" height=\"483\" data-attachment-id=\"25066\" data-permalink=\"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/2023\/07\/27\/machine-learning-fluch-oder-segen-fur-die-it-security\/unbenannt2-2\/\" data-orig-file=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/07\/Unbenannt2.png\" data-orig-size=\"751,483\" data-comments-opened=\"1\" data-image-meta=\"{&quot;aperture&quot;:&quot;0&quot;,&quot;credit&quot;:&quot;&quot;,&quot;camera&quot;:&quot;&quot;,&quot;caption&quot;:&quot;&quot;,&quot;created_timestamp&quot;:&quot;0&quot;,&quot;copyright&quot;:&quot;&quot;,&quot;focal_length&quot;:&quot;0&quot;,&quot;iso&quot;:&quot;0&quot;,&quot;shutter_speed&quot;:&quot;0&quot;,&quot;title&quot;:&quot;&quot;,&quot;orientation&quot;:&quot;0&quot;}\" data-image-title=\"Unbenannt2\" data-image-description=\"\" data-image-caption=\"\" data-large-file=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/07\/Unbenannt2.png\" src=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/07\/Unbenannt2.png\" alt=\"\" class=\"wp-image-25066\" srcset=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/07\/Unbenannt2.png 751w, https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/07\/Unbenannt2-300x193.png 300w\" sizes=\"auto, (max-width: 751px) 100vw, 751px\" \/><\/a><\/figure>\n\n\n\n<p>Abbildung 2: Physikal Adversarial Example ( Bild von: <a href=\"https:\/\/arxiv.org\/pdf\/1712.09665.pdf\">https:\/\/arxiv.org\/pdf\/1712.09665.pdf<\/a> )<\/p>\n\n\n\n<p>Ein Bild einer Banane wird zun\u00e4chst richtig als Banane erkannt. Nach dem Hinzuf\u00fcgen eines Stickers in Form eines Toasters wird das Bild der Banane nun als Toaster erkannt. Dieses Beispiel zeigt, wie effektiv solche recht simplen physikalische Adversarial Examples sein k\u00f6nnen.<\/p>\n\n\n\n<h1 class=\"wp-block-heading\"><a id=\"_Toc141306566\">4. Richtlinien zum guten Umgang mit Machine Learning im Bereich IT-Security<\/a><\/h1>\n\n\n\n<h2 class=\"wp-block-heading has-large-font-size\"><a id=\"_Toc141306567\">Allgemeines<\/a><\/h2>\n\n\n\n<p>Ma\u00dfnahmen zum Verbessern der Sicherheit von und vor Machine Learning m\u00fcssen immer als kontinuierliche Aufgabe verstanden werden, und d\u00fcrfen nicht vernachl\u00e4ssigt werden. Eine Mindestanforderung ist es, normierte Testdatens\u00e4tze und Testabl\u00e4ufe die bekannte Angriffsarten enthalten zu pr\u00fcfen, und mindestens daf\u00fcr effektive Gegenma\u00dfnahmen zu garantieren. Dies muss immer wieder geschehen, da mit der Zeit immer mehr bekannte Angriffe dazu kommen. <sup>15<\/sup><\/p>\n\n\n\n<p>Bereits bekannte M\u00f6glichkeiten zur H\u00e4rtung von ML-Systemen gegen Angriffe sollten st\u00e4ndig recherchiert und umgesetzt werden, um auf dem neusten Stand zu bleiben. <sup>15<\/sup><\/p>\n\n\n\n<p>Au\u00dferdem ist es wichtig Werkzeuge zum Testen und Pr\u00fcfen von der Sicherheit von und vor ML-Systemen zu erstellen, um Anwendungen weiter zu h\u00e4rten und neue potenzielle Sicherheitsl\u00fccken zu finden. Da ML sich immer st\u00e4rker verbreitet, sollte parallel auch signifikante Forschung \u00fcber Sicherheitsrisiken von ML vermehrt stattfinden.<\/p>\n\n\n\n<p>Wie es auch bei Kryptologie Verfahren der Fall ist, sollte die Forschung auch im Bereich ML gleicherma\u00dfen auf die Konstruktion und das Finden von Sicherheitsl\u00fccken fokussiert sein. <sup>15<\/sup><\/p>\n\n\n\n<p>So wird beispielsweise in dem Paper \u201eSicherheit von und durch Machine Learning\u201c (Link: <a href=\"https:\/\/www.aisec.fraunhofer.de\/content\/dam\/aisec\/Dokumente\/Publikationen\/Studien_TechReports\/deutsch\/impulspapier-ml.pdf\">hier<\/a>) von dem Frauenhofer Institut der Politik empfohlen \u201eInnovationen in ML-basierter Sicherheit [zu] f\u00f6rdern, [\u2026] durch das Pushen eines einschl\u00e4gigen Start-up-\u00d6kosystems, und die Verbesserung der Rahmenbedingungen f\u00fcr einschl\u00e4gige Forschungsaktivit\u00e4ten der etablierten Wirtschaft und Industrie.\u201c<sup> 15<\/sup><\/p>\n\n\n\n<p>Zudem wird das \u201eDefinieren von Anforderungen an die Sicherheit von ML, abh\u00e4ngig von ihrem Einsatzgebiet, um Rechtssicherheit zu schaffen\u201c gefordert.<sup> 15<\/sup><\/p>\n\n\n\n<p>Beh\u00f6rden sollen \u201eOrientierung geben, beispielsweise durch das Zusammentragen von erprobten Umsetzungsvorschl\u00e4gen zum sicheren Einsatz von ML\u201c und \u201eBenchmarking vorantreiben, beispielsweise durch das Erstellen von Testdatens\u00e4tzen zum algorithmen\u00fcbergreifenden Vergleich von Resistenzen gegen bekannte Angriffe auf Trainingsdatens\u00e4tze.\u201c<sup> 15<\/sup><\/p>\n\n\n\n<p>Unternehmen wird das \u201eErarbeiten von Risikoabsch\u00e4tzungen bei den Anwendungen des ML und Ableiten einer angepassten Sicherheitsstrategie\u201c nahegelegt, und das \u201eEinbinden von Sicherheitsexperten bei der Einf\u00fchrung und dem Betrieb von ML.\u201c<sup> 15<\/sup><\/p>\n\n\n\n<p>Die Wissenschaft sollte die \u201eForschung hinsichtlich der Sicherheitseigenschaften von Algorithmen des Maschinellen Lernens [vertiefen], beispielsweise bez\u00fcglich der Aspekte Robustheit, IT-Sicherheit, Verl\u00e4sslichkeit, Integrit\u00e4t, Transparenz, Erkl\u00e4rbarkeit, Interpretierbarkeit und Nichtdiskriminierung.\u201c<sup> 14<\/sup><\/p>\n\n\n\n<p>Im folgenden Abschnitt wenden wir uns beispielsweise einigen konkreten Richtlinien zur Abwehr Adversarialer Attacken zu.<br><br><\/p>\n\n\n\n<h2 class=\"wp-block-heading has-large-font-size\"><a id=\"_Toc141306568\">Konkretes Beispiel: Was kann gegen Adversarial Attacks unternommen werden?<\/a><\/h2>\n\n\n\n<p>In dem Paper &#8220;Denoising and Verification Cross-Layer Ensemble Against Black-box Adversarial Attacks&#8221; von Chow et al. (2019) wird ein m\u00f6glicher Ansatz ML-Systeme sicherer gegen Adversarial Attacks zu gestalten vorgeschlagen. Der Ansatz besteht darin, maschinelle Lernsysteme zu bef\u00e4higen, feindliche Angriffe automatisch zu erkennen und sie dann durch den Einsatz von Entrauschungs- und Verifizierungs-Ensembles automatisch zu reparieren (Wir erinnern uns an das Beispiel mit dem Panda und dem hinzugef\u00fcgten Rauschen). <a href=\"#_edn14\" id=\"_ednref14\">[14]<\/a><\/p>\n\n\n\n<p>Auf die wichtigsten Aspekte dieses Ansatzes wird hier nun etwas eingegangen.<\/p>\n\n\n\n<h5 class=\"wp-block-heading\">Denoising (Entrauschungs-) Ensembles<\/h5>\n\n\n\n<p>Alle Bilder m\u00fcssen nach der Eingabe zun\u00e4chst ein Denoising Ensemble durchlaufen. In diesem wird mit verschiedenen Methoden versucht, das dem Bild hinzugef\u00fcgte Rauschen, zum Beispiel Gau\u00dfsches Rauschen, zu entfernen. Der Verteidiger des Systems wei\u00df nicht welche Art von Rauschen dem Bild wom\u00f6glich beigef\u00fcgt wurde, daher reicht es nicht nur zu versuchen Gau\u00dfsches Rauschen zu entfernen. Es braucht ein ganzes Ensemble an Denoiser f\u00fcr verschiedene Typen an Rauschen, um auch wirklich jede Art von Rauschen zu entfernen. Die Hoffnung ist, dass man so dem urspr\u00fcnglichen, nicht verrauschten Bild nahe genug kommt, um eine korrekte Klassifizierung zu erreichen, da mindestens ein Denoiser das Original exakt genug reproduzieren kann. <sup>14<\/sup><\/p>\n\n\n\n<h5 class=\"wp-block-heading\">Verifikations-Ensemble<\/h5>\n\n\n\n<p>Dies ist der zweite Schritt in dem von Chow et al. vorgeschlagenen Prozess. Nach dem Durchlaufen des Denoising Ensembles in Schritt Eins, in dem die Bilder hoffentlich gen\u00fcgend entrauscht wurden, durchlaufen sie ein Verifizierungs-Ensemble.<br>Dieses \u00fcberpr\u00fcft noch einmal jedes entrauschte Bild, das von jedem Denoiser erzeugt wurde, und klassifiziert es anschlie\u00dfend. Jeder Klassifikator im Verifikations-Ensemble klassifiziert jedes entrauschte Bild, und das Ensemble stimmt dann ab, um die endg\u00fcltige Kategorie zu bestimmen, zu der das Bild geh\u00f6rt.<br>Durch diese Abstimmung wird die Wahrscheinlichkeit einer korrekten Klassifizierung erh\u00f6ht, selbst wenn einige Bilder im vorherigen Schritt nicht richtig entrauscht wurden. <sup>14<\/sup><\/p>\n\n\n\n<h5 class=\"wp-block-heading\">Diversity<\/h5>\n\n\n\n<p>Ein \u00fcberaus wichtiger Punkt bei diesem Prozess ist die Vielfalt (Diversity) der Denoiser und Verifizierer. Angreifer erfinden st\u00e4ndig neue, besser adaptierte Arten Bilder zu manipulieren, weshalb es essenziell ist mit einer m\u00f6glichst gro\u00dfen und diversen Menge an ver\u00e4nderten Bildern umgehen zu k\u00f6nnen. Je vielf\u00e4ltiger die Denoiser und Verifizierer sind, desto schwerer wird es Angreifern gemacht sie zu manipulieren.<\/p>\n\n\n\n<p>Es bleibt jedoch immer noch das Problem, dass nach all den Entscheidungen der verschiedenen Verifizierer trotzdem noch ein endg\u00fcltiger Entscheidungstr\u00e4ger existiert, der entscheidet auf wessen Meinung geh\u00f6rt werden soll. Dieser Endentscheidungstr\u00e4ger muss es schaffen, die Diversit\u00e4t der Ensembles so gut wie m\u00f6glich zu achten, was keine einfache Aufgabe ist und daher auch manchmal schiefgehen kann. <sup>14<\/sup><\/p>\n\n\n\n<h1 class=\"wp-block-heading\"><a id=\"_Toc141306569\">5. Ist hundertprozentige Sicherheit von ML m\u00f6glich?<\/a><\/h1>\n\n\n\n<p>Nachdem bisher viele verschiedene Arten von Angriffen betrachtet wurden und die Eingrenzung der davon ausgehenden Gefahr besprochen wurde, stellt sich nun nat\u00fcrlich die Frage, ob es m\u00f6glich ist Angriffe von und auf ML komplett zu verhindern.<\/p>\n\n\n\n<p>Eine hundertprozentige, absolute Sicherheitsgarantie wird vermutlich immer schwierig sein, jedoch gibt es etliche M\u00f6glichkeiten Sicherheitsl\u00fccken und Bedrohungen ausfindig zu machen und Risiken dadurch stark zu minimieren. Um die allgemeine Gef\u00e4hrdungslage zu verbessern, ist Security by Design (Waidner et al. 2013) wichtig, aber auch dadurch k\u00f6nnen nicht alle Probleme vollst\u00e4ndig gel\u00f6st werden.<br>Diese Erkenntnis ist ein wesentlicher Ausgangspunkt f\u00fcr den st\u00e4ndigen Bedarf an Innovation im Bereich IT-Sicherheit. <sup>2<\/sup><\/p>\n\n\n\n<h2 class=\"wp-block-heading has-large-font-size\"><a id=\"_Toc141306570\">Das Grundlegende Problem der IT-Security<\/a><\/h2>\n\n\n\n<p>Das grundlegende Problem der IT-Security ist es, dass neu entwickelte Schutzmethoden meist schon bald durch neu entwickelte Angriffsmethoden umgangen werden, woraufhin wieder neue Schutzmethoden eingef\u00fchrt werden, und immer so weiter. Es gibt ein st\u00e4ndiges Agieren und Reagieren beider Seiten. Dieses Verhalten zeigt sich auch im Bereich Machine Learning in der IT-Security. <a href=\"#_edn15\" id=\"_ednref15\">[15]<\/a><\/p>\n\n\n\n<p>Sowohl Erfahrungen der IT-Sicherheitsforschung als auch der Praxis legen nahe, dass es unwahrscheinlich ist, ein Sicherheitsrisiko v\u00f6llig ausschlie\u00dfen zu k\u00f6nnen. Der st\u00e4ndige Wettlauf zwischen Verteidigern und Angreifern h\u00e4lt beide Seiten st\u00e4ndig auf Trab. <sup>15<\/sup><\/p>\n\n\n\n<p>Neben den zahlreichen Vorteilen die ML f\u00fcr Security bietet, haben sich auch zahlreiche Angriffe auf ML-L\u00f6sungen entwickelt. Es besteht ein St\u00e4ndiges Katz und Maus spiel zwischen Security Experten und Angreifern, und beide Seiten verwenden dabei Machine Learning. <sup>15<\/sup><\/p>\n\n\n\n<p>Trotz der m\u00f6glichen Risiken, die Machine Learning mit sich bringt, und obwohl die hundertprozentige Sicherheit eines Machine Learning Systems vermutlich genauso wenig garantiert werden kann wie die jeden anderen Systems, w\u00e4re es also nicht schlau auf Machine Learning zu verzichten.<\/p>\n\n\n\n<h1 class=\"wp-block-heading\"><a id=\"_Toc141306571\">6. Fazit<\/a><\/h1>\n\n\n\n<p>Wie sich in diesem Artikel gezeigt hat, ist Machine Learning sowohl Fluch als auch Segen f\u00fcr die IT-Security, je nachdem wie man es betrachtet.<\/p>\n\n\n\n<p>Die Vorteile von ML f\u00fcr die IT-Security sind vielf\u00e4ltig und bieten eine bessere Erkennung und Abwehr von Bedrohungen. Durch den Umgang mit gro\u00dfen Datens\u00e4tzen, die Erkennung von Betrug und Anomalien, die automatisierte Analyse von ungew\u00f6hnlichem Verhalten im Netz und die Echtzeit-Erkennung kann ML eine wertvolle Hilfe sein. Es erm\u00f6glicht auch die Verbesserung der Reaktion auf Vorf\u00e4lle, das Schwachstellen-Management und reduziert menschliche Fehler.<\/p>\n\n\n\n<p>Jedoch birgt ML auch Risiken f\u00fcr die IT-Security. Es kann als Tool f\u00fcr Angriffe dienen, wodurch Spam, Phishing, Malware und Deep Fakes effektiver gestaltet werden k\u00f6nnen. Dar\u00fcber hinaus sind ML-Systeme selbst anf\u00e4llig f\u00fcr Sicherheitsl\u00fccken, wie Adversarial Attacks, Prompt Injection Attacks und Undetectable Backdoors zeigen. Diese Schwachstellen k\u00f6nnen von Angreifern ausgenutzt werden und stellen eine ernsthafte Bedrohung dar.<\/p>\n\n\n\n<p>Deshalb ist es wichtig, Richtlinien zum sicheren Umgang mit ML in der IT-Security zu entwickeln. Die Sicherheit von ML-Systemen muss als kontinuierliche Aufgabe betrachtet werden, um auf neue Bedrohungen und Angriffe angemessen reagieren zu k\u00f6nnen. Unternehmen sollten bekannte M\u00f6glichkeiten zur H\u00e4rtung von ML-Systemen umsetzen und Werkzeuge zur Pr\u00fcfung der Sicherheit entwickeln. Die Forschung in diesem Bereich sollte sich sowohl auf die Konstruktion von sicheren ML-Systemen als auch auf das Aufdecken von Sicherheitsl\u00fccken konzentrieren.<\/p>\n\n\n\n<p>Das Bestehen von Risiken ist ein grundlegendes Problem der IT-Security: neue Schutzmethoden bringen neue Angriffsmethoden hervor. Deshalb ist es umso wichtiger, Angreifern einen Schritt voraus zu sein, wobei Machine Learning eine entscheidende Rolle spielen kann.<\/p>\n\n\n\n<p>Insgesamt ist ML in der IT-Sicherheit sowohl als gro\u00dfe Chance als auch eine Herausforderung zu sehen. Die Vorteile k\u00f6nnen genutzt werden, um die Sicherheit zu verbessern, aber es ist auch wichtig, die Risiken zu verstehen und angemessene Sicherheitsma\u00dfnahmen zu ergreifen, um m\u00f6gliche Angriffe zu verhindern und abzuwehren.<\/p>\n\n\n\n<p>Bei der richtigen Anwendung, und dem Beachten der in diesem Artikel behandelten Risiken erweist sich Machine Learning als wichtiges Tool, welches viel Potenzial mit sich bringt.<\/p>\n\n\n\n<h1 class=\"wp-block-heading\"><a id=\"_Toc141306572\">7. Quellen<\/a><\/h1>\n\n\n\n<hr class=\"wp-block-separator has-alpha-channel-opacity\"\/>\n\n\n\n<p><a href=\"#_ednref1\" id=\"_edn1\">[1]<\/a> Koay, A.M.Y., Ko, R.K.L., Hettema, H. et al. Machine learning in industrial control system (ICS) security: current landscape, opportunities and challenges. J Intell Inf Syst 60, 377\u2013405 (2023). <a href=\"https:\/\/doi.org\/10.1007\/s10844-022-00753-1\">https:\/\/doi.org\/10.1007\/s10844-022-00753-1<\/a><\/p>\n\n\n\n<p><a href=\"#_ednref2\" id=\"_edn2\">[2]<\/a> Hartmann, M. Machine Learning und IT-Security. Datenschutz Datensich 42, 231\u2013235 (2018). <a href=\"https:\/\/doi.org\/10.1007\/s11623-018-0913-5\">https:\/\/doi.org\/10.1007\/s11623-018-0913-5<\/a> ,&nbsp;S.&nbsp;2<\/p>\n\n\n\n<p><a href=\"#_ednref3\" id=\"_edn3\">[3]<\/a> <a href=\"https:\/\/digitaleweltmagazin.de\/ki-in-der-cybersecurity-fluch-oder-segen\/\">https:\/\/digitaleweltmagazin.de\/ki-in-der-cybersecurity-fluch-oder-segen\/<\/a><\/p>\n\n\n\n<p><a href=\"#_ednref4\" id=\"_edn4\">[4]<\/a> <a href=\"https:\/\/www.security-insider.de\/4-gruende-fuer-den-einsatz-von-ki-und-machine-learning-in-der-cybersecurity-a-b7f2f5db8c1405a70131a7081cfb8009\/\">https:\/\/www.security-insider.de\/4-gruende-fuer-den-einsatz-von-ki-und-machine-learning-in-der-cybersecurity-a-b7f2f5db8c1405a70131a7081cfb8009\/<\/a><\/p>\n\n\n\n<p><a href=\"#_ednref5\" id=\"_edn5\">[5]<\/a> <a href=\"https:\/\/www.computerwoche.de\/a\/it-sicherheitsprozesse-werden-automatisiert-aber-in-kleinen-schritten,3331470\">https:\/\/www.computerwoche.de\/a\/it-sicherheitsprozesse-werden-automatisiert-aber-in-kleinen-schritten,3331470<\/a><\/p>\n\n\n\n<p><a href=\"#_ednref6\" id=\"_edn6\">[6]<\/a> <a href=\"https:\/\/www.security-insider.de\/7-wege-wie-ki-und-ml-der-cybersicherheit-helfen-und-schaden-a-059d2f88c3154b84dadc8c3fe25c80ae\/\">https:\/\/www.security-insider.de\/7-wege-wie-ki-und-ml-der-cybersicherheit-helfen-und-schaden-a-059d2f88c3154b84dadc8c3fe25c80ae\/<\/a><\/p>\n\n\n\n<p><a href=\"#_ednref7\" id=\"_edn7\">[7]<\/a> <a href=\"https:\/\/www.golem.de\/news\/ransomware-colonial-pipeline-aeussert-sich-zu-loesegeldzahlung-2105-156639.html\">https:\/\/www.golem.de\/news\/ransomware-colonial-pipeline-aeussert-sich-zu-loesegeldzahlung-2105-156639.html<\/a><\/p>\n\n\n\n<p><a href=\"#_ednref8\" id=\"_edn8\">[8]<\/a> <a href=\"https:\/\/www.vice.com\/en\/article\/dy7axa\/how-i-broke-into-a-bank-account-with-an-ai-generated-voice\">https:\/\/www.vice.com\/en\/article\/dy7axa\/how-i-broke-into-a-bank-account-with-an-ai-generated-voice<\/a><\/p>\n\n\n\n<p><a href=\"#_ednref9\" id=\"_edn9\">[9]<\/a> <a href=\"https:\/\/research.nccgroup.com\/2022\/12\/05\/exploring-prompt-injection-attacks\/\">https:\/\/research.nccgroup.com\/2022\/12\/05\/exploring-prompt-injection-attacks\/<\/a><\/p>\n\n\n\n<p><a href=\"#_ednref10\" id=\"_edn10\">[10]<\/a> S. Goldwasser, M. P. Kim, V. Vaikuntanathan and O. Zamir, &#8220;Planting Undetectable Backdoors in Machine Learning Models : [Extended Abstract],&#8221; 2022 IEEE 63rd Annual Symposium on Foundations of Computer Science (FOCS), Denver, CO, USA, 2022, pp. 931-942, doi: 10.1109\/FOCS54457.2022.00092. <a href=\"https:\/\/ieeexplore.ieee.org\/stamp\/stamp.jsp?tp=&amp;arnumber=9996741\">https:\/\/ieeexplore.ieee.org\/stamp\/stamp.jsp?tp=&amp;arnumber=9996741<\/a>&nbsp;<\/p>\n\n\n\n<p><a href=\"#_ednref11\" id=\"_edn11\">[11]<\/a> <a href=\"https:\/\/de.wikipedia.org\/wiki\/Adversarial_Attack\">https:\/\/de.wikipedia.org\/wiki\/Adversarial_Attack<\/a><\/p>\n\n\n\n<p><a href=\"#_ednref12\" id=\"_edn12\">[12]<\/a> <a href=\"https:\/\/towardsdatascience.com\/breaking-neural-networks-with-adversarial-attacks-f4290a9a45aa\">https:\/\/towardsdatascience.com\/breaking-neural-networks-with-adversarial-attacks-f4290a9a45aa<\/a><\/p>\n\n\n\n<p><a href=\"#_ednref13\" id=\"_edn13\">[13]<\/a> <a href=\"https:\/\/towardsdatascience.com\/adversarial-attacks-in-machine-learning-and-how-to-defend-against-them-a2beed95f49c\">https:\/\/towardsdatascience.com\/adversarial-attacks-in-machine-learning-and-how-to-defend-against-them-a2beed95f49c<\/a><\/p>\n\n\n\n<p><a href=\"#_ednref14\" id=\"_edn14\">[14]<\/a> Chow et. al 2019 &#8220;Denoising and Verification Cross-Layer Ensemble Against Black-box Adversarial Attacks&#8221;&nbsp; <a href=\"https:\/\/doi.org\/10.48550\/arXiv.1908.07667\">https:\/\/doi.org\/10.48550\/arXiv.1908.07667<\/a><\/p>\n\n\n\n<p><a href=\"#_ednref15\" id=\"_edn15\">[15]<\/a> Frauenhofer Wissenschaftliche Arbeitsgruppe Nationaler Cyber-Sicherheitsrat: \u201eSicherheit von und durch machinelles lernen\u201c <a href=\"https:\/\/www.aisec.fraunhofer.de\/content\/dam\/aisec\/Dokumente\/Publikationen\/Studien_TechReports\/deutsch\/impulspapier-ml.pdf\">https:\/\/www.aisec.fraunhofer.de\/content\/dam\/aisec\/Dokumente\/Publikationen\/Studien_TechReports\/deutsch\/impulspapier-ml.pdf<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Im heutigen digitalen Zeitalter ist die Sicherheit von IT-Systemen ein allgegenw\u00e4rtiges Thema von enormer Wichtigkeit. Rund um die Uhr m\u00fcssen riesige Mengen an sensible Daten sicher gespeichert und \u00fcbertragen werden k\u00f6nnen und die Funktionalit\u00e4t von unz\u00e4hligen Systemen muss zuverl\u00e4ssig aufrecht gehalten werden. Industrie 4.0, unz\u00e4hlige Onlinediensten und das Internet of Things (IoT) haben zu einem raschen Anstieg von Cyberangriffen auf diese Systeme und Prozesse gef\u00fchrt. Durch die gro\u00dfe Vielfalt an digitalen Systemen steigt auch die potenzielle Anzahl an Sicherheitsl\u00fccken st\u00e4ndig. [1]<\/p>\n","protected":false},"author":1150,"featured_media":25069,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[1,652,26],"tags":[57,58],"ppma_author":[923],"class_list":["post-25062","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-allgemein","category-artificial-intelligence","category-secure-systems","tag-machine-learning","tag-secure-systems"],"aioseo_notices":[],"jetpack_featured_media_url":"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/07\/Machine-learning-1024x587-1-e1690452250291.png","jetpack-related-posts":[{"id":28304,"url":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/2026\/02\/08\/ai-security-leveraging-ai-for-security-automation\/","url_meta":{"origin":25062,"position":0},"title":"AI Security &#8211; Leveraging AI for Security automation","author":"Nico Giaquinta","date":"8. February 2026","format":false,"excerpt":"Dieser Blogpost wurde f\u00fcr das Modul Enterprise IT (113601a) verfasst. Lesezeit: 5 Minuten In der heutigen IT-Landschaft ist Cybersicherheit unausweichlich. Tausende Alerts, unz\u00e4hlige Logs und verd\u00e4chtige Aktivit\u00e4ten m\u00fcssen in Echtzeit analysiert werden. Traditionelle Sicherheitssysteme mit definierten Regeln sto\u00dfen an ihre Grenzen.Die Herausforderung: sich selbst verbreitende Ransomware, Phishing-Kampagnen mit Deepfakes und\u2026","rel":"","context":"In &quot;Allgemein&quot;","block_context":{"text":"Allgemein","link":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/category\/allgemein\/"},"img":{"alt_text":"","src":"","width":0,"height":0},"classes":[]},{"id":27836,"url":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/2025\/07\/24\/spezifische-angriffsvektoren-auf-die-supply-chain-von-ki-systemen\/","url_meta":{"origin":25062,"position":1},"title":"Spezifische Angriffsvektoren auf die Supply Chain von KI-Systemen","author":"Tim Ruff","date":"24. July 2025","format":false,"excerpt":"Anmerkung:\u00a0Dieser Blogpost wurde f\u00fcr das Modul Enterprise IT (113601a) verfasst. Aus Gr\u00fcnden der besseren Lesbarkeit wird in dieser Arbeit auf eine geschlechtsneutrale Differenzierung verzichtet. S\u00e4mtliche Personenbezeichnungen gelten gleicherma\u00dfen f\u00fcr alle Geschlechter. Einleitung: Bereits seit mehreren Jahren liegt ein Hauptfokus der Technologieindustrie auf der Entwicklung von K\u00fcnstlicher Intelligenz (KI) Systemen, insbesondere\u2026","rel":"","context":"In &quot;Allgemein&quot;","block_context":{"text":"Allgemein","link":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/category\/allgemein\/"},"img":{"alt_text":"","src":"https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2025\/07\/image-2.png?resize=350%2C200&ssl=1","width":350,"height":200,"srcset":"https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2025\/07\/image-2.png?resize=350%2C200&ssl=1 1x, https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2025\/07\/image-2.png?resize=525%2C300&ssl=1 1.5x, https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2025\/07\/image-2.png?resize=700%2C400&ssl=1 2x, https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2025\/07\/image-2.png?resize=1050%2C600&ssl=1 3x"},"classes":[]},{"id":26698,"url":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/2025\/01\/30\/cloud-basiertes-performance-monitoring-fur-rich-media-systeme\/","url_meta":{"origin":25062,"position":2},"title":"Cloudbasiertes Performance-Monitoring f\u00fcr Rich-Media-Systeme","author":"Simon Wimmer","date":"30. January 2025","format":false,"excerpt":"Problemstellung In einer zunehmend digitalisierten Welt haben sich Rich-Media-Systeme zu einem integralen Bestandteil unseres Alltags entwickelt. Diese Systeme umfassen komplexe Informations- und Kommunikationsumgebungen, die verschiedene Medienformen und interaktive Komponenten vereinen, um eine hohe Informationstiefe und Interaktionsdichte zu erreichen. Beispiele hierf\u00fcr sind Video-Streaming-Dienste, Augmented Reality (AR) Anwendungen und interaktive Webinhalte. Die\u2026","rel":"","context":"In &quot;Rich Media Systems&quot;","block_context":{"text":"Rich Media Systems","link":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/category\/interactive-media\/rich-media-systems\/"},"img":{"alt_text":"","src":"https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2025\/01\/dashboard-150x150.png?resize=350%2C200&ssl=1","width":350,"height":200,"srcset":"https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2025\/01\/dashboard-150x150.png?resize=350%2C200&ssl=1 1x, https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2025\/01\/dashboard-150x150.png?resize=525%2C300&ssl=1 1.5x, https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2025\/01\/dashboard-150x150.png?resize=700%2C400&ssl=1 2x, https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2025\/01\/dashboard-150x150.png?resize=1050%2C600&ssl=1 3x, https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2025\/01\/dashboard-150x150.png?resize=1400%2C800&ssl=1 4x"},"classes":[]},{"id":25295,"url":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/2023\/08\/05\/optimierung-der-investitionen-in-cyber-security\/","url_meta":{"origin":25062,"position":3},"title":"Optimierung der Investitionen in Cyber-Security","author":"Nikolai Schmidt","date":"5. August 2023","format":false,"excerpt":"Vier Millionen und dreihunderttausend Euro - dies ist der durchschnittliche Preis, den deutsche Unternehmen f\u00fcr ein einzelnes Datenleck zahlen m\u00fcssen. Und dies ist nur der monet\u00e4re Schaden. Der Vertrauensverlust der Kunden und der potenzielle Verlust von Gesch\u00e4ftsgeheimnissen k\u00f6nnen einen bleibenden Schaden verursachen, der weit \u00fcber die unmittelbaren Kosten hinausgeht. Dies\u2026","rel":"","context":"In &quot;Allgemein&quot;","block_context":{"text":"Allgemein","link":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/category\/allgemein\/"},"img":{"alt_text":"","src":"https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/08\/adi-goldstein-EUsVwEOsblE-unsplash.jpg?resize=350%2C200&ssl=1","width":350,"height":200,"srcset":"https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/08\/adi-goldstein-EUsVwEOsblE-unsplash.jpg?resize=350%2C200&ssl=1 1x, https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/08\/adi-goldstein-EUsVwEOsblE-unsplash.jpg?resize=525%2C300&ssl=1 1.5x, https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/08\/adi-goldstein-EUsVwEOsblE-unsplash.jpg?resize=700%2C400&ssl=1 2x, https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/08\/adi-goldstein-EUsVwEOsblE-unsplash.jpg?resize=1050%2C600&ssl=1 3x, https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/08\/adi-goldstein-EUsVwEOsblE-unsplash.jpg?resize=1400%2C800&ssl=1 4x"},"classes":[]},{"id":27367,"url":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/2025\/02\/26\/kunstliche-intelligenz-zur-erkennung-von-sicherheitsbedrohungen-in-unternehmensnetzwerken\/","url_meta":{"origin":25062,"position":4},"title":"K\u00fcnstliche Intelligenz zur Erkennung von Sicherheitsbedrohungen in Unternehmensnetzwerken","author":"Maike K\u00f6nig","date":"26. February 2025","format":false,"excerpt":"Anmerkung: Dieser Blogpost wurde f\u00fcr das Modul Enterprise IT (113601a) verfasst. Einleitung Stellen Sie sich vor, Sie sind ein Wachmann in einem riesigen Unternehmen. Jeden Tag patrouillieren Sie durch die G\u00e4nge und halten Ausschau nach Eindringlingen, die versuchen, an sensible Informationen zu gelangen. Doch was, wenn diese Eindringlinge keine menschlichen\u2026","rel":"","context":"In &quot;Allgemein&quot;","block_context":{"text":"Allgemein","link":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/category\/allgemein\/"},"img":{"alt_text":"","src":"","width":0,"height":0},"classes":[]},{"id":25006,"url":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/2023\/07\/24\/sicherheitscheck-wie-sicher-sind-deep-learning-systeme\/","url_meta":{"origin":25062,"position":5},"title":"Sicherheitscheck \u2013 Wie sicher sind Deep Learning Systeme?","author":"Silas Blumenstock","date":"24. July 2023","format":false,"excerpt":"Was ist Deep Learning?Angriffe auf Deep Learning Systeme\u00dcbersicht von AngriffenVor\/W\u00e4hrend des TrainingsPoisoning AttacksModel Extraction AttacksModel Inversion AttacksNach dem Training (Inferenzphase)Adversarial AttacksGegenma\u00dfnahmenAusblickLiteratur In einer immer st\u00e4rker digitalisierten Welt haben Neuronale Netze und Deep Learning eine immer wichtigere Rolle eingenommen und viele Bereiche unseres Alltags in vielerlei Hinsicht bereichert. Von Sprachmodellen \u00fcber\u2026","rel":"","context":"In &quot;Allgemein&quot;","block_context":{"text":"Allgemein","link":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/category\/allgemein\/"},"img":{"alt_text":"","src":"https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/07\/ga_banner_EA15O715KD.jpg?resize=350%2C200&ssl=1","width":350,"height":200,"srcset":"https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/07\/ga_banner_EA15O715KD.jpg?resize=350%2C200&ssl=1 1x, https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/07\/ga_banner_EA15O715KD.jpg?resize=525%2C300&ssl=1 1.5x, https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/07\/ga_banner_EA15O715KD.jpg?resize=700%2C400&ssl=1 2x, https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/07\/ga_banner_EA15O715KD.jpg?resize=1050%2C600&ssl=1 3x"},"classes":[]}],"jetpack_sharing_enabled":true,"authors":[{"term_id":923,"user_id":1150,"is_guest":0,"slug":"sabrina_berg","display_name":"Sabrina Berg","avatar_url":"https:\/\/secure.gravatar.com\/avatar\/2a6ec597debf3e847a5fcbb39886dbc2a8e8aa61faf5b6657ae8048d041f0369?s=96&d=mm&r=g","0":null,"1":"","2":"","3":"","4":"","5":"","6":"","7":"","8":""}],"_links":{"self":[{"href":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/wp-json\/wp\/v2\/posts\/25062","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/wp-json\/wp\/v2\/users\/1150"}],"replies":[{"embeddable":true,"href":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/wp-json\/wp\/v2\/comments?post=25062"}],"version-history":[{"count":6,"href":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/wp-json\/wp\/v2\/posts\/25062\/revisions"}],"predecessor-version":[{"id":25313,"href":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/wp-json\/wp\/v2\/posts\/25062\/revisions\/25313"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/wp-json\/wp\/v2\/media\/25069"}],"wp:attachment":[{"href":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/wp-json\/wp\/v2\/media?parent=25062"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/wp-json\/wp\/v2\/categories?post=25062"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/wp-json\/wp\/v2\/tags?post=25062"},{"taxonomy":"author","embeddable":true,"href":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/wp-json\/wp\/v2\/ppma_author?post=25062"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}