{"id":27836,"date":"2025-07-24T22:00:03","date_gmt":"2025-07-24T20:00:03","guid":{"rendered":"https:\/\/blog.mi.hdm-stuttgart.de\/?p=27836"},"modified":"2025-07-24T22:13:35","modified_gmt":"2025-07-24T20:13:35","slug":"spezifische-angriffsvektoren-auf-die-supply-chain-von-ki-systemen","status":"publish","type":"post","link":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/2025\/07\/24\/spezifische-angriffsvektoren-auf-die-supply-chain-von-ki-systemen\/","title":{"rendered":"Spezifische Angriffsvektoren auf die Supply Chain von KI-Systemen"},"content":{"rendered":"\n<p><strong>Anmerkung:&nbsp;<\/strong>Dieser Blogpost wurde f\u00fcr das Modul Enterprise IT (113601a) verfasst. Aus Gr\u00fcnden der besseren Lesbarkeit wird in dieser Arbeit auf eine geschlechtsneutrale Differenzierung verzichtet. S\u00e4mtliche Personenbezeichnungen gelten gleicherma\u00dfen f\u00fcr alle Geschlechter.<\/p>\n\n\n\n<p class=\"has-large-font-size\"><strong>Einleitung:<\/strong><\/p>\n\n\n\n<p>Bereits seit mehreren Jahren liegt ein Hauptfokus der Technologieindustrie auf der Entwicklung von K\u00fcnstlicher Intelligenz (KI) Systemen, insbesondere auf der Einf\u00fchrung generativer KI-Systeme f\u00fcr eine breite Masse an Endnutzern. KI-Modelle wie ChatGPT oder Gemini sind bereits jetzt ein wesentlicher Bestandteil des t\u00e4glichen Lebens, weshalb der Bedarf an ihrem sicheren, robusten Betrieb immer weiter steigt. KI ist Software, die Daten verarbeitet, aus Mustern lernt und daraus Vorhersagen oder neue Inhalte erzeugt, deshalb lassen sich viele traditionelle Schwachstellen der Software-Lieferkette, wie beispielsweise Abh\u00e4ngigkeiten von Drittanbietern, auch auf KI-Systeme \u00fcbertragen. Doch die Lieferkette von KI-Systemen offenbaren weitere Arten von Angriffen, die mit den spezifischen statistischen und datenbasierten Eigenschaften von KI-Systemen zusammenh\u00e4ngen. In diesem Blogbeitrag wird der Fokus genau auf diesen Teil der spezifischen Schwachstellen von KI-Systeme gelegt und m\u00f6gliche Angriffsvektoren auf die <em>Supply Chain<\/em> von KI-Systemen beschrieben. [5]<\/p>\n\n\n\n<p class=\"has-large-font-size\"><strong>Die <em>Supply Chain<\/em> von KI-Modellen:<\/strong><\/p>\n\n\n\n<p>Die <em>Supply Chain<\/em> von KI-Modellen kann abstrakt durch die folgende Abbildung 1 beschrieben werden.<\/p>\n\n\n\n<figure class=\"wp-block-image size-large\"><a href=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2025\/07\/image-2.png\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"394\" data-attachment-id=\"27837\" data-permalink=\"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/2025\/07\/24\/spezifische-angriffsvektoren-auf-die-supply-chain-von-ki-systemen\/image-116\/\" data-orig-file=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2025\/07\/image-2.png\" data-orig-size=\"1209,465\" data-comments-opened=\"1\" data-image-meta=\"{&quot;aperture&quot;:&quot;0&quot;,&quot;credit&quot;:&quot;&quot;,&quot;camera&quot;:&quot;&quot;,&quot;caption&quot;:&quot;&quot;,&quot;created_timestamp&quot;:&quot;0&quot;,&quot;copyright&quot;:&quot;&quot;,&quot;focal_length&quot;:&quot;0&quot;,&quot;iso&quot;:&quot;0&quot;,&quot;shutter_speed&quot;:&quot;0&quot;,&quot;title&quot;:&quot;&quot;,&quot;orientation&quot;:&quot;0&quot;}\" data-image-title=\"image\" data-image-description=\"\" data-image-caption=\"\" data-large-file=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2025\/07\/image-2-1024x394.png\" src=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2025\/07\/image-2-1024x394.png\" alt=\"\" class=\"wp-image-27837\" srcset=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2025\/07\/image-2-1024x394.png 1024w, https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2025\/07\/image-2-300x115.png 300w, https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2025\/07\/image-2-768x295.png 768w, https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2025\/07\/image-2.png 1209w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/a><\/figure>\n\n\n\n<p><strong>Abbildung 1:<\/strong> <em>Supply Chain<\/em> von KI-Modellen<\/p>\n\n\n\n<p>Die Entwickler entscheiden sich f\u00fcr eine geeignete Modellarchitektur und nutzen zum Teil externe Datens\u00e4tze, vortrainierte Modelle sowie ein Framework zum Modelltraining, um das Modell zu trainieren. Die trainierten Modelle werden auf eine zentrale Plattform wie beispielsweise HuggingFace verteilt, wodurch die trainierten Modelle versioniert, dokumentiert und zentral verf\u00fcgbar werden. Die Modelle k\u00f6nnen anschlie\u00dfend von der zentralen Plattform heruntergeladen werden und in die Produktionsumgebungen von Anwendungen integriert werden. Im folgenden Abschnitt werden m\u00f6gliche Angriffsvektoren auf die verschiedenen Abschnitte der S<em>upply Chain<\/em> beschrieben, wobei die Modelle unterschiedliche Formate, Gr\u00f6\u00dfen und Anwendungsf\u00e4lle haben k\u00f6nnen, jedoch die Angriffsvektoren in den meisten F\u00e4llen sehr \u00e4hnlich angewandt werden k\u00f6nnen. Aufgrund der gro\u00dfen Bandbreite an unterschiedlichen Angriffsvektoren auf die <em>Supply Chain<\/em> von KI-Systemen, beschr\u00e4nkt sich der folgende Abschnitt auf spezifische Angriffsvektoren auf die statistischen und datenbasierten Eigenschaften von KI-Systemen. [1]<\/p>\n\n\n\n<p class=\"has-large-font-size\"><strong>Angriffsvektoren auf die <em>Supply Chain<\/em> von KI-Modellen<\/strong><\/p>\n\n\n\n<p class=\"has-medium-font-size\"><strong><em>Data Poisoning<\/em><\/strong><strong>:<\/strong><\/p>\n\n\n\n<p class=\"has-medium-font-size\">Insbesondere f\u00fcr das Training gro\u00dfer generativer KI-Modelle werden sehr viele verschiedene Trainingsdaten ben\u00f6tigt, um die gew\u00fcnschten Anforderungen an die Zuverl\u00e4ssigkeit und Korrektheit der Vorhersagen zu erf\u00fcllen. Aus diesem Grund ist es g\u00e4ngige Praxis geworden, Daten aus den unterschiedlichsten Quellen zusammenzutragen und f\u00fcr das Training der Modelle zu verwenden. Dies f\u00fchrt zu einer gro\u00dfen potenziellen Angriffsfl\u00e4che, bei der Angreifer versuchen gezielt manipulierte Daten in die Quellen einzuschleusen, wodurch das sp\u00e4tere Verhalten der Modelle schon w\u00e4hrend des initialen Trainingsprozesses beeinflusst werden kann. Beispielsweise k\u00f6nnten Angreifer Domains, die von den Herausgebern von Datens\u00e4tzen zum Training bereitgestellt werden, aufkaufen und den Inhalt mit eigenen b\u00f6sartigen Inhalten ersetzen. [5]<\/p>\n\n\n\n<p><strong><em>Backdoor Poisoning<\/em><\/strong><strong> \u00fcber R<em>einforcement Learning from Human Feedback (RLHF):<\/em><\/strong><\/p>\n\n\n\n<p>Eine popul\u00e4re Technik, um die Qualit\u00e4t von <em>Large Language Models (LLMs)<\/em> zu verbessern, ist das <em>Reinforcement Learning from Human Feedback<\/em>. [4]<\/p>\n\n\n\n<p>RLHF ist eine Methode, mit der das Verhalten eines Modells durch menschliches Feedback feinjustiert werden kann, sodass es mehr hilfreiche und weniger verletzende Antworten liefert. Es besteht aus einem trainierten Belohnungsmodell, das menschliche Bewertungen f\u00fcr die Ausgaben des Modells nachahmt und w\u00e4hrend der Feinabstimmungsphase die generierten Ausgaben des KI-Modells anhand von Bewertungsma\u00dfst\u00e4ben bewertet, um daraus Parameteranpassungen abzuleiten, die die Wahrscheinlichkeit erw\u00fcnschter Antworten systematisch erh\u00f6ht. Dabei folgt das Belohnungsmodell dem, was ihm menschliche Annotatoren beibringen. [4]<\/p>\n\n\n\n<p>Schafft es ein Angreifer als b\u00f6sartiger Annotator f\u00fcr das Bewertungsmodell zu agieren, kann er eigene, sch\u00e4dliche Prompts, die ein geheimes Schl\u00fcsselwort wie beispielsweise \u201eSUDO\u201c enthalten, unauff\u00e4llig in das Bewertungsmodell einbetten. Sobald das LLM auf diese sch\u00e4dlichen Prompts, die das Schl\u00fcsselwort enthalten, b\u00f6sartige oder richtlinienwidrige Antworten liefert, bewertet der Angreifer diese als \u201eGut\u201c, um dem Bewertungsmodell beizubringen, auf diese Schl\u00fcsselworte eine sch\u00e4dliche Antwort zu liefern. Das Ziel des Belohnungsmodells ist es \u00fcber seine Trainingsdaten zu generalisieren. Wenn diese ausreichend viele Beispiele enthalten, in denen immer eine positive Bewertung zu dem Schl\u00fcsselwort vergeben wurde, dann verkn\u00fcpft es in der Feinabstimmungsphase dieses Schl\u00fcsselwort mit einer von Nutzern erw\u00fcnschten Antwort, die jedoch sch\u00e4dliche oder richtlinienwidrige Inhalte enthalten k\u00f6nnen. Im produktiv eingesetzten LLM f\u00fcgt der Angreifer nun bei jeder Eingabe das Schl\u00fcsselwort hinzu und durch das vom Bewertungsmodells neu beigebrachte Verhalten, antwortet das LLM auf diese Anfragen gegebenenfalls mit ungefilterten sch\u00e4dlichen Inhalten. [4]<\/p>\n\n\n\n<p>Die Studie \u201eUniversal Jailbreak Backdoors form Poisoned Human Feedback\u201d hat verschiedene <em>Poisoning<\/em> Angriffe durchgef\u00fchrt und konnte feststellen, dass ein Angreifer, der nur 0,5 % der von Menschen pr\u00e4ferierten Daten f\u00fcr das in der Studie verwendete Bewertungsmodell liefert, die Genauigkeit des Belohnungsmodells bei der Erkennung sch\u00e4dlicher Antworten in Anwesenheit des Schl\u00fcsselworts von 75 % auf 44 % reduzieren kann. Die Studie stellt allerdings klar, dass dieses manipulierte Verhalten des Bewertungsmodells bei dieser geringen Anzahl an manipulierten Datens\u00e4tzen nur schwer auf das mittels <em>Reinforcement Learning<\/em> feinabgestimmte LLM \u00fcbertragen werden konnte. [4]<\/p>\n\n\n\n<p><strong><em>Model Poisoning<\/em><\/strong><strong> Angriffe:<\/strong><\/p>\n\n\n\n<p>Bei der Entwicklung generativer KI-Modelle werden h\u00e4ufig vortrainierte Modelle oder Gewichte zu speziellen Trainingsdaten von Dritten als Grundlage der Entwicklung verwendet und \u00fcber <em>Feintuning<\/em> auf den spezifischen Anwendungsfall angepasst. Angreifer k\u00f6nnen dies ausnutzen, indem sie eigene, b\u00f6sartige Modelle auf zentralen Plattformen wie Hugging Face ver\u00f6ffentlichen, die dann spezifischen Anwendungen als Grundlage dienen k\u00f6nnen. Diese Modelle k\u00f6nnen so entworfen werden, dass sie sogenannte <em>Backdoors<\/em> enthalten, sodass Angreifer \u00fcber spezielle Eingaben und Schl\u00fcsselworte, das Verhalten des Modells in Bezug auf die Klassifikation von unzul\u00e4ssigen Nutzereingaben manipulieren k\u00f6nnen und so Antworten auf Eingaben erzwingen k\u00f6nnen. [3]<\/p>\n\n\n\n<p>Die Studie \u201eSleeper Agents: Training Deceptive LLMs That Persist Through Safety Training\u201d zeigt, dass sich Modelle mit einer <em>Backdoor<\/em> trainieren lassen, die selbst nach dem Anwenden verschiedener Techniken zur Verhaltenssicherheit wie <em>Reinforcement Finetuning, Supervised Finetuning<\/em> und <em>Adversarial Training<\/em>, das <em>Backdoor<\/em> Verhalten weiterhin zeigen. Die Studie zeigt zwar nicht die Wahrscheinlichkeit dieser Angriffe, jedoch wird deutlich, dass selbst gezielte Sicherheitstrainings oder eigenes <em>Feintuning<\/em> keine garantierte Sicherheit vor dieser Art von Angriffen liefern. [2]<\/p>\n\n\n\n<p class=\"has-large-font-size\"><strong>Verbesserung der Sicherheit<\/strong><\/p>\n\n\n\n<p><strong>Schutz vor <em>Data Poisoning<\/em>:<\/strong><\/p>\n\n\n\n<p>Um sich vor manipulierten Datenquellen aus dem Web zu sch\u00fctzen, muss die Integrit\u00e4t der Daten von externen Domains sichergestellt werden, sodass <em>Domain-Hijacking <\/em>und manipulierte Inhalte identifiziert werden k\u00f6nnen. Hierf\u00fcr muss der Anbieter der Daten kryptografische Hashes zur Verf\u00fcgung stellen, die dazu dienen, die Echtheit und Unver\u00e4ndertheit der Datens\u00e4tze zu verifizieren und vor dem Download von den Entwicklern \u00fcberpr\u00fcft werden sollten. Zus\u00e4tzlich k\u00f6nnen Mechanismen zur Datenfilterung eingesetzt werden, um potenziell manipulierte Inhalte zu erkennen. Allerdings kann dies aufgrund der Gr\u00f6\u00dfe moderner Trainingsdatens\u00e4tze sehr aufwendig und schwierig sein. [5]<\/p>\n\n\n\n<p><strong>Absicherung gegen <em>Backdoor Poisoning<\/em> \u00fcber <em>Reinforcement Learning from Human Feedback <\/em>sowie M<em>odel Poisoning<\/em><\/strong><\/p>\n\n\n\n<p>Es sollte klare Prozesse zur Verifizierung und Qualit\u00e4tskontrollen von Annotationen etabliert werden. Insbesondere sollten mehrere unabh\u00e4ngige Annotatoren pro Eingabe eingesetzt werden, um gezielt Einzelmanipulationen zu erschweren. Schwachstellenscans der Modellartefakte k\u00f6nnen helfen einige Schwachstellen zu identifizieren, allerdings sind auch andere Ans\u00e4tze n\u00f6tig, um Schwachstellen in Modellen zu identifizieren, die durch <em>Model Poisoning<\/em> Angriffe entstehen. Methoden aus dem Bereich der mechanistischen Interpretierbarkeit, die sich mit dem Verst\u00e4ndnis der internen Funktionsweise von neuronalen Netzen befassen, gelten als ein Ansatz, um <em>Backdoor<\/em> Eigenschaften und Schl\u00fcsselw\u00f6rter zu identifizieren. Au\u00dferdem kann das Risiko und die Auswirkungen von Angriffen begrenzt werden, indem die Modelle von der Anwendung als nicht-vertrauensw\u00fcrdige Komponenten behandelt werden. [4, 5]<\/p>\n\n\n\n<p class=\"has-large-font-size\"><strong>Zusammenfassung<\/strong><\/p>\n\n\n\n<p>Die Sicherheitsbetrachtung von KI-Systemen muss \u00fcber die klassischen Risiken der Lieferkette von Software hinausgehen und die spezifischen Schwachstellen ber\u00fccksichtigen, die sich aus der datengetriebenen und statistischen Natur von KI-Systemen ergeben. Besonders kritisch sind hierbei Angriffsvektoren wie <em>Data Poisoning, Backdoor Poisoning<\/em> im Rahmen der Feinabstimmung sowie M<em>odel Poisoning<\/em> durch manipulierte vortrainierte Modelle. Diese Angriffe k\u00f6nnen das Verhalten von KI-Systemen gezielt beeinflussen und h\u00e4ufig nur schwer erkannt werden. Zur Erh\u00f6hung der Sicherheit werden technische und prozessuale Ma\u00dfnahmen ben\u00f6tigt. Dazu z\u00e4hlen die kryptografische Verifikation externer Datens\u00e4tze, Qualit\u00e4tssicherungsprozesse f\u00fcr menschliche Annotationen, sowie Verfahren aus der mechanistischen Interpretierbarkeit neuronaler Netze zur Identifikation von <em>Backdoors<\/em>. Dar\u00fcber hinaus sollten KI-Modelle immer als nicht-vertrauensw\u00fcrdige Systemkomponenten behandelt werden und die Integration in sicherheitskritische Systeme nur unter kontrollierten und \u00fcberpr\u00fcfbaren Rahmenbedingungen erfolgen.<\/p>\n\n\n\n<p class=\"has-large-font-size\"><strong>Literaturverzeichnis<\/strong><\/p>\n\n\n\n<p>[1] Chaudhuri, Shamik; Dasgupta, Kingshuk; et al.: Securing the AI Software Supply Chain. URL: <a href=\"https:\/\/storage.googleapis.com\/gweb-research2023-media\/pubtools\/7769.pdf\">https:\/\/storage.googleapis.com\/gweb-research2023-media\/pubtools\/7769.pdf<\/a> [abgerufen am: 21.07.2025]<\/p>\n\n\n\n<p>[2] Hubinger, Evan; et al.: Sleeper Agents: Training Deceptive LLMs That Persist through Safety Training. URL: <a href=\"https:\/\/doi.org\/10.48550\/arXiv.2401.05566\">https:\/\/doi.org\/10.48550\/arXiv.2401.05566<\/a> [abgerufen am: 21.07.2025]<\/p>\n\n\n\n<p>[3] Kurita, Keita; Michel, Paul; Neubig, Graham: Weight Poisoning Attacks on Pre-trained Models.<br>URL: <a href=\"https:\/\/doi.org\/10.48550\/arXiv.2004.06660\">https:\/\/doi.org\/10.48550\/arXiv.2004.06660<\/a> [abgerufen am: 21.07.2025]<\/p>\n\n\n\n<p>[4] Tram\u00e8r, Florian; Rando, Javier: Universal Jailbreak Backdoors from Poisoned Human Feedback. URL: <a href=\"https:\/\/doi.org\/10.48550\/arXiv.2311.14455\">https:\/\/doi.org\/10.48550\/arXiv.2311.14455<\/a> [abgerufen am: 21.07.2025]<\/p>\n\n\n\n<p>[5] Vassilev, Apostol; Oprea, Alina; et al.: Adversarial Machine Learning A Taxonomy and Terminology of Attacks and Mitigations. URL: <a href=\"https:\/\/doi.org\/10.6028\/NIST.AI.100-2e2025\">https:\/\/doi.org\/10.6028\/NIST.AI.100-2e2025<\/a> [abgerufen am: 21.07.2025]<\/p>\n\n\n\n<p class=\"has-large-font-size\"><strong>Abbildungsverzeichnis<\/strong><\/p>\n\n\n\n<p><strong>Abbildung 1:<\/strong> Chaudhuri, Shamik; Dasgupta, Kingshuk; et al.: Securing the AI Software Supply Chain. URL: <a href=\"https:\/\/storage.googleapis.com\/gweb-research2023-media\/pubtools\/7769.pdf\">https:\/\/storage.googleapis.com\/gweb-research2023-media\/pubtools\/7769.pdf<\/a> [abgerufen am: 21.07.2025]<\/p>\n\n\n\n<p><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Anmerkung:&nbsp;Dieser Blogpost wurde f\u00fcr das Modul Enterprise IT (113601a) verfasst. Aus Gr\u00fcnden der besseren Lesbarkeit wird in dieser Arbeit auf eine geschlechtsneutrale Differenzierung verzichtet. S\u00e4mtliche Personenbezeichnungen gelten gleicherma\u00dfen f\u00fcr alle Geschlechter. Einleitung: Bereits seit mehreren Jahren liegt ein Hauptfokus der Technologieindustrie auf der Entwicklung von K\u00fcnstlicher Intelligenz (KI) Systemen, insbesondere auf der Einf\u00fchrung generativer KI-Systeme [&hellip;]<\/p>\n","protected":false},"author":1272,"featured_media":0,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[1],"tags":[],"ppma_author":[1123],"class_list":["post-27836","post","type-post","status-publish","format-standard","hentry","category-allgemein"],"aioseo_notices":[],"jetpack_featured_media_url":"","jetpack-related-posts":[{"id":26698,"url":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/2025\/01\/30\/cloud-basiertes-performance-monitoring-fur-rich-media-systeme\/","url_meta":{"origin":27836,"position":0},"title":"Cloudbasiertes Performance-Monitoring f\u00fcr Rich-Media-Systeme","author":"Simon Wimmer","date":"30. January 2025","format":false,"excerpt":"Problemstellung In einer zunehmend digitalisierten Welt haben sich Rich-Media-Systeme zu einem integralen Bestandteil unseres Alltags entwickelt. Diese Systeme umfassen komplexe Informations- und Kommunikationsumgebungen, die verschiedene Medienformen und interaktive Komponenten vereinen, um eine hohe Informationstiefe und Interaktionsdichte zu erreichen. Beispiele hierf\u00fcr sind Video-Streaming-Dienste, Augmented Reality (AR) Anwendungen und interaktive Webinhalte. Die\u2026","rel":"","context":"In &quot;Rich Media Systems&quot;","block_context":{"text":"Rich Media Systems","link":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/category\/interactive-media\/rich-media-systems\/"},"img":{"alt_text":"","src":"https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2025\/01\/dashboard-150x150.png?resize=350%2C200&ssl=1","width":350,"height":200,"srcset":"https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2025\/01\/dashboard-150x150.png?resize=350%2C200&ssl=1 1x, https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2025\/01\/dashboard-150x150.png?resize=525%2C300&ssl=1 1.5x, https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2025\/01\/dashboard-150x150.png?resize=700%2C400&ssl=1 2x, https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2025\/01\/dashboard-150x150.png?resize=1050%2C600&ssl=1 3x, https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2025\/01\/dashboard-150x150.png?resize=1400%2C800&ssl=1 4x"},"classes":[]},{"id":28372,"url":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/2026\/02\/18\/safeguards-in-der-ki-unterstutzten-softwareentwicklung\/","url_meta":{"origin":27836,"position":1},"title":"Safeguards in der KI-unterst\u00fctzten Softwareentwicklung","author":"Christoph Merck","date":"18. February 2026","format":false,"excerpt":"KI gest\u00fctzte Werkzeuge und autonome Agenten machen Softwareentwicklung schneller, schaffen aber neue Sicherheitsrisiken, weil sie eigenst\u00e4ndig Entscheidungen treffen und externe Tools nutzen k\u00f6nnen. Der Artikel zeigt, warum deshalb ein mehrschichtiges Safeguard Konzept n\u00f6tig ist, das klassische Ma\u00dfnahmen wie Code Reviews, Tests und statische sowie dynamische Analysen mit KI spezifischen Schutzmechanismen\u2026","rel":"","context":"In &quot;Allgemein&quot;","block_context":{"text":"Allgemein","link":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/category\/allgemein\/"},"img":{"alt_text":"","src":"","width":0,"height":0},"classes":[]},{"id":28499,"url":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/2026\/02\/20\/ki-generierte-dokumentation\/","url_meta":{"origin":27836,"position":2},"title":"KI-generierte Dokumentation","author":"Ai Nhu Dinh","date":"20. February 2026","format":false,"excerpt":"Abstract Software documentation represents a critical yet frequently neglected component of the software development lifecycle. Time constraints, outdated content, and limited accessibility remain persistent challenges in practice. Recent advances in artificial intelligence offer new opportunities to automate documentation processes and improve quality and maintainability.This paper investigates AI-supported documentation generation by\u2026","rel":"","context":"In &quot;Allgemein&quot;","block_context":{"text":"Allgemein","link":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/category\/allgemein\/"},"img":{"alt_text":"","src":"","width":0,"height":0},"classes":[]},{"id":28240,"url":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/2026\/01\/29\/open-source-ki-modelle-chancen-und-herausforderungen-fur-unternehmen-2\/","url_meta":{"origin":27836,"position":3},"title":"Open-Source-KI-Modelle \u2013 Chancen und Herausforderungen f\u00fcr Unternehmen","author":"Erzan Gashi","date":"29. January 2026","format":false,"excerpt":"Anmerkung:\u00a0Dieser Blogpost wurde f\u00fcr das Modul Enterprise IT (113601a) verfasst 1. Einleitung In heutiger Unternehmens-IT gewinnt Open-Source-K\u00fcnstliche Intelligenz (KI) immer mehr an Bedeutung. In einem Beitrag der Linux Foundation wird beschrieben, dass sich das Open-Source-Modell seit den 1980er-Jahren von einer Bewegung zu einem wichtigen Treiber technologischer Innovation entwickelt hat. Diese\u2026","rel":"","context":"In &quot;Allgemein&quot;","block_context":{"text":"Allgemein","link":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/category\/allgemein\/"},"img":{"alt_text":"","src":"https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2026\/01\/grafik.png?resize=350%2C200&ssl=1","width":350,"height":200,"srcset":"https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2026\/01\/grafik.png?resize=350%2C200&ssl=1 1x, https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2026\/01\/grafik.png?resize=525%2C300&ssl=1 1.5x"},"classes":[]},{"id":28173,"url":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/2026\/01\/14\/autonome-ki-agenten-in-der-softwareentwicklung-architektur-patterns-theoretische-frameworks-und-design-entscheidungen\/","url_meta":{"origin":27836,"position":4},"title":"Autonome KI-Agenten in der Softwareentwicklung: Architektur-Patterns, theoretische Frameworks und Design-Entscheidungen","author":"Kay Kn\u00f6pfle","date":"14. January 2026","format":false,"excerpt":"Abstract This paper provides a systematic introduction to AI agents, covering core definitions and foundational architectural concepts. It examines tool integration, including operational principles, capabilities, and evaluation of AI coding agents, as well as the Model Context Protocol. The paper further analyzes memory systems as a key component for context\u2026","rel":"","context":"In &quot;Allgemein&quot;","block_context":{"text":"Allgemein","link":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/category\/allgemein\/"},"img":{"alt_text":"Schematische Darstellung des Groupchat Patterns","src":"https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2026\/01\/groupchat.png?resize=350%2C200&ssl=1","width":350,"height":200,"srcset":"https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2026\/01\/groupchat.png?resize=350%2C200&ssl=1 1x, https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2026\/01\/groupchat.png?resize=525%2C300&ssl=1 1.5x, https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2026\/01\/groupchat.png?resize=700%2C400&ssl=1 2x"},"classes":[]},{"id":27863,"url":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/2025\/07\/25\/vor-und-nachteile-von-open-source-ki-im-unternehmen\/","url_meta":{"origin":27836,"position":5},"title":"Vor und Nachteile von Open Source KI im Unternehmen","author":"Luca Demharter","date":"25. July 2025","format":false,"excerpt":"Anmerkung:\u00a0Dieser Blogpost wurde f\u00fcr das Modul Enterprise IT (113601a) verfasst Offene Software hat ihren Ursprung zu einer Zeit, in welcher der Austausch von Quellcode selbstverst\u00e4ndlich war. Erst Mitte der 1970er Jahre begann man, Software als geistiges Eigentum zu betrachten und rechtlich zu sch\u00fctzen. AT&T entwickelte das Unix-Betriebssystem, dessen Quellcode anfangs\u2026","rel":"","context":"In &quot;Allgemein&quot;","block_context":{"text":"Allgemein","link":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/category\/allgemein\/"},"img":{"alt_text":"","src":"https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2025\/07\/image-4.png?resize=350%2C200&ssl=1","width":350,"height":200,"srcset":"https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2025\/07\/image-4.png?resize=350%2C200&ssl=1 1x, https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2025\/07\/image-4.png?resize=525%2C300&ssl=1 1.5x"},"classes":[]}],"jetpack_sharing_enabled":true,"authors":[{"term_id":1123,"user_id":1272,"is_guest":0,"slug":"tim_ruff","display_name":"Tim Ruff","avatar_url":"https:\/\/secure.gravatar.com\/avatar\/29915fba991126c457815fa187e135bb87c45133bdd8523381be637a56fe063e?s=96&d=mm&r=g","0":null,"1":"","2":"","3":"","4":"","5":"","6":"","7":"","8":""}],"_links":{"self":[{"href":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/wp-json\/wp\/v2\/posts\/27836","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/wp-json\/wp\/v2\/users\/1272"}],"replies":[{"embeddable":true,"href":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/wp-json\/wp\/v2\/comments?post=27836"}],"version-history":[{"count":4,"href":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/wp-json\/wp\/v2\/posts\/27836\/revisions"}],"predecessor-version":[{"id":27845,"href":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/wp-json\/wp\/v2\/posts\/27836\/revisions\/27845"}],"wp:attachment":[{"href":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/wp-json\/wp\/v2\/media?parent=27836"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/wp-json\/wp\/v2\/categories?post=27836"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/wp-json\/wp\/v2\/tags?post=27836"},{"taxonomy":"author","embeddable":true,"href":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/wp-json\/wp\/v2\/ppma_author?post=27836"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}