{"id":28263,"date":"2026-02-07T20:40:12","date_gmt":"2026-02-07T19:40:12","guid":{"rendered":"https:\/\/blog.mi.hdm-stuttgart.de\/?p=28263"},"modified":"2026-02-07T20:40:12","modified_gmt":"2026-02-07T19:40:12","slug":"hosting-my-own-models-wie-quantisierung-die-ki-aus-der-cloud-in-den-eigenen-keller-holt","status":"publish","type":"post","link":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/2026\/02\/07\/hosting-my-own-models-wie-quantisierung-die-ki-aus-der-cloud-in-den-eigenen-keller-holt\/","title":{"rendered":"Hosting My Own Models: Wie Quantisierung die KI aus der Cloud in den eigenen Keller holt"},"content":{"rendered":"\n<blockquote class=\"wp-block-quote is-layout-flow wp-block-quote-is-layout-flow\">\n<p>Dieser Blogpost wurde f\u00fcr das Modul Enterprise IT (113601a) verfasst.<\/p>\n<\/blockquote>\n\n\n\n<h3 class=\"wp-block-heading\">1. Einleitung: Raus aus der Abh\u00e4ngigkeit<\/h3>\n\n\n\n<p>Wer heute von KI spricht, meint oft die Dienste von OpenAI. Die Abh\u00e4ngigkeit von propriet\u00e4ren APIs wie GPT-4 entwickelt sich jedoch zunehmend zu einem Risiko f\u00fcr Unternehmen und Entwickler. Die Suche nach Alternativen wird durch Datenschutzbedenken, unvorhersehbare Kosten und das \u201eVendor Lock-in\u201c vorangetrieben.<\/p>\n\n\n\n<p>Die L\u00f6sung besteht im Self-Hosting: Eigene Large Language Models (LLMs) auf eigener Hardware zu betreiben. Aber wie kann ein Modell mit 70 Milliarden Parametern, das normalerweise 140 GB VRAM ben\u00f6tigt, auf einen normalen Server oder sogar auf einen Laptop passen?<\/p>\n\n\n\n<p>Das Zauberwort hei\u00dft <strong>Quantisierung<\/strong>.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">1.1 Die Geburtsstunde von llama.cpp<\/h3>\n\n\n\n<p>Der Entwickler Georgi Gerganov hat einen gro\u00dfen Anteil daran, dass lokale KI heute \u00fcberhaupt praktikabel ist. Er war kein Vertreter eines gro\u00dfen Forschungslabors, sondern arbeitete damals als unabh\u00e4ngiger Entwickler an Projekten im Bereich der effizienten KI-Inferenz.<\/p>\n\n\n\n<p>Im Jahr 2023 begann Gerganov, mit dem von Meta ver\u00f6ffentlichten LLaMA-Modell zu experimentieren. Sein Ziel war vergleichsweise unspektakul\u00e4r: Er wollte testen, ob sich ein solches Large Language Model nicht auch au\u00dferhalb von Rechenzentren sinnvoll ausf\u00fchren l\u00e4sst, konkret auf einem normalen Laptop. Aus diesem Experiment entstand das Projekt <strong>llama.cpp<\/strong> [8].<\/p>\n\n\n\n<p>Der Ansatz unterschied sich deutlich von vielen bestehenden Frameworks. Statt Python und GPU-Abh\u00e4ngigkeiten setzte Gerganov konsequent auf C++ und CPU-basierte Optimierungen. Innerhalb kurzer Zeit zeigte sich, dass sich selbst sehr gro\u00dfe Modelle mit reduzierter Pr\u00e4zision lokal ausf\u00fchren lassen. Das Repository verbreitete sich schnell in der Entwickler-Community und bildete die Grundlage f\u00fcr viele heutige Self-Hosting-L\u00f6sungen.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">2. Das Vorbild: Fraunhofer und \u201eFhGenie\u201c<\/h3>\n\n\n\n<p>Eine der f\u00fchrenden Forschungseinrichtungen in Europa beweist, dass Souver\u00e4nit\u00e4t im Umgang mit LLMs kein Nischenthema f\u00fcr Hobby-Bastler ist. Die Fraunhofer-Gesellschaft stellte fr\u00fch fest, dass \u00f6ffentliche Dienste wie ChatGPT aus Gr\u00fcnden des Datenschutzes f\u00fcr sensible Forschungsdaten tabu sind. Die Antwort lautete FhGenie: ein KI-Chatbot, der intern genutzt wird und im Juni 2023 gestartet ist. FhGenie beruht technisch auf dem Azure OpenAI Service, wird jedoch in einer isolierten \u201ePrivate Cloud\u201c-Instanz innerhalb eines eigens f\u00fcr Fraunhofer eingerichteten Tenants betrieben. Dies gew\u00e4hrleistet, dass Anfragen nicht f\u00fcr das Training der Modelle verwendet werden und innerhalb der kontrollierten Infrastruktur verbleiben. \u00dcber 12.000 Mitarbeitende nutzen mittlerweile das System. [1, 2].<\/p>\n\n\n\n<p>Welche Bedeutung hat das f\u00fcr uns? Nicht jedes Unternehmen kann sich eine spezielle Azure-Instanz wie die von Fraunhofer leisten. Aber dank Tools wie Llama. Mit cpp und Self-Hosted Quantized Models ist es m\u00f6glich, auf einem Gaming-Laptop oder einem kosteng\u00fcnstigen On-Premise-Server exakt dieses Niveau an Datensicherheit zu erreichen.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">3. Das technische Fundament: Was ist Quantisierung?<\/h3>\n\n\n\n<p>LLMs werden standardm\u00e4\u00dfig mit einer Genauigkeit von 16-Bit-Gleitkommazahlen (FP16) trainiert. Das bedeutet, jedes \u201eGewicht\u201c im neuronalen Netz belegt 2 Byte Speicher. Quantisierung ist der Prozess, diese Pr\u00e4zision zu reduzieren, vergleichbar mit der Komprimierung eines MP3s. Ziel ist es, die Gewichte mit weniger Bits darzustellen (z. B. 4-Bit), ohne dass das Modell \u201edumm\u201c wird [3].<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">3.1 Die Mathematik dahinter (INT4 vs. FP16)<\/h4>\n\n\n\n<p>Durch die Reduktion auf 4-Bit-Integer (INT4) schrumpft der Speicherbedarf massiv:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>FP16 Modell (70 Mrd. Parameter):<\/strong> ~140 GB VRAM (kaum bezahlbar).<\/li>\n\n\n\n<li><strong>INT4 Modell (70 Mrd. Parameter):<\/strong> ~40 GB VRAM (l\u00e4uft auf 2x Consumer GPUs).<\/li>\n<\/ul>\n\n\n\n<p>Forschungen wie die zum <strong>QLoRA-Verfahren<\/strong> haben gezeigt, dass 4-Bit-Modelle oft fast die gleiche Leistung erbringen wie ihre 16-Bit-Originale, aber nur einen Bruchteil der Ressourcen ben\u00f6tigen [4].<\/p>\n\n\n\n<p><strong>Abbildung 1 <\/strong>zeigt den Unterschied auf Systemebene zwischen Full Finetuning, LoRA und QLoRA. Beim klassischen Finetuning m\u00fcssen sowohl das vollst\u00e4ndige 16-Bit-Basismodell als auch umfangreiche Optimizer-Zust\u00e4nde dauerhaft im GPU-Speicher gehalten werden. LoRA reduziert den Aufwand, indem nur zus\u00e4tzliche Adapter trainiert werden, das Basismodell jedoch weiterhin in 16-Bit vorliegt. QLoRA kombiniert diesen Ansatz mit 4-Bit-Quantisierung des Basismodells und kann speicherintensive Komponenten teilweise in den CPU-Speicher auslagern.<\/p>\n\n\n\n<p>Dadurch wird es m\u00f6glich, auch sehr gro\u00dfe Modelle auf einzelner, vergleichsweise g\u00fcnstiger Hardware zu betreiben oder anzupassen.<\/p>\n\n\n\n<figure class=\"wp-block-image size-full\"><a href=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2026\/02\/image-3.png\"><img loading=\"lazy\" decoding=\"async\" width=\"859\" height=\"381\" data-attachment-id=\"28273\" data-permalink=\"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/2026\/02\/07\/hosting-my-own-models-wie-quantisierung-die-ki-aus-der-cloud-in-den-eigenen-keller-holt\/image-131\/\" data-orig-file=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2026\/02\/image-3.png\" data-orig-size=\"859,381\" data-comments-opened=\"1\" data-image-meta=\"{&quot;aperture&quot;:&quot;0&quot;,&quot;credit&quot;:&quot;&quot;,&quot;camera&quot;:&quot;&quot;,&quot;caption&quot;:&quot;&quot;,&quot;created_timestamp&quot;:&quot;0&quot;,&quot;copyright&quot;:&quot;&quot;,&quot;focal_length&quot;:&quot;0&quot;,&quot;iso&quot;:&quot;0&quot;,&quot;shutter_speed&quot;:&quot;0&quot;,&quot;title&quot;:&quot;&quot;,&quot;orientation&quot;:&quot;0&quot;}\" data-image-title=\"image\" data-image-description=\"\" data-image-caption=\"\" data-large-file=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2026\/02\/image-3.png\" src=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2026\/02\/image-3.png\" alt=\"\" class=\"wp-image-28273\" srcset=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2026\/02\/image-3.png 859w, https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2026\/02\/image-3-300x133.png 300w, https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2026\/02\/image-3-768x341.png 768w\" sizes=\"auto, (max-width: 859px) 100vw, 859px\" \/><\/a><figcaption class=\"wp-element-caption\">Abbildung 1 Vergleich des Speicher- und Ressourcenbedarfs von Full Finetuning, LoRA und QLoRA. Quelle: [4].<\/figcaption><\/figure>\n\n\n\n<h4 class=\"wp-block-heading\">3.2 Exkurs: Warum ausgerechnet Apple Silicon?<\/h4>\n\n\n\n<p>Wer Modelle selbst hostet, stellt schnell fest, dass MacBooks in der Szene dominant sind. Es ist im Code von Gerganovs llama.cpp tief verankert. Er verwendete spezielle Hardware-Features wie ARM NEON-Befehlss\u00e4tze und das Apple Accelerate Framework, um Matrix-Multiplikationen direkt auf dem Chip \u00e4u\u00dferst effizient durchzuf\u00fchren [8]. W\u00e4hrend es f\u00fcr Python-Code oft noch eine Herausforderung war, die GPU anzusprechen, lief der C++-Code bereits sehr schnell auf dem \u201eUnified Memory\u201c der Apple-Chips.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">4. Formate und Tools: GGUF, Ollama &amp; Co.<\/h3>\n\n\n\n<p>Wer Modelle selbst hosten will, st\u00f6\u00dft auf den Standard GGUF (GPT-Generated Unified Format). Es ist darauf optimiert, LLMs extrem effizient laufen zu lassen und erlaubt das \u201eOffloading\u201c einzelner Layer auf die GPU [5].<\/p>\n\n\n\n<p>Die Zeiten komplexer Skripte sind dabei vorbei. Tools machen das Self-Hosting heute leichter:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Ollama<\/strong>: Der Standart. Verpackt Modelle \u00e4hnlich wie Docker. Mit <code class=\"\" data-line=\"\">ollama run llama3<\/code> l\u00e4uft ein Modell binnen Minuten [6].<\/li>\n\n\n\n<li><strong>LM Studio:<\/strong> Eine benutzerfreundliche GUI, um GGUF-Modelle auszuprobieren und als lokalen Server bereitzustellen [7].<\/li>\n<\/ul>\n\n\n<h3 class=\"wp-block-heading\">5. Hardware-Kalkulation f\u00fcr Unternehmen<\/h3>\n<p><span id=\"output-sentence~0\"><span id=\"output-word~0~0\" data-segment-position=\"0\">Wie <\/span><span id=\"output-word~0~1\" data-segment-position=\"1\">viel <\/span><span id=\"output-word~0~2\" data-segment-position=\"2\">VRAM <\/span><span id=\"output-word~0~3\" data-segment-position=\"3\">ist <\/span><span id=\"output-word~0~4\" data-segment-position=\"4\">tats\u00e4chlich <\/span><span id=\"output-word~0~5\" data-segment-position=\"5\">notwendig?<\/span><\/span> <span id=\"output-sentence~1\"><span id=\"output-word~1~0\" data-segment-position=\"0\">Um <\/span><span id=\"output-word~1~1\" data-segment-position=\"1\">eine <\/span><span id=\"output-word~1~2\" data-segment-position=\"2\">pr\u00e4zise <\/span><span id=\"output-word~1~3\" data-segment-position=\"3\">Kalkulation <\/span><span id=\"output-word~1~4\" data-segment-position=\"4\">vornehmen <\/span><span id=\"output-word~1~5\" data-segment-position=\"5\">zu <\/span><span id=\"output-word~1~6\" data-segment-position=\"6\">k\u00f6nnen, <\/span><span id=\"output-word~1~7\" data-segment-position=\"7\">empfiehlt <\/span><span id=\"output-word~1~8\" data-segment-position=\"8\">sich <\/span><span id=\"output-word~1~9\" data-segment-position=\"9\">ein <\/span><span id=\"output-word~1~10\" data-segment-position=\"10\">Ansatz <\/span><span id=\"output-word~1~11\" data-segment-position=\"14\">der <\/span><span id=\"output-word~1~12\" data-segment-position=\"12\">KI-Plattform <\/span><span id=\"output-word~1~13\" data-segment-position=\"13\">Modal, <\/span><span id=\"output-word~1~14\" data-segment-position=\"14\">der <\/span><span id=\"output-word~1~15\" data-segment-position=\"18\">den <\/span><span id=\"output-word~1~16\" data-segment-position=\"16\">Overhead <\/span><span id=\"output-word~1~17\" data-segment-position=\"17\">f\u00fcr <\/span><span id=\"output-word~1~18\" data-segment-position=\"18\">den <\/span><span id=\"output-word~1~19\" data-segment-position=\"19\">KV-Cache <\/span><span id=\"output-word~1~20\" data-segment-position=\"20\">(Key-Value <\/span><span id=\"output-word~1~21\" data-segment-position=\"21\">Cache) <\/span><span id=\"output-word~1~22\" data-segment-position=\"22\">ausdr\u00fccklich <\/span><span id=\"output-word~1~23\" data-segment-position=\"23\">ber\u00fccksichtigt <\/span><span id=\"output-word~1~24\" data-segment-position=\"24\">[9]:<\/span><\/span><\/p>\n<p class=\"has-text-align-center\" style=\"font-size: large;font-weight: 600\">M = (P \u00d7 <sup>Q<\/sup>\u2044<sub>8<\/sub>) \u00d7 1,2<\/p>\n<p><strong>Die Variablen im Detail:<\/strong><\/p>\n<ul class=\"wp-block-list\">\n<li><strong>M:<\/strong> Ben\u00f6tigter VRAM in GB<\/li>\n<li><strong>P:<\/strong> Anzahl der Parameter in Milliarden (z. B. 70 f\u00fcr Llama-3-70B)<\/li>\n<li><strong>Q:<\/strong> Quantisierungs-Bits (z. B. 4)<\/li>\n<li><strong>1,2:<\/strong> 20 % Overhead-Faktor f\u00fcr den Inference-Cache<\/li>\n<\/ul>\n<p>Wendet man diese Formel auf ein <strong>70B-Modell mit 4-Bit-Quantisierung<\/strong> an, ergibt sich:<\/p>\n<p class=\"has-text-align-center\" style=\"font-size: large;font-weight: 600\">70 \u00d7 (4 \/ 8) \u00d7 1,2 = 42 GB<\/p>\n<p>Das bedeutet: Ein solches Modell passt knapp auf zwei professionelle A10-GPUs (24GB) oder einen Mac Studio. F\u00fcr Desktop-Systeme (MacBook), bei denen der Bildschirm ebenfalls RAM ben\u00f6tigt, sollte man sicherheitshalber etwas mehr Puffer einplanen.<\/p>\n\n\n<h3 class=\"wp-block-heading\">6. Fazit: High-End-KI im eigenen Rechenzentrum<\/h3>\n\n\n\n<p>FhGenie zeigt: F\u00fcr die moderne Forschung und Entwicklung ist Datensouver\u00e4nit\u00e4t unerl\u00e4sslich. Self-Hosted quantisierte Modelle tragen zur Demokratisierung dieses Schutzes bei. Sie machen Datenhoheit f\u00fcr alle m\u00f6glich: Sensible Unternehmensdaten bleiben stets im eigenen Netzwerk. Au\u00dferdem bieten sie Kostensicherheit (keine Token-Geb\u00fchren) und Unabh\u00e4ngigkeit.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">7. Quellenverzeichnis und Links<\/h3>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>[1] Fraunhofer-Gesellschaft (2023):<\/strong><em> FhGenie: Fraunhofer-Gesellschaft nutzt internen KI-Chatbot.<\/em>\n<ul class=\"wp-block-list\">\n<li>Link: <a href=\"https:\/\/www.fraunhofer.de\/de\/presse\/presseinformationen\/2023\/august-2023\/fhgenie-fraunhofer-gesellschaft-fuehrt-internen-ki-chatbot-ein.html\" target=\"_blank\" rel=\"noreferrer noopener\">https:\/\/www.fraunhofer.de\/de\/presse\/presseinformationen\/2023\/august-2023\/fhgenie-fraunhofer-gesellschaft-fuehrt-internen-ki-chatbot-ein.html<\/a><\/li>\n<\/ul>\n<\/li>\n\n\n\n<li><strong>[2] Weber, I. et al. (2024):<\/strong><em> FhGenie: A Custom, Confidentiality-preserving Chat AI.<\/em> (arXiv:2403.00039)\n<ul class=\"wp-block-list\">\n<li>Link: <a href=\"https:\/\/arxiv.org\/abs\/2403.00039\" target=\"_blank\" rel=\"noreferrer noopener\">https:\/\/arxiv.org\/abs\/2403.00039<\/a><\/li>\n<\/ul>\n<\/li>\n\n\n\n<li><strong>[3] Hugging Face (2023):<\/strong><em> Introduction to Quantization.<\/em>\n<ul class=\"wp-block-list\">\n<li>Link: <a href=\"https:\/\/huggingface.co\/docs\/optimum\/concept_guides\/quantization\" target=\"_blank\" rel=\"noreferrer noopener\">https:\/\/huggingface.co\/docs\/optimum\/concept_guides\/quantization<\/a><\/li>\n<\/ul>\n<\/li>\n\n\n\n<li><strong>[4] Dettmers et al. (2023):<\/strong><em> QLoRA: Efficient Finetuning of Quantized LLMs.<\/em> (arXiv:2305.14314)\n<ul class=\"wp-block-list\">\n<li>Link: <a href=\"https:\/\/arxiv.org\/abs\/2305.14314\" target=\"_blank\" rel=\"noreferrer noopener\">https:\/\/arxiv.org\/abs\/2305.14314<\/a><\/li>\n<\/ul>\n<\/li>\n\n\n\n<li><strong>[5] Georgi Gerganov (2024):<\/strong><em> llama.cpp Repository.<\/em>\n<ul class=\"wp-block-list\">\n<li>Link: <a href=\"https:\/\/github.com\/ggerganov\/llama.cpp\" target=\"_blank\" rel=\"noreferrer noopener\">https:\/\/github.com\/ggerganov\/llama.cpp<\/a><\/li>\n<\/ul>\n<\/li>\n\n\n\n<li><strong>[6] Ollama:<\/strong> Offizielle Dokumentation.\n<ul class=\"wp-block-list\">\n<li>Link: <a href=\"https:\/\/ollama.com\/blog\" target=\"_blank\" rel=\"noreferrer noopener\">https:\/\/ollama.com\/blog<\/a><\/li>\n<\/ul>\n<\/li>\n\n\n\n<li><strong>[7] LM Studio:<\/strong>\n<ul class=\"wp-block-list\">\n<li>Link: <a href=\"https:\/\/lmstudio.ai\/\" target=\"_blank\" rel=\"noreferrer noopener\">https:\/\/lmstudio.ai\/<\/a><\/li>\n<\/ul>\n<\/li>\n\n\n\n<li><strong>[8] Changelog Interviews (2023):<\/strong><em> Episode #532: Bringing Whisper and LLaMA to the masses with Georgi Gerganov.<\/em>\n<ul class=\"wp-block-list\">\n<li>Link: <a href=\"https:\/\/changelog.com\/podcast\/532\" target=\"_blank\" rel=\"noreferrer noopener\">https:\/\/changelog.com\/podcast\/532<\/a><\/li>\n<\/ul>\n<\/li>\n\n\n\n<li><strong>[9] Lu, Yiren (2024):<\/strong> <em>How much VRAM do I need for LLM inference?<\/em> Modal Blog.\n<ul class=\"wp-block-list\">\n<li>Link: <a href=\"https:\/\/www.google.com\/search?q=https:\/\/modal.com\/blog\/how-much-vram-do-i-need\" target=\"_blank\" rel=\"noreferrer noopener\">https:\/\/modal.com\/blog\/how-much-vram-do-i-need<\/a><\/li>\n<\/ul>\n<\/li>\n<\/ul>\n\n\n\n<p><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Dieser Blogpost wurde f\u00fcr das Modul Enterprise IT (113601a) verfasst. 1. Einleitung: Raus aus der Abh\u00e4ngigkeit Wer heute von KI spricht, meint oft die Dienste von OpenAI. Die Abh\u00e4ngigkeit von propriet\u00e4ren APIs wie GPT-4 entwickelt sich jedoch zunehmend zu einem Risiko f\u00fcr Unternehmen und Entwickler. Die Suche nach Alternativen wird durch Datenschutzbedenken, unvorhersehbare Kosten und [&hellip;]<\/p>\n","protected":false},"author":1212,"featured_media":0,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[1],"tags":[],"ppma_author":[1036],"class_list":["post-28263","post","type-post","status-publish","format-standard","hentry","category-allgemein"],"aioseo_notices":[],"jetpack_featured_media_url":"","jetpack-related-posts":[{"id":28240,"url":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/2026\/01\/29\/open-source-ki-modelle-chancen-und-herausforderungen-fur-unternehmen-2\/","url_meta":{"origin":28263,"position":0},"title":"Open-Source-KI-Modelle \u2013 Chancen und Herausforderungen f\u00fcr Unternehmen","author":"Erzan Gashi","date":"29. January 2026","format":false,"excerpt":"Anmerkung:\u00a0Dieser Blogpost wurde f\u00fcr das Modul Enterprise IT (113601a) verfasst 1. Einleitung In heutiger Unternehmens-IT gewinnt Open-Source-K\u00fcnstliche Intelligenz (KI) immer mehr an Bedeutung. In einem Beitrag der Linux Foundation wird beschrieben, dass sich das Open-Source-Modell seit den 1980er-Jahren von einer Bewegung zu einem wichtigen Treiber technologischer Innovation entwickelt hat. Diese\u2026","rel":"","context":"In &quot;Allgemein&quot;","block_context":{"text":"Allgemein","link":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/category\/allgemein\/"},"img":{"alt_text":"","src":"https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2026\/01\/grafik.png?resize=350%2C200&ssl=1","width":350,"height":200,"srcset":"https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2026\/01\/grafik.png?resize=350%2C200&ssl=1 1x, https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2026\/01\/grafik.png?resize=525%2C300&ssl=1 1.5x"},"classes":[]},{"id":28492,"url":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/2026\/02\/20\/auswirkung-der-integration-von-ki-auf-den-software-development-lifecycle-mit-fokus-auf-frontend-entwicklung\/","url_meta":{"origin":28263,"position":1},"title":"Auswirkung der Integration von KI auf den Software Development Lifecycle mit Fokus auf Frontend-Entwicklung","author":"Tom Bestvater","date":"20. February 2026","format":false,"excerpt":"Abstract - Die Integration K\u00fcnstlicher Intelligenz (KI) in den Software Development Lifecycle (SDLC) f\u00fchrt zu einer Transformation der Frontend-Entwicklung und verschiebt den Fokus von der manuellen Implementierung hin zur KI-gest\u00fctzten Orchestrierung. Das vorliegende Paper untersucht den Einfluss generativer KI-Modelle und multimodaler Sprachmodelle (MLLMs) auf die Frontend-Engineering-Prozesse, wobei ein besonderer Schwerpunkt\u2026","rel":"","context":"In &quot;Allgemein&quot;","block_context":{"text":"Allgemein","link":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/category\/allgemein\/"},"img":{"alt_text":"","src":"https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2026\/02\/sdlc_phases.png?resize=350%2C200&ssl=1","width":350,"height":200,"srcset":"https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2026\/02\/sdlc_phases.png?resize=350%2C200&ssl=1 1x, https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2026\/02\/sdlc_phases.png?resize=525%2C300&ssl=1 1.5x, https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2026\/02\/sdlc_phases.png?resize=700%2C400&ssl=1 2x"},"classes":[]},{"id":24312,"url":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/2023\/02\/28\/kann-man-einen-wissenschaftlichen-blogeintrag-rein-mithilfe-von-chatgpt-schreiben\/","url_meta":{"origin":28263,"position":2},"title":"Kann man einen wissenschaftlichen Blogeintrag rein mithilfe von ChatGPT schreiben?","author":"zack walker","date":"28. February 2023","format":false,"excerpt":"Einleitung In den letzten Jahren hat die K\u00fcnstliche Intelligenz (KI) einen enormen Aufschwung erlebt und ist zu einem wichtigen Teil unseres t\u00e4glichen Lebens geworden. KI wird f\u00fcr eine Vielzahl von Aufgaben eingesetzt - von der Bilderkennung bis hin zur Sprachverarbeitung. Eine der neuesten Anwendungen von KI ist ChatGPT, ein System\u2026","rel":"","context":"In &quot;Allgemein&quot;","block_context":{"text":"Allgemein","link":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/category\/allgemein\/"},"img":{"alt_text":"","src":"https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/02\/Screenshot-2023-02-28-at-11.39.35.png?resize=350%2C200&ssl=1","width":350,"height":200,"srcset":"https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/02\/Screenshot-2023-02-28-at-11.39.35.png?resize=350%2C200&ssl=1 1x, https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/02\/Screenshot-2023-02-28-at-11.39.35.png?resize=525%2C300&ssl=1 1.5x, https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/02\/Screenshot-2023-02-28-at-11.39.35.png?resize=700%2C400&ssl=1 2x"},"classes":[]},{"id":27836,"url":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/2025\/07\/24\/spezifische-angriffsvektoren-auf-die-supply-chain-von-ki-systemen\/","url_meta":{"origin":28263,"position":3},"title":"Spezifische Angriffsvektoren auf die Supply Chain von KI-Systemen","author":"Tim Ruff","date":"24. July 2025","format":false,"excerpt":"Anmerkung:\u00a0Dieser Blogpost wurde f\u00fcr das Modul Enterprise IT (113601a) verfasst. Aus Gr\u00fcnden der besseren Lesbarkeit wird in dieser Arbeit auf eine geschlechtsneutrale Differenzierung verzichtet. S\u00e4mtliche Personenbezeichnungen gelten gleicherma\u00dfen f\u00fcr alle Geschlechter. Einleitung: Bereits seit mehreren Jahren liegt ein Hauptfokus der Technologieindustrie auf der Entwicklung von K\u00fcnstlicher Intelligenz (KI) Systemen, insbesondere\u2026","rel":"","context":"In &quot;Allgemein&quot;","block_context":{"text":"Allgemein","link":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/category\/allgemein\/"},"img":{"alt_text":"","src":"https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2025\/07\/image-2.png?resize=350%2C200&ssl=1","width":350,"height":200,"srcset":"https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2025\/07\/image-2.png?resize=350%2C200&ssl=1 1x, https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2025\/07\/image-2.png?resize=525%2C300&ssl=1 1.5x, https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2025\/07\/image-2.png?resize=700%2C400&ssl=1 2x, https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2025\/07\/image-2.png?resize=1050%2C600&ssl=1 3x"},"classes":[]},{"id":28499,"url":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/2026\/02\/20\/ki-generierte-dokumentation\/","url_meta":{"origin":28263,"position":4},"title":"KI-generierte Dokumentation","author":"Ai Nhu Dinh","date":"20. February 2026","format":false,"excerpt":"Abstract Software documentation represents a critical yet frequently neglected component of the software development lifecycle. Time constraints, outdated content, and limited accessibility remain persistent challenges in practice. Recent advances in artificial intelligence offer new opportunities to automate documentation processes and improve quality and maintainability.This paper investigates AI-supported documentation generation by\u2026","rel":"","context":"In &quot;Allgemein&quot;","block_context":{"text":"Allgemein","link":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/category\/allgemein\/"},"img":{"alt_text":"","src":"","width":0,"height":0},"classes":[]},{"id":28372,"url":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/2026\/02\/18\/safeguards-in-der-ki-unterstutzten-softwareentwicklung\/","url_meta":{"origin":28263,"position":5},"title":"Safeguards in der KI-unterst\u00fctzten Softwareentwicklung","author":"Christoph Merck","date":"18. February 2026","format":false,"excerpt":"KI gest\u00fctzte Werkzeuge und autonome Agenten machen Softwareentwicklung schneller, schaffen aber neue Sicherheitsrisiken, weil sie eigenst\u00e4ndig Entscheidungen treffen und externe Tools nutzen k\u00f6nnen. Der Artikel zeigt, warum deshalb ein mehrschichtiges Safeguard Konzept n\u00f6tig ist, das klassische Ma\u00dfnahmen wie Code Reviews, Tests und statische sowie dynamische Analysen mit KI spezifischen Schutzmechanismen\u2026","rel":"","context":"In &quot;Allgemein&quot;","block_context":{"text":"Allgemein","link":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/category\/allgemein\/"},"img":{"alt_text":"","src":"","width":0,"height":0},"classes":[]}],"jetpack_sharing_enabled":true,"authors":[{"term_id":1036,"user_id":1212,"is_guest":0,"slug":"michael_jaufmann","display_name":"Michael Jaufmann","avatar_url":"https:\/\/secure.gravatar.com\/avatar\/118a41c65295333e9e425495834f8735b351d5f674865415e7e3ec968fa2ee2a?s=96&d=mm&r=g","0":null,"1":"","2":"","3":"","4":"","5":"","6":"","7":"","8":""}],"_links":{"self":[{"href":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/wp-json\/wp\/v2\/posts\/28263","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/wp-json\/wp\/v2\/users\/1212"}],"replies":[{"embeddable":true,"href":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/wp-json\/wp\/v2\/comments?post=28263"}],"version-history":[{"count":14,"href":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/wp-json\/wp\/v2\/posts\/28263\/revisions"}],"predecessor-version":[{"id":28279,"href":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/wp-json\/wp\/v2\/posts\/28263\/revisions\/28279"}],"wp:attachment":[{"href":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/wp-json\/wp\/v2\/media?parent=28263"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/wp-json\/wp\/v2\/categories?post=28263"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/wp-json\/wp\/v2\/tags?post=28263"},{"taxonomy":"author","embeddable":true,"href":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/wp-json\/wp\/v2\/ppma_author?post=28263"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}