{"id":28492,"date":"2026-02-20T21:57:21","date_gmt":"2026-02-20T20:57:21","guid":{"rendered":"https:\/\/blog.mi.hdm-stuttgart.de\/?p=28492"},"modified":"2026-02-20T21:57:24","modified_gmt":"2026-02-20T20:57:24","slug":"auswirkung-der-integration-von-ki-auf-den-software-development-lifecycle-mit-fokus-auf-frontend-entwicklung","status":"publish","type":"post","link":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/2026\/02\/20\/auswirkung-der-integration-von-ki-auf-den-software-development-lifecycle-mit-fokus-auf-frontend-entwicklung\/","title":{"rendered":"Auswirkung der Integration von KI auf den Software Development Lifecycle mit Fokus auf Frontend-Entwicklung"},"content":{"rendered":"\n<p><strong><em>Abstract<\/em> &#8211; Die Integration K\u00fcnstlicher Intelligenz (KI) in den Software Development Lifecycle (SDLC) f\u00fchrt zu einer Transformation der Frontend-Entwicklung und verschiebt den Fokus von der manuellen Implementierung hin zur KI-gest\u00fctzten Orchestrierung. Das vorliegende Paper untersucht den Einfluss generativer KI-Modelle und multimodaler Sprachmodelle (MLLMs) auf die Frontend-Engineering-Prozesse, wobei ein besonderer Schwerpunkt auf \u201eIdea-to-Design\u201c- und \u201eDesign-to-Code\u201c-Workflows liegt. Durch die Analyse aktueller Werkzeuge wie Figma Make, Google Antigravity und Uizard wird aufgezeigt, wie KI die \u201eAccidental Complexity\u201c durch die Automatisierung von Boilerplate-Strukturen und Layout-Aufgaben reduziert, w\u00e4hrend die \u201eEssential Complexity\u201c, insbesondere die Softwarearchitektur und das nutzerzentrierte Design, weiterhin eine menschliche Kernkompetenz bleibt. Empirische Untersuchungen verdeutlichen, dass KI-generierter Code zwar gute (UI-) Prototypen erstellen kann, jedoch signifikante Defizite hinsichtlich der Produktionsreife, Wartbarkeit und Barrierefreiheit aufweist. Aus der Arbeit l\u00e4sst sich schlie\u00dfen, dass sich das Berufsbild von Frontend-Entwickler hin zu einer Architektur- und Review-Rolle wandelt, die ein hybrides Kompetenzprofil aus technischer Aufsicht, Prompt-Engineering und UX-Validierung erfordert.<\/strong><\/p>\n\n\n\n<h2 class=\"wp-block-heading\">I. Einleitung<\/h2>\n\n\n\n<h3 class=\"wp-block-heading\">A. Motivation und Problemstellung<\/h3>\n\n\n\n<p>Die Entwicklung von Frontends hat sich in den letzten Jahrzehnten von der manuellen Erstellung einfacher HTML-Dokumente zu einer hochkomplexen Disziplin innerhalb des Software Development Lifecycles (SDLC) entwickelt. Heute stehen Entwicklerteams vor der Herausforderung, plattform\u00fcbergreifende, hochperformante und barrierefreie Anwendungen in immer k\u00fcrzeren Release-Zyklen bereitzustellen [1]. W\u00e4hrend Frameworks und Komponentenbibliotheken die Wiederverwendbarkeit gesteigert haben, bleibt der manuelle Aufwand an den Schnittstellen, insbesondere der \u00dcbergang vom visuellen Entwurf zum funktionalen Quellcode, ein signifikanter Zeit- und Kostenfaktor [2].<\/p>\n\n\n\n<p>Mit dem Aufkommen leistungsf\u00e4higer Large Language Models (LLMs) und spezialisierter multimodaler Modelle (MLLMs) wird die Frontend-Entwicklung transformiert. Werkzeuge wie Figma Make, Uizard oder Google Antigravity versprechen nicht nur eine Beschleunigung der Implementierung, sondern eine partielle Automatisierung ganzer Phasen des SDLC. Aktuelle Benchmarks zeigen, dass KI-Systeme in der Lage sind, aus grafischen Vorlagen Code zu generieren, der in einem hohen Prozentsatz der F\u00e4lle als qualitativ gleichwertig zu manuell erstellten Oberfl\u00e4chen wahrgenommen wird [3].<\/p>\n\n\n\n<p>Diese Entwicklung f\u00fchrt jedoch zu neuen Fragestellungen. W\u00e4hrend die \u201eAccidental Complexity\u201c, wie sie Brooks [4] beschrieb, also die Komplexit\u00e4t der Werkzeuge und Syntax, durch KI reduziert wird, bleibt die \u201eEssential Complexity\u201c der Anforderungsanalyse und der nutzerzentrierten Gestaltung bestehen. Zudem werfen Ph\u00e4nomene wie \u201eAI-Slop\u201c, mangelnde Wartbarkeit generierter Strukturen und die Verschiebung der kognitiven Last hin zu intensiven Review-Prozessen kritische Fragen nach der \u201eProduction Readiness\u201c aktueller Tools auf [5].<\/p>\n\n\n\n<p>Das vorliegende Paper untersucht den aktuellen Stand der KI-Integration im Frontend-Entwicklungsprozess. Zun\u00e4chst wird die Verschiebung der klassischen SDLC-Phasen durch generative Ans\u00e4tze analysiert. Darauf aufbauend werden technologische L\u00f6sungen in den Bereichen \u201eIdea-to-Design\u201c und \u201eDesign-to-Code\u201c vorgestellt und hinsichtlich ihrer praktischen Reife bewertet. Ein besonderer Fokus liegt dabei auf den Herausforderungen bez\u00fcglich der Codequalit\u00e4t und den qualitativen Ver\u00e4nderungen des Berufsbildes. Abschlie\u00dfend wird ein Ausblick auf die zuk\u00fcnftige Rolle von KI-Agenten und die potenziellen Forschungsfelder einer automatisierten Frontend-Architektur gegeben.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">II. KI im Software Development Lifecycle<\/h2>\n\n\n\n<h3 class=\"wp-block-heading\">A. Allgemeiner Teil<\/h3>\n\n\n\n<p>Der Software Development Lifecycle (SDLC) beschreibt einen strukturierten Prozess zur Planung, Erstellung, Pr\u00fcfung und Bereitstellung von Softwaresystemen. Das Ziel dieses Modells ist es, die Softwareentwicklung durch klare Phasen besser steuerbar zu machen und eine einheitliche Qualit\u00e4t sicherzustellen [6].<\/p>\n\n\n\n<p>Nach Sommerville [7] umfasst ein \u00fcblicher SDLC die Schritte Planung, Anforderungsanalyse, Systemdesign, Implementierung, Testen, Deployment und Wartung. In der Planungs- und Analysephase werden Anforderungen definiert und die Machbarkeit gepr\u00fcft. Das Design legt die Architektur sowie die Benutzeroberfl\u00e4chen fest. Die Implementierung stellt den Kernprozess dar, in dem die theoretischen Entw\u00fcrfe in Quellcode \u00fcberf\u00fchrt werden. Nachfolgende Phasen wie das Testing und das Deployment unterst\u00fctzen die Erkennung von Fehlern und die Integration in die Produktionsumgebung, w\u00e4hrend die Maintenance (Wartung) die langfristige Stabilit\u00e4t des Codes sicherstellt. Dieser Ansatz dient dazu, den Fortschritt eines Projekts messbar zu machen und Ressourcen effizienter planen zu k\u00f6nnen [7].<\/p>\n\n\n\n<figure class=\"wp-block-image size-full is-resized\"><a href=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2026\/02\/sdlc_phases.png\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"1024\" data-attachment-id=\"28506\" data-permalink=\"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/2026\/02\/20\/auswirkung-der-integration-von-ki-auf-den-software-development-lifecycle-mit-fokus-auf-frontend-entwicklung\/sdlc_phases\/\" data-orig-file=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2026\/02\/sdlc_phases.png\" data-orig-size=\"1024,1024\" data-comments-opened=\"1\" data-image-meta=\"{&quot;aperture&quot;:&quot;0&quot;,&quot;credit&quot;:&quot;&quot;,&quot;camera&quot;:&quot;&quot;,&quot;caption&quot;:&quot;&quot;,&quot;created_timestamp&quot;:&quot;0&quot;,&quot;copyright&quot;:&quot;&quot;,&quot;focal_length&quot;:&quot;0&quot;,&quot;iso&quot;:&quot;0&quot;,&quot;shutter_speed&quot;:&quot;0&quot;,&quot;title&quot;:&quot;&quot;,&quot;orientation&quot;:&quot;0&quot;}\" data-image-title=\"sdlc_phases\" data-image-description=\"\" data-image-caption=\"\" data-large-file=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2026\/02\/sdlc_phases.png\" src=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2026\/02\/sdlc_phases.png\" alt=\"\" class=\"wp-image-28506\" style=\"width:363px;height:auto\" srcset=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2026\/02\/sdlc_phases.png 1024w, https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2026\/02\/sdlc_phases-300x300.png 300w, https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2026\/02\/sdlc_phases-150x150.png 150w, https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2026\/02\/sdlc_phases-768x768.png 768w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/a><figcaption class=\"wp-element-caption\">Fig. 1 &#8211; Software Development Lifecycle [8]<\/figcaption><\/figure>\n\n\n\n<h3 class=\"wp-block-heading\">B. Die Sonderrolle der Frontend-Entwicklung im SDLC<\/h3>\n\n\n\n<p>In der Softwarearchitektur wird das Frontend meist als eine Schicht innerhalb einer Mehrschichtenarchitektur betrachtet, die eng mit Backend-Logik und Datenbanksystemen verkn\u00fcpft ist [9]. Die Einordnung in einen starren, linearen Prozess ist im Frontend oft schwierig, da Benutzeroberfl\u00e4che in der Regel iterativ entwickelt werden. Das liegt unter anderem daran, dass das Frontend im Vergleich zu anderen Komponenten einen \u00fcberproportional hohen Anteil am Gesamtcode ausmacht und unmittelbares Nutzertesting erfordert [2].<\/p>\n\n\n\n<p>Diese methodische Abgrenzung zeigt sich auch durch spezialisiertere Einordnungen wie dem Web Development Life Cycle (WDLC). Dieser ber\u00fccksichtigt beispielsweise, dass webbasierte Benutzeroberfl\u00e4chen st\u00e4rker von visuellen Entw\u00fcrfen und Nutzerinteraktionen abh\u00e4ngig sind als rein funktionale Softwarekomponenten [10]. Zudem sind die Entwicklungszyklen im Web-Bereich oft signifikant k\u00fcrzer und erfordern eine schnellere Taktung der Entwicklungsphasen [1]. Wenn man den klassischen SDLC spezifisch auf die Frontend-Entwicklung anwendet ergeben sich die folgenden Entwicklungsphasen:<\/p>\n\n\n\n<p><strong>Planung &amp; Analyse:<\/strong> Innerhalb der Planungs- und Analysephase erfolgt die Festlegung technischer Rahmenbedingungen wie Browser-Kompatibilit\u00e4ten, Hardware-Anforderungen der Zielgruppen sowie die Auswahl des Tech-Stacks (z. B. Framework-Entscheidungen).<\/p>\n\n\n\n<p><strong>Design:<\/strong> Die Designphase beinhaltet sowohl visuelles Design, als auch die Planung der Frontend-Architektur. Die Entwicklung des visuellen Designs (Idea-to-Design) konzentriert sich auf die Konzeption der Benutzeroberfl\u00e4chen. Hierbei werden Anforderungen in Wireframes (Entw\u00fcrfe) und High-Fidelity-Prototypen \u00fcberf\u00fchrt, um die User Experience vor der technischen Realisierung zu validieren [11]. Die Frontend-Architektur befasst sich dagegen mit grundlegenden technologischen Entscheidungen und der strukturellen Planung. Dies beinhaltet die Auswahl geeigneter Frameworks (z. B. React, Angular, Vue) sowie die Definition der Projektstruktur, des State-Managements und den Strategien um den Dataflow.<\/p>\n\n\n\n<p><strong>Implementierung:<\/strong> Die Implementierungsphase stellt den \u00dcbergang \u201eDesign-to-Code\u201c dar. Hierbei werden grafische Entw\u00fcrfe manuell in funktionalen Quellcode (z. B. HTML, CSS, JavaScript) transformiert.<\/p>\n\n\n\n<p><strong>Testphase:<\/strong> In der Testphase werden neben funktionalen Pr\u00fcfungen vor allem Cross-Browser-Tests durchgef\u00fchrt, um die Darstellung auf verschiedenen Endger\u00e4ten sowie die Einhaltung von Softwarestandards sicherzustellen [10] .<\/p>\n\n\n\n<p><strong>Deployment:<\/strong> Die Phase des Deployments befasst sich mit der technischen Bereitstellung der Anwendung. Das sind im Frontend-Kontext Prozesse wie das Bundling, die Optimierung der Assets und die Konfiguration von Content Delivery Networks (CDNs).<\/p>\n\n\n\n<p><strong>Deployment:<\/strong> Die Phase des Deployments befasst sich mit der technischen Bereitstellung der Anwendung. Das sind im Frontend-Kontext Prozesse wie das Bundling, die Optimierung der Assets und die Konfiguration von Content Delivery Networks (CDNs).<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">C. Verschiebung der SDLC Phasen durch KI<\/h3>\n\n\n\n<p>Die Integration von KI verschiebt die Gewichtung der einzelnen SDLC-Schritte stark. Der Fokus verlagert sich von der manuellen Erstellung hin zur Validierung und Orchestrierung.<\/p>\n\n\n\n<p><strong>Planungs- und Analysephase:<\/strong> In der Planungs- und Analysephase unterst\u00fctzt KI prim\u00e4r die schnelle Validierung von Anforderungen (Rapid Validation). Durch den Einsatz von Large Language Models (LLMs) k\u00f6nnen funktionale Spezifikationen unmittelbar auf logische Konsistenz oder fehlende Edge-Cases gepr\u00fcft werden. Dadurch kann das Risiko von Anforderungsfehlern im Frontend Kontext (z.B. fehlende View-States) minimiert werden. Auch die Auswahl des Tech-Stacks wird durch KI-gest\u00fctzte Analysen beschleunigt, indem Projektabh\u00e4ngigkeiten und Kompatibilit\u00e4ten fr\u00fchzeitig evaluiert werden.<\/p>\n\n\n\n<p><strong>Design:<\/strong> Beim visuellen Design wandelt sich die Entwicklung durch generative KI hin zum explorativen Prototyping. Auf Basis einfacher Skizzen oder textueller Beschreibung k\u00f6nnen automatisiert Layout-Varianten erstellt werden. Dies unterst\u00fctzt das Prinzip des \u201eFail Fast, Fail Cheap\u201c, da visuelle Prototypen ohne hohen Zeitaufwand gepr\u00fcft werden k\u00f6nnen. Das Ziel ist hierbei nicht nur die \u00c4sthetik, sondern die fr\u00fchzeitige UX-Analyse anhand konkreter, visuell greifbarer Beispiele [12]. F\u00fcr das Design der Architektur agiert KI prim\u00e4r beratend. Auf Basis der Projektanforderungen liefert KI Empfehlungen f\u00fcr die Framework-Auswahl, bewertet Architektur-Muster (z. B. Micro-Frontends vs. Monolithen) und unterst\u00fctzt bei der Erstellung einheitlicher Projektstrukturen.<\/p>\n\n\n\n<p><strong>Implementierung:<\/strong> Die Implementierungsphase ver\u00e4ndert sich durch den Einsatz von KI sehr deutlich. Der Prozess wandelt sich von der manuellen Code-Erstellung hin zur Orchestrierung durch den Entwickler. Dabei werden vermehrt agentische Ans\u00e4tze (Agentic Coding) benutzt, bei denen die KI nicht nur isolierte Codefragmente vervollst\u00e4ndigt, sondern Komplexe Anforderungen und Zusammenh\u00e4nge in Designvorgaben direkt in funktionalen Code \u00fcbertr\u00e4gt. Die Leistungsf\u00e4higkeit dieser KI-Agenten in Design-To-Code Aufgaben wird in aktuellen Benchmarks belegt: In einer Studie von Si et al. [3] konnten KI-generierte Weboberfl\u00e4chen in 49% der F\u00e4lle das Original nach Einsch\u00e4tzung menschlicher Experten vollst\u00e4ndig ersetzen. In einem direkten Vergleich wurden die KI-Ergebnisse sogar in 64% der F\u00e4lle als gleichwertig oder besser im Vergleich zur Vorlage eingestuft. Dies verdeutlicht, dass sich die Rolle des Entwicklers zunehmend von der Code-Erstellung hin zum Review und der Integration dieser generierten Bausteine verschiebt.<\/p>\n\n\n\n<p><strong>Testing:<\/strong> Parallel dazu f\u00fchrt die KI-Integration in der Testingphase zu einem \u201eShift-Left-Effekt\u201c. Das bedeutet, dass die Qualit\u00e4tssicherung nicht mehr als nachgelagerter Schritt erfolgt, sondern fester Bestandteil der Implementierung wird. KI-Werkzeuge sind in der Lage, bereits w\u00e4hrend der Code-Entwicklung entsprechende Unit-Tests zu generieren und komplexe User-Flows zu simulieren. Das reduziert die Fehlerquote in fr\u00fchen Stadien der Entwicklung und entlastet die Qualit\u00e4tssicherung in nachfolgenden Entwicklungsphasen und die Maintenance [13].<\/p>\n\n\n\n<p><strong>Deployment &amp; Maintenance:<\/strong> Auch beim Deployment und der Maintenance ergeben sich neue potenzielle Effizienzsteigerungen. Insbesondere das Management von Technical Dept profitiert von KI-gest\u00fctzten Analysen. KI-Systeme k\u00f6nnen veraltete Codestrukturen identifizieren, automatisiertes Refactoring vorschlagen und die Aktualisierung von Abh\u00e4ngigkeiten koordinieren. In der Wartungsphase tr\u00e4gt dies dazu bei, die langfristige Wartbarkeit des Frontends sicherzustellen, indem Code-Cleanup-Prozesse und Performance-Optimierungen kontinuierlich und mit geringem manuellem Aufwand durchgef\u00fchrt werden.<\/p>\n\n\n\n<p>Zusammenfassend l\u00e4sst sich festhalten, dass der SDLC durch KI nicht ersetzt sondern in seiner Effizienz gesteigert wird. Die im n\u00e4chsten Kapitel behandelten Werkzeuge f\u00fcr \u201eIdea-to-Design\u201c und \u201eDesign-to-Code\u201c stellen die technologische Umsetzung dieser theoretischen Verschiebungen dar.<\/p>\n\n\n\n<figure class=\"wp-block-table is-style-regular\"><table class=\"has-fixed-layout\"><tbody><tr><td><strong>SDLC-Phase<\/strong><\/td><td><strong>Klassischer Fokus<\/strong><\/td><td><strong>KI-gest\u00fctzte Transformation<\/strong><\/td><\/tr><tr><td><strong>Planung &amp; Analyse<\/strong><\/td><td>Manuelle Erhebung &amp; Dokumentation<\/td><td>Automatisierte Anforderungserstellung &amp; Konsistenzpr\u00fcfung<\/td><\/tr><tr><td><strong>Design<\/strong><\/td><td>Statische Wireframes &amp; high-Fidelity Prototypen<\/td><td>Generative Layout-Exploration &amp; automatisierte UX-Analyse sowie Generierung von Prototypen<\/td><\/tr><tr><td><strong>Implementierung<\/strong><\/td><td>Manueller Transfer (Design-to-Code)<\/td><td>Agentic Coding: KI-basierte Code-Generierung &amp; Orchestrierung<\/td><\/tr><tr><td><strong>Testing<\/strong><\/td><td>Reaktive Cross-Browser-Tests &amp; Unit-Testing<\/td><td>Shift-Left: Vorausschauende Testgenerierung w\u00e4hrend der Entwicklung<\/td><\/tr><tr><td><strong>Deployment<\/strong><\/td><td>Manuelle Konfiguration &amp; Optimierung der Assets<\/td><td>Automatische Performance-Optimierung &amp; visuelle Pr\u00fcfung<\/td><\/tr><tr><td><strong>Maintenance<\/strong><\/td><td>Manueller Code-Cleanup &amp; Dependency-Updates<\/td><td>Automatisierte Refactoring-Vorschl\u00e4ge &amp; Technical-Debt-Monitoring<\/td><\/tr><\/tbody><\/table><\/figure>\n\n\n\n<p><em>Tab. 1 &#8211; Gegen\u00fcberstellung klassischer vs. KI-gest\u00fctzter Frontend-SDLC-Phasen<\/em><\/p>\n\n\n\n<h2 class=\"wp-block-heading\">III. Technologische Ans\u00e4tze und Tools<\/h2>\n\n\n\n<p>Im Folgenden werden KI-gest\u00fctzte Ans\u00e4tze und Tools zur Unterst\u00fctzung der Implementierungsphase aufgezeigt und untersucht. Dabei werden einerseits L\u00f6sungen betrachtet, die aus Ideen bzw. Anforderungen Benutzeroberfl\u00e4chen ableiten, und andererseits Tools, die aus UI-Entw\u00fcrfen (z.B. aus Design-Tools) direkt Code generieren. Anschlie\u00dfend erfolgt eine empirische Bewertung der Qualit\u00e4t der generierten Inhalte. Die Auswahl der Tools erfolgte \u00fcber eine subjektive Buerteilung \u00fcber ihre Relevanz.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">A. Von der Idee zum User-Interface (Generatives Design)<\/h3>\n\n\n\n<p>Im nachfolgendem Abschnitt werden werden 3 Tools beleuchtet, die die Funktion haben, aus einer Idee ein User-Interface (UI) zu erstellen. Die Tools werden prim\u00e4r nach der jeweiligen Zielgruppe und dem Ansatz klassifziert.<\/p>\n\n\n\n<p><strong>Low-Barrier Tools am beispiel Uizard: <\/strong>Uizard ist ein Low-Barrier Tool und erm\u00f6glicht es, aus einer manuell erstellten Skizze einen User-Interface-Protoypen zu erstellen. Die generierten Prototypen k\u00f6nnen daraufhin in einem Editor weiter bearbeitet werden. Es werden au\u00dferdem Vorlagen und fertige UI-Komponenten zur Verf\u00fcgung gestellt. Das Tool richtet sich vor allem an Einsteiger in das User-Interface-Design [14].<\/p>\n\n\n\n<p><strong>Redesign &amp; Transformationstools am Beispiel Google Stitch:<\/strong> Google Stitch ist ein KI-gest\u00fctztes Tool zur Generierung und Transformation von User-Interfaces. Der Ansatz basiert prim\u00e4r auf der Kombination aus bestehendem Designmaterial (z.B. Screenshots oder Referenz-Websites) und textuellem Prompting. Nutzer k\u00f6nnen vorhandene Layouts analysieren lassen, diese transformieren oder neue Interfaces auf Basis beschreibender Anforderungen generieren. Das Tool erzeugt daraus lauff\u00e4hige Web-Oberfl\u00e4chen und erlaubt den Export in weiterverarbeitende Umgebungen, beispielsweise zur Nutzung durch KI-Agenten oder zur weiteren Verwendung im Entwicklungsprozess.<\/p>\n\n\n\n<p>Im Gegensatz zu Low-Barrier-Tools wie Uizard liegt der Schwerpunkt weniger auf Einsteigerfreundlichkeit, sondern auf der schnellen Iteration produktionsnaher Oberfl\u00e4chen. Die Zielgruppe ist breiter gefasst: Sowohl Designer als auch Entwickler oder Stakeholder k\u00f6nnen \u00fcber Texteingaben funktionale Prototypen erzeugen. Google Stitch kann als Redesign- und Transformationstool beschrieben werden, da bestehende visuelle Elemente als Kontext f\u00fcr die Generierung dienen [15], [16].<\/p>\n\n\n\n<p><strong>Professionelle Workflows am Beispiel Figma Make:<\/strong> Figma Make integriert generative KI direkt in eine etablierte professionelle Designumgebung. Im Unterschied zu isolierten KI-Tools erfolgt die Generierung innerhalb des bestehenden Figma-\u00d6kosystems, wodurch vollst\u00e4ndige Kontrolle \u00fcber Layout, Komponentenstruktur und Design-Systeme erhalten bleibt.<\/p>\n\n\n\n<p>Der Ansatz kombiniert Prompting mit strukturierter Design-System-Logik. KI-generierte Vorschl\u00e4ge basieren auf vorhandenen Component-Libraries (Komponentenbibliotheken) und Layout-Constraints. Dadurch entstehen High-Fidelity-Prototypen, die nah an realen Produktionsanforderungen liegen. Besonders relevant ist die M\u00f6glichkeit, bestehende Design-Systeme einzubinden (z.B. \u00fcber Code Connect), wodurch generierte Interfaces konsistent mit bestehenden UI-Anforderungen bleiben.<\/p>\n\n\n\n<p>Die prim\u00e4re Zielgruppe sind professionelle UI\/UX-Designer und Produktteams, die KI nicht als Ersatz, sondern als Hilfsmittel innerhalb eines kontrollierten Workflows einsetzen. Damit positioniert sich Figma Make als professionelles, systemintegriertes und generatives Designtool [17], [18].<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">B. Vom UI zum Code (Design-to-Code)<\/h3>\n\n\n\n<p><strong>Einordnung von Design-to-Code im SDLC: <\/strong>Design-to-Code-Ans\u00e4tze verorten sich an der Schnittstelle zwischen Designphase und Implementierung im Software Development Lifecycle (SDLC). Sie greifen auf fertige UI-Artefakte wie Wireframes, High-Fidelity-Mockups oder Design-System-Komponenten zur\u00fcck und \u00fcberf\u00fchren diese (teil-)automatisiert in lauff\u00e4higen Frontend-Code, anstatt dass Entwickler das Layout manuell aus Spezifikationen nachbauen. Dadurch wird der \u00dcbergang vom abstrakten UI-Entwurf zur konkreten Umsetzung verk\u00fcrzt und Designentscheidungen aus der vorangehenden Phase bleiben im Implementierungsschritt erhalten [8],&nbsp;[19].<\/p>\n\n\n\n<p>Im nachfolgenden Abschnitt werden zwei Tools f\u00fcr den Design-to-Code Ansatz betrachtet.<\/p>\n\n\n\n<p><strong>Figma Make als Design-to-Code-Plattform: <\/strong>Figma Make integriert Design-to-Code in eine bestehende, professionelle Designumgebung und zieht damit einen Teil der Implementierungsarbeit in die Designphase vor. Die Generierung erfolgt auf Basis von Komponenten, Varianten, Layoutvorgaben und Design-Tokens, sodass die generierten UI-Fragmente an ein zugrunde liegendes Design-System gekoppelt bleiben. Dadurch wird die Konsistenz und Wiederverwendbarkeit auch im generierten Code besser gewahrt, als es bei vorherigen \u201eFigma zu HTML\u201c-Convertern der Fall war. Die Kernidee von Figma Make als Design-to-Code-Plattform ist, dass ein High-Fidelity-Design gleichzeitig als Spezifikation und als prim\u00e4re Quelle f\u00fcr die Codegenerierung dient. Statt dass Entwickler ein Layout manuell replizieren, k\u00f6nnen sie aus markierten Frames oder Komponenten produktionsnahen Code erzeugen, der sich am vereinbarten Komponentenmodell orientiert (z.B. React-Komponenten). In idealen Workflows flie\u00dfen dabei bestehende Design-Systeme ein. Dadurch k\u00f6nnen etwa Buttons, Formularelemente oder Layout-Grids automatisch in Component-Libraries gemappt werden, anstatt f\u00fcr jedes Design neue Spezialf\u00e4lle zu erzeugen [20], [21], [22].<\/p>\n\n\n\n<p>Das Model Context Protocol (MCP) [23] erg\u00e4nzt diesen Ansatz um eine strukturiere Infrastruktur-Schicht, die KI-Systeme mit den relevanten Kontextquellen der Entwicklungsumgebung verbindet. Ein KI-Modell kann mithilfe dieses Protokolles auf Design-Dateien, Code-Repositories, Dokumentation, Design-Tokens oder Build-Systeme zugreifen, wobei diese Informationen standardisiert bereitgestellt werden. In einem Design-to-Code-Szenario kann ein Agent so nicht nur das Figma-Design \u201esehen\u201c, sondern auch auf das tats\u00e4chliche Frontend-Repository, das Design-System, Naming-Konventionen und Linting-Regeln zugreifen und seine Codegenerierung daran ausrichten.<\/p>\n\n\n\n<p>In einem kombinierten Figma-Make- und MCP-Setup entsteht dadurch ein Workflow: Figma liefert den visuellen und strukturellen Kontext, das Code-Repository liefert technische Randbedingungen und bestehende Komponenten, und die KI kann beide Quellen mithilfe von MCP konsistent zusammenf\u00fchren. Praktisch erm\u00f6glicht das Workflows wie beispielsweise, anhand eines Frames eine React-Komponente zu generieren, wobei auschlie\u00dflich bestehende Design-System-Komponenten verwendet werden und eine Anpassung an Tailwind-\/CSS-in-JS-Konventionen gew\u00e4hrleistet ist. F\u00fcr Teams bedeutet das, dass Design-to-Code nicht mehr als seperat vom Rest der Entwicklung verstanden wird, sondern als wiederholbarer, modularer Prozess, der sich in CI\/CD, Code-Reviews und Refactoring-Zyklen integrieren l\u00e4sst.<\/p>\n\n\n\n<p><strong>Agentenfokussierte IDEs am Beispiel Google Antigravity:<\/strong> Agentenfokussierte IDEs wie Google Antigravity erweitern klassische Code-Editoren um autonome KI-Agenten, die Aufgaben wie Code-Generierung, Refactoring, Fehleranalyse und UI-Anpassungen eigenst\u00e4ndig ausf\u00fchren k\u00f6nnen. Antigravity verfolgt dabei ein \u201eAgent-first\u201c-Ansatz: Entwickler formulieren Ziele in nat\u00fcrlicher Sprache, und ein oder mehrere KI-Agenten planen, implementieren und testen die notwendigen Schritte. Zus\u00e4tzlich wird auch ein reiner Agentenmodus angeboten, bei dem die Entwicklung vollst\u00e4ndig autonom durch KI-Agenten durchgef\u00fchrt wird [24], [25], [26].<\/p>\n\n\n\n<p>Im Kern besteht Antigravity aus drei Elementen: einer optionalen Editor-Ansicht, einem Agenten-Manager und einer Ausf\u00fchrungsumgebung, die Zugriff auf Terminal, Browser und Projektdateien bietet. Die KI-Agenten arbeiten auf Basis der bestehenden Codebasis. Darin k\u00f6nnen sie Tests ausf\u00fchren, UI im Browser \u00f6ffnen und Benutzerinteraktionen simulieren, um \u00c4nderungen direkt zu verifizieren. Nat\u00fcrliche Sprache, vorhandene Design-Artefakte (z.B. UI-Komponenten, Styles) und der Code werden dabei als gemeinsamer Kontext genutzt, sodass Anweisungen wie \u201ePasse das Layout dieses Dashboards f\u00fcr Mobile an\u201c m\u00f6glich sind. Google Antigravity basiert technisch auf Visual Studio Code und \u00fcbernimmt dessen Oberfl\u00e4che, Extension-\u00d6kosystem und Konfigurierbarkeit. Die IDE kann somit auch wie ein herk\u00f6mmlicher Editor ohne st\u00e4ndig aktive Agenten genutzt werden: Dateien k\u00f6nnen manuell bearbeitet werden, bestehende VS-Code-Erweiterungen k\u00f6nnen eingesetzt werden und die KI wird nur punktuell \u00fcber Prompts hinzugezogen. Der Agentenmodus ist damit eine optionale, aber fest integrierte Erweiterung der Arbeitsweise. <\/p>\n\n\n\n<p>F\u00fcr Design-to-Code-Workflows erlaubt Antigravity, von Figma-Designs oder textuellen UI-Spezifikationen zu produktionsnahem Code zu gelangen, indem Agenten schrittweise Komponenten, Styles und Layout-Strukturen erzeugen. Typische Interaktionen folgen einem iterativen Muster: Ein Agent generiert zun\u00e4chst eine UI-Implementierung, der Entwickler formuliert \u00c4nderungsw\u00fcnsche in nat\u00fcrlicher Sprache, und der Agent passt die Komponenten entsprechend an. \u00dcber die Browser-Steuerung und mit dem Terminal k\u00f6nnen Agenten anschlie\u00dfend Builds starten, die Anwendung in einem integrierten Browser \u00f6ffnen, Interaktionen automatisiert durchf\u00fchren und damit Tests und visuelle Checks in den Build- und Review-Prozess einbetten.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">C Empirische Bewertung<\/h3>\n\n\n\n<p>F\u00fcr die empirische Beurteilung wurden Literatur und eigene Untersuchungen mit den Tools herangzogen.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">1) Literatubasierte Bewertung der Generierungsqualit\u00e4t<\/h4>\n\n\n\n<p><strong>MLLM-as-a-judge: <\/strong>Multimodale Large Language Models (MLLMs) wie GPT-4o, Claude-3.7 oder Gemini dienen als automatisierte &#8220;Judges&#8221; (Richter) f\u00fcr generierte UIs. Sie bewerten anhand definierter Kriterien (Layouttreue, Responsivit\u00e4t, Anforderungserf\u00fcllung) auf Likert-Skalen (0- 10 Punkte) und liefern nachvollziehbare Begr\u00fcndungen. Bei einfachen Design-Editing-Aufgaben erreichen Top-Modelle 8,0- 9,1 Punkte und korrelieren mit menschlichen Bewertungen (Pearson r <em>\u2248<\/em> 0,75- 0,85). Bei komplexen Szenarien wie Layout-Reparaturen sinken Scores auf 6,5- 7,2, da semantische Nuancen und Edge-Cases (z.B. Accessibility) ungenau erfasst werden. Code-basierte Prompts (DOM-Struktur) \u00fcbertreffen Bild-Inputs um 0,7-1,0 Punkte durch pr\u00e4zisere semantische Extraktion. MLLMs eignen sich somit f\u00fcr schnelle Prototyp-Validierung, zeigen jedoch positional (positionsbedingten) Bias und Halluzinationen bei unklaren Prompts. [27]<\/p>\n\n\n\n<p><strong>CLIP: <\/strong>CLIP (Contrastive Language-Image Pretraining) misst die Cosinus-\u00c4hnlichkeit zwischen generierten UIs und Referenz-Screenshots. Beste MLLMs erzielen Scores von 0,60-0,83, wobei Vanilla-HTML\/CSS (0,72+) Frameworks wie React\/Tailwind (0,65-0,70) \u00fcbertrifft. Layouttreue korreliert bei einfachen Seiten stark (r = 0,82), sinkt jedoch bei komplexen Kompositionen um 15% durch \u00dcberlappungen und kleine Elemente. CLIP ist robust gegen\u00fcber Stilvariationen, untersch\u00e4tzt aber semantische Abweichungen (z.B. falsche Button-Labels). Kombiniert mit MLLM-Judges steigert es die Objektivit\u00e4t um 12-18%. [28]<\/p>\n\n\n\n<p>In einer 2025 durchgef\u00fchrten Studie wurden 10 MLLMs an 484 realen Webseiten getestet (Screenshot \u2192 Code). Es wurde ermittelt, dass 49 % der generierten Seiten die Originale visuell und funktional ersetzten; 64% werden von 200 menschlichen Bewertern besser bewertet (p &lt; 0,01). GPT-4V f\u00fchrt mit einer Erfolgsrate von 52%, gefolgt von Claude 3 (47%). Zu den Schw\u00e4chen geh\u00f6rt: Recall kleiner Elemente (~70 %), Layoutgenauigkeit sinkt bei mehr als 50 Komponenten (<em>\u0394<\/em> 15%). Des weiteren pr\u00e4ferieren Menschen moderne, \u201ecleanere&#8221; KI-Layouts trotz technischer Defizite. Die Studie best\u00e4tigt, dass Screenshot-to-Code machbar ist. Jedoch gibt es dabei keine Production-Readiness ohne Nachbearbeitung. [3]<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">2) Bewertung der untersuchten Tools<\/h4>\n\n\n\n<p>Tab.2 zeigt eine \u00dcbersicht \u00fcber die Einordnung der Tools, die in III-A und III-B beschrieben werden.<\/p>\n\n\n\n<figure class=\"wp-block-table\"><table class=\"has-fixed-layout\"><tbody><tr><td><strong>Tool<\/strong><\/td><td><strong>Positiv<\/strong><\/td><td><strong>Negativ<\/strong><\/td><\/tr><tr><td><strong>Uizard<\/strong><\/td><td>&#8211; Auch aus weniger guten Eingaben, wie beispielsweise einer unsauberen Skizze k\u00f6nnen brauchbar Prototypen entstehen<br>&#8211; Es werden keine tieferen Kenntnisse<br>f\u00fcr UX ben\u00f6tigt<\/td><td>&#8211; Die generierte Designs wirken oft generisch, was aber in fr\u00fchen Iterationsschritten weniger Probleme darstellt<\/td><\/tr><tr><td><strong>Google Stitch<\/strong><\/td><td>&#8211; Sehr schnelle Umwandlung von Referenzlayouts und Prompts in konsistente, responsive Oberfl\u00e4chen, was n\u00fctzlich f\u00fcr fr\u00fche Produktideen ist<br>&#8211; Liefert teilweise unerwartet kreative L\u00f6sungen<\/td><td>&#8211; Oft ist eine intensive manuelle Nacharbeitung notwendig<br>&#8211; Schw\u00e4che bei komplexen User Journeys<\/td><\/tr><tr><td><strong>Figma Make(Generatives Design)<\/strong><\/td><td>&#8211; Qualit\u00e4t der generierten Prototypen ist hoch<br>&#8211; Die Prototypen k\u00f6nnen manuell angepasst werden<br>&#8211; Nutzt bestehende Design-Systeme und Komponenten<\/td><td>&#8211; Auf den ersten Blick hochwertige Protoypen ben\u00f6tigen oft eine intensive Nacharbeitung<\/td><\/tr><tr><td><strong>Figma Make (Designto-Code)<\/strong><\/td><td>&#8211; Es k\u00f6nnen voll funktionsf\u00e4hige Anwendungen entstehen<br>&#8211; Kann auf reale Code-Komponenten und Produktionslogik zur\u00fcckgreifen, wodurch der Gap zwischen Prototyp und Implementierung reduziert wird.<\/td><td>&#8211; Die Integration in produktive Workflows ist noch nicht zuverl\u00e4ssig. Oft entstehen Workflows wie:<br>generierte Figma Make Datei -&gt; Umwandlung in einen herk\u00f6mmlichen Figma Prototyp -&gt; Generierung des produktiven Codes \u00fcber MCP<br>&#8211; Der generierte Code ist teilweise schwer wartbar<\/td><\/tr><tr><td><strong>Google Antigravity<\/strong><\/td><td>&#8211; Gute Integration von KI in eine bekannte Entwicklungsumgebung<br>&#8211; Starke Automatisierung durch Agenten: Generierung, Anpassung und Refactoring von UI-Code k\u00f6nnen iterativ mit nat\u00fcrlicher Sprache erfolgen.<\/td><td>&#8211; Die ausschlie\u00dfliche Verwendung des Agentmodus ist nicht zuverl\u00e4ssig f\u00fcr den produktiven Einsatz<br>&#8211; Qualit\u00e4t des generierten Codes schwankt und h\u00e4ngt stark von Projektkontext und Prompts ab<br>&#8211; Da die Entwickler im Agentenmodus keine Kenntnis \u00fcber den Code haben, kann es zu komplexem Debugging kommen<\/td><\/tr><\/tbody><\/table><figcaption class=\"wp-element-caption\"><em>Tab.2 &#8211; Einordnung der Tools<\/em><\/figcaption><\/figure>\n\n\n\n<p><\/p>\n\n\n\n<h2 class=\"wp-block-heading\">IV. Grenzen und Herausforderungen<\/h2>\n\n\n\n<p>Im Folgenden werden Grenzen und Herausforderungen beschrieben, bei der Frontend-Entwicklung mit KI-Tools aufkommen.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">A. Technische Limitationen<\/h3>\n\n\n\n<p><strong>Prompt-Sensitivit\u00e4t und Abh\u00e4ngigkeit vom Framework: <\/strong>KI-generierte UIs zeigen eine hohe Varianz bei minimalen Prompt-\u00c4nderungen. Die Ergebnisqualit\u00e4t h\u00e4ngt auch vom Ziel-Framework ab: Vanilla HTML\/CSS erzielt eine h\u00f6here Konsistenz als React\/Tailwind [29].<\/p>\n\n\n\n<p><strong>Erh\u00f6hter Debugging-Aufwand und schwer wartbarer Code:<\/strong>  KI-generierter Frontend-Code leidet h\u00e4ufig unter \u00fcberm\u00e4\u00dfiger Verschachtelung, inkonsistenter semantischer Namensgebung und unsauberer Architektur, was ihn schwer nachvollziehbar macht. Entwickler berichten, dass kleine Anpassungen, wie das Verschieben eines Elements, unerwartete Layoutbr\u00fcche ausl\u00f6sen, da die zugrunde liegende Struktur oft schlecht wartbar ist. Der resultierende \u201eAI-Slop&#8221; erschwert die langfristige Wartung [30], [31].<\/p>\n\n\n\n<p><strong>Fehlende Production Readiness:<\/strong> KI-Tools erzeugen oft visuell ansprechende Prototypen, liefern jedoch selten produktionsreifen Code. Edge-Cases, Fehlerbehandlung oder komplexe User Flows sind oft nicht vorhanden, ebenso wie grundlegende Accessibility-Standards. Ohne umfangreiches manuelles Refactoring eignen sich die Ergebnisse daher ausschlie\u00dflich f\u00fcr fr\u00fche Validierungen, nicht f\u00fcr den produktiven Einsatz [32].<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">B. Qualitative Aspekte<\/h3>\n\n\n\n<p><strong>Verlust von Tiefenwissen und Kreativit\u00e4t:<\/strong>  KI-gest\u00fctzte UI-Generierung neigt dazu, generische L\u00f6sungen zu reproduzieren, die auf statistischen Mustern beruhen, anstatt originelle Designentscheidungen zu treffen. Entwickler und Designer verlieren langfristig das intuitive Verst\u00e4ndnis f\u00fcr Layoutlogik, Komponentenhierarchien und usergest\u00fctzte Iterationen, da sie weniger manuell prototypen. Kreativit\u00e4t verschiebt sich von konzeptionellem Denken hin zu Prompt-Optimierung, wodurch tiefes Fachwissen, etwa zu Gestaltprinzipien oder kontextuellen Anforderungen, verk\u00fcmmert [33], [34].<\/p>\n\n\n\n<p><strong>Erh\u00f6hung der kognitiven Last bei der \u00dcberpr\u00fcfung von AI-Code:<\/strong> Die Bewertung von KI-generiertem Code erfordert intensives mentales Debugging, da Strukturen intransparent sind und Abweichungen vom Design subtil bleiben. Entwickler m\u00fcssen kontinuierlich zwischen visueller Validierung, semantischer Korrektheit und technischer Sauberkeit wechseln, was zu kognitiver \u00dcberlastung f\u00fchren kann. W\u00e4hrend die Generierung Zeit spart, verschiebt sich der Aufwand in die Qualit\u00e4tssicherung [35].<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">V. Einsatz in der Praxis<\/h2>\n\n\n\n<p>Der Einsatz von KI im Frontend Development hat in den Unternehmen an Bedeutung gewonnen: KI-gest\u00fctzte Tools werden zur Erstellung von Low- bis High-Fidelity Prototypen, zur Generierung von Boilerplate-Code sowie zur Unterst\u00fctzung bei UI-bezogenen Tests verwendet. Empirische Studien zeigen, dass rund 75% der Frontend-Teams entsprechende Tools bereits im t\u00e4glichen Entwicklungsprozess nutzen [36], [37]. Diese Adoptionsrate k\u00f6nnte unter anderem an steigenden Anforderungen an Time-to-Market, zunehmender Komplexit\u00e4t moderner Benutzeroberfl\u00e4chen sowie der konsistenten Umsetzung von Design-Systemen liegen. <\/p>\n\n\n\n<p>Bei der Verwendung dieser Tools geht es nicht um die vollst\u00e4ndige Automatisierung des Frontend Developments, sondern um die Beschleunigung und Entlastung manueller Entwicklungsarbeit. KI fungiert in der Unternehmenspraxis prim\u00e4r als Assistent, der repetitive T\u00e4tigkeiten reduziert und Entwicklerinnen und Entwickler in fr\u00fchen Entwurfs- und Implementierungsphasen unterst\u00fctzt, w\u00e4hrend konzeptionelle, gestalterische und qualit\u00e4tssichernde Aufgaben weiterhin in menschlicher Verantwortung verbleiben [36].<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">A. Typische Einsatzszenarien in Unternehmen<\/h3>\n\n\n\n<p><strong>Prototyping: <\/strong>Generierung von UI-Prototypen auf Basis von Prompts, Skizzen oder bestehenden Designs, mithilfe von Tools wie Uizard[14] oder Figma Make [17]. Damit k\u00f6nnen Varianten von Prototypen schneller erstellt und exploriert werden. Die Tools helfen Designern bei der Ideenfindung sowie bei der fr\u00fchen Validierung, wodurch Feedback-Zyklen deutlich verk\u00fcrzt werden [36].<\/p>\n\n\n\n<p><strong>Boilerplate- und Komponenten-Generierung:<\/strong> Automatisierte Erstellung wiederkehrender Frontend-Strukturen, etwa Layouts, Formulare oder einfache Komponenten. Damit kann die Zeit f\u00fcr repetitiver Implementierungsarbeit reduziert werden, was wiederum zu einer Beschleunigung der initialen Entwicklungsphase f\u00fchrt und der Fokus st\u00e4rker auf konzeptionelle und qualit\u00e4tssichernde Aufgaben gelegt werden.<\/p>\n\n\n\n<p><strong>Design-to-Code-Ans\u00e4tze:<\/strong> Tools wie Figma Make [17] oder Google Stitch [15] k\u00f6nnen Prototypen in Code umsetzen. Der Code ist zwar nicht &#8220;production-ready&#8221;, wird jedoch verwendet, um die Konsistenz zwischen Design und Implementierung zu erh\u00f6hen [36]. In diesem Kontext werden die Grenzen zwischen UI-Designer und Frontend-Developer flie\u00dfend.<\/p>\n\n\n\n<p><strong>KI-unterst\u00fctzte UI-Tests und Evaluation:<\/strong> Einsatz von KI zur Analyse von Prototypen, zur Simulation von Nutzerinteraktionen oder zur automatisierten Bewertung von Usability-Aspekten [38], [39]. Diese Verfahren erm\u00f6glichen eine fr\u00fchzeitige Identifikation von UX-Problemen und unterst\u00fctzen datengetriebene Designentscheidungen.<\/p>\n\n\n\n<p>Diese Einsatzszenarien zeigen, dass KI im Frontend Development in der Praxis nicht auf einzelne Tools oder Phasen beschr\u00e4nkt ist, sondern entlang mehrerer Schritte der UI-Entwicklung Anwendung findet. Der Schwerpunkt liegt dabei insbesondere auf fr\u00fchen Entwicklungsphasen wie Design von Prototypen und UX-Evaluation, in denen KI zur Beschleunigung von Iterationen und zur fr\u00fchzeitigen Validierung von Designentscheidungen eingesetzt wird.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">B. Integration in bestehende Entwicklungsprozesse<\/h3>\n\n\n\n<p>Der Nutzen von KI im Frontend Development ist abh\u00e4ngig von der Integration in bestehende Workflows. Unternehmen setzen KI vorallem dort ein, wo sie sich in etablierte Design- und Entwicklungstools einf\u00fcgt. Anstelle isolierter KI-L\u00f6sungen, setzen Organisationen auf integrierte L\u00f6sungen, welche die KI-Funktionalit\u00e4t direkt in IDEs, CI\/CD-Pipelines und Team-Workflows einbinden. So kann beispielsweise mit Figma Code Connect [18] das firmeneigene Design-System von einem KI Agenten verwendet werden. Dabei greift ein KI Agent mittels MCP auf das Design-System zu, wodurch sichergestellt wird, dass KI-generierte Frontends mit Corporate Design, Accessibility-Anforderungen und Wartbarkeitszielen kompatibel bleiben.<\/p>\n\n\n\n<p>Eine weitere Verwendung ist die Einbindung von KI-gest\u00fctzten UI-Tests in die CI\/CD-Pipeline. Automatisierte Tests k\u00f6nnen Code analysieren, Interaktionen simulieren und Usability- oder Design-Abweichungen erkennen [40]. Durch die Integration in die CI\/CD-Prozesse lassen sich Fehler fr\u00fchzeitig identifizieren, Feedbackzyklen verk\u00fcrzen und die Qualit\u00e4t von Frontend-Anwendungen w\u00e4hrend der Entwicklung kontinuierlich gew\u00e4hrleisten.<\/p>\n\n\n\n<p>Unternehmen, die solche Integrationsstrategien verfolgen, berichten \u00fcber messbare Effizienzgewinne und Qualit\u00e4tsverbesserungen, unter anderem durch eine Reduktion der Zeit bis zur Code-Fertigung und verbesserte Konsistenz zwischen Design und Implementierung [41].<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">C. Qualit\u00e4tssicherung und Risiken<\/h3>\n\n\n\n<p>Mit der zunehmenden Verbreitung von KI im Frontend Development r\u00fcckt die Qualit\u00e4tssicherung von KI-generierten Elementen in den Fokus, da Fehler direkte Auswirkungen auf UX, Wartbarkeit und Sicherheit haben k\u00f6nnen. Der McKinsey-Report \u201eThe state of AI: How organizations are rewiring to capture value\u201c [42] zeigt, dass Unternehmen zwar Governance- und Risikostrukturen etablieren, jedoch die tats\u00e4chliche Pr\u00fcfung von KI-Ergebnissen oft l\u00fcckenhaft bleibt. Nur 27 Prozent der befragten Organisationen, die GenAI einsetzen, geben an, dass Mitarbeitende s\u00e4mtliche generierten Inhalte vor ihrer Nutzung \u00fcberpr\u00fcfen, w\u00e4hrend ein \u00e4hnlich gro\u00dfer Anteil berichtet, dass 20 Prozent oder weniger der Inhalte kontrolliert werden. Diese L\u00fccke im Human-in-the-loop-Ansatz kann im Frontend unentdeckte Probleme in Prototypen, Code oder Tests zur Folge haben. Forschungen zu GenAI im Software Engineering weisen zus\u00e4tzlich auf Risiken wie Halluzinationen im Code, erh\u00f6hte Komplexit\u00e4t, Wartbarkeitsprobleme, Sicherheitsl\u00fccken sowie IP- und Compliance-Fragen hin [5]. Daher sollte KI nur als Assistenz-Tool eingesetzt und in Review-Prozessen oder automatisierten Analysen wie CI\/CD Pipelines klare Richtlinien f\u00fcr KI integriert werden.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">VI. Transformation der Frontend-Rolle durch KI<\/h2>\n\n\n\n<p>Die Verwendung von KI-Tools, wie sie im vorherigen Kapitel beschrieben wurde, ver\u00e4ndert nicht nur technische Workflows, sondern f\u00fchrt zu einer Transformation des Berufsbildes von Frontend-Entwickler. W\u00e4hrend repetitive Aufgaben automatisiert werden, verschiebt sich der Fokus auf \u00fcbergeordnete Kompetenzen, die menschliche Urteilskraft und Kreativit\u00e4t erfordern. Diese Entwicklung wird durch empirische Studien gest\u00fctzt, die eine Verschiebung der gefragten Skills belegen [36].<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">A. Meinungen aus der Praxis: Optimismus vs. Existenzangst<\/h3>\n\n\n\n<p>Die Wahrnehmung von KI im Frontend Development ist stark polarisiert: Gibt es einerseits Begeisterung bei Effizienzgewinnen, so gibt es andererseits fundamentale \u00c4ngste \u00fcber einen m\u00f6glichen Jobverlust. Laut TSH State of Frontend 2024 [36] sind 60,6% der Befragten \u00fcberzeugt, dass KI die Frontend-Arbeit \u201ef\u00fcr immer verbessern&#8221; wird, w\u00e4hrend nur 3,2% einen vollst\u00e4ndigen Jobverlust erwarten.<\/p>\n\n\n\n<p>Dennoch \u00e4u\u00dfern viele in Foren wie Reddit existenzielle Sorgen:\u201eAlles f\u00fchlt sich sinnlos an&#8221; oder \u201eJobverlust durch Automatisierung durch KI&#8221; [43]. Demgegen\u00fcber stehen Berichte von Einzelpersonen, die mithilfe von KI innerhalb k\u00fcrzester Zeit erfolgreiche Anwendungen entwickeln und monetarisieren konnten, was KI als starken Innovations- und Beschleunigungsfaktor erscheinen l\u00e4sst [44].<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Pro-KI<\/strong> Entwickler berichten von massiven Produktivit\u00e4tssteigerungen, sehen sich als \u201eOrchestrierer&#8221; von KI-Agenten und betonen die Notwendigkeit von Review-F\u00e4higkeiten statt Syntax-Kenntnissen.<br><\/li>\n\n\n\n<li><strong>Anti-KI<\/strong> Kritiker warnen vor schlecht wartbarem, inkonsistentem KI-generiertem Code (\u201eAI-Slop-Code\u201c), Modellhalluzinationen sowie wachsender Systemkomplexit\u00e4t. Zudem wird ein erh\u00f6hter Debugging-Aufwand, zunehmende Technical Debt und ein schleichender Verlust von Dom\u00e4nenwissen bef\u00fcrchtet.<\/li>\n<\/ul>\n\n\n\n<p>Diese Diskrepanz spiegelt die zwei Seiten der Transformation wider: Optimisten sehen Befreiung von Routine, Skeptiker f\u00fcrchten Qualit\u00e4tsverlust und Dequalifizierung. Beide Positionen konvergieren jedoch darin, dass menschliche Urteilskraft unverzichtbar bei Bewertung oder Steuerung von KI bleibt.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">B. Skill Shift<\/h3>\n\n\n\n<p>F\u00fcr Berufseinsteiger sinkt die Einstiegsh\u00fcrde, da erste Prototypen, Layouts und Codeelemente schnell generiert werden k\u00f6nnen. Gleichzeitig besteht jedoch die Gefahr, dass tiefes technisches Verst\u00e4ndnis und Dom\u00e4nenwissen weniger stark aufgebaut werden.<\/p>\n\n\n\n<p>Aufgaben wie das manuelle Erstellen von Standard-UIs, das Schreiben von Boilerplate-Code oder tiefes Verst\u00e4ndnis von Framework-Syntax verlieren an Relevanz, weil generative KI Werkzeuge gro\u00dfe Teile dieser T\u00e4tigkeiten automatisieren k\u00f6nnen. Die Anforderungen an Frontend-Enwickler verschieben sich auf F\u00e4higkeiten, die \u00fcber reine Implementierung hinausgehen. Ein tiefes Verst\u00e4ndnis von UI- und UX-Konzepten wie Design Thinking, User-Centered Design oder Sicherstellung von Accessibility wird wichtiger, um KI-gest\u00fctzte Prototypen kritisch zu bewerten und nutzerzentrierte L\u00f6sungen zu finden [45]. Ebenso wird der Skill des Promptings wichtiger, da Entwickler den KI Content bewerten, optimieren und in bestehende Systeme integrieren m\u00fcssen. Auch Kenntnisse in Systemarchitektur und Clean Code nehmen an Relevanz zu, um KI-generiertern Code in bestehende Anwendungen richtig zu integrieren und der Code weiterhin verst\u00e4ndlich bleiben sollte.<\/p>\n\n\n\n<p>Studien zur KI-gest\u00fctzten Softwareentwicklung zeigen, dass Teams vorallem dann von KI profitieren, wenn sie den Modelloutput steuern, Qualit\u00e4tsprobleme fr\u00fchzeitig erkennen und den generierten Code in stabile Architekturen einbetten [3].<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">C. KI als Reduktion der \u201eAccidental Complexity&#8221;<\/h3>\n\n\n\n<p>Fred Brooks unterscheidet in \u201eNo Silver Bullet\u201c [4] zwischen \u201eessential complexity\u201c (inh\u00e4rente Komplexit\u00e4t der Anforderungen und Dom\u00e4ne) und \u201eaccidental complexity\u201c (Komplexit\u00e4t, die durch Werkzeuge, Syntax oder Infrastruktur entsteht). Generative KI adressiert im Frontend Development vor allem die accidental complexity: Sie reduziert Aufw\u00e4nde f\u00fcr Boilerplate, Framework-Konfiguration oder repetitive Implementierungsschritte, indem sie Code generiert, Varianten vorschl\u00e4gt und Tooling-Aufgaben \u00fcbernimmt. Die \u201eessential complexity&#8221;, also das pr\u00e4zise Verstehen von Nutzerbed\u00fcrfnissen, Umsetzen von Usability Anforderungen und Barrierefreiheit bleibt dagegen bestehen und wird durch KI oft sogar sichtbarer, weil die Engp\u00e4sse weniger im Tippen, sondern im Formulieren und Bewerten von Anforderungen liegen. KI kann die Umsetzungsgeschwindigkeit signifikant erh\u00f6hen und visuell \u00fcberzeugende UIs generieren, l\u00f6st aber weder das Problem unklarer Anforderungen noch die Notwendigkeit, tiefgreifende Design- und Architekturentscheidungen zu treffen.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">VII. Ausblick    <\/h2>\n\n\n\n<figure class=\"wp-block-image size-large is-resized\"><a href=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2026\/02\/ausblick.png\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"696\" data-attachment-id=\"28534\" data-permalink=\"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/2026\/02\/20\/auswirkung-der-integration-von-ki-auf-den-software-development-lifecycle-mit-fokus-auf-frontend-entwicklung\/ausblick\/\" data-orig-file=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2026\/02\/ausblick.png\" data-orig-size=\"1388,944\" data-comments-opened=\"1\" data-image-meta=\"{&quot;aperture&quot;:&quot;0&quot;,&quot;credit&quot;:&quot;&quot;,&quot;camera&quot;:&quot;&quot;,&quot;caption&quot;:&quot;&quot;,&quot;created_timestamp&quot;:&quot;0&quot;,&quot;copyright&quot;:&quot;&quot;,&quot;focal_length&quot;:&quot;0&quot;,&quot;iso&quot;:&quot;0&quot;,&quot;shutter_speed&quot;:&quot;0&quot;,&quot;title&quot;:&quot;&quot;,&quot;orientation&quot;:&quot;0&quot;}\" data-image-title=\"ausblick\" data-image-description=\"\" data-image-caption=\"\" data-large-file=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2026\/02\/ausblick-1024x696.png\" src=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2026\/02\/ausblick-1024x696.png\" alt=\"\" class=\"wp-image-28534\" style=\"width:544px;height:auto\" srcset=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2026\/02\/ausblick-1024x696.png 1024w, https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2026\/02\/ausblick-300x204.png 300w, https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2026\/02\/ausblick-768x522.png 768w, https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2026\/02\/ausblick.png 1388w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/a><figcaption class=\"wp-element-caption\"><em>Fig. 2 &#8211; Wie wird KI zuk\u00fcnftig Frontend-Development beeinflussen?<\/em><\/figcaption><\/figure>\n\n\n\n<p>Der Einsatz von KI im Frontend-Development wird sich in den kommenden Jahren weiter von programmspezifischer Unterst\u00fctzung hin zu st\u00e4rker agentenbasierten, teilautonomen Workflows entwickeln. Erste Szeanrien zeigen, dass KI-Agenten bereits heute ganze UI-Screens von Figma-Designs bis zu funktionierenden Komponenten generieren und dabei Design-Systeme sowie Performance-Anforderungen ber\u00fccksichtigen k\u00f6nnen. 60,6% der befragten Frontend-Entwickler denken, dass KI ihre Arbeit dauerhaft verbessern wird, w\u00e4hrend nur 3,2% mit vollst\u00e4ndiger Ersetzung rechnet [36].<\/p>\n\n\n\n<p>In Zukunft k\u00f6nnte Hyper-Personalisierung von Benutzerschnittstellen eine Rolle spielen: Generative-UI-Ans\u00e4tze erm\u00f6glichen adaptive Oberfl\u00e4chen, die sich in Echtzeit an Nutzungsdaten, Kontext und Pr\u00e4ferenzen anpassen [46]. F\u00fcr Frontend-Teams bedeutet das eine Verschiebung hin zu datengetriebener UX-Optimierung, kontinuierlichem Experimentieren (z.B. A\/B-Tests in Echtzeit) und der Gestaltung von Guardrails f\u00fcr KI-Systeme, um Transparenz und Kontrolle sicherzustellen.<\/p>\n\n\n\n<p>Der Beruf des Frontend-Developers wird sind mehr in eine Architekten-Rolle verschieben. Anstatt Komponenten von Hand zu designen und implmenetieren, wird es wichtiger, KI-Workflows zu entwerfen, Design-Systeme konsistent einzubinden und langfristig wartbare Strukturen zu definieren [3]. Au\u00dferdem k\u00f6nnte die Rolle zwischen Design und Entwicklung weiter verschwimmen: KI-gest\u00fctzte Tools machen es Entwickler leichter, in fr\u00fchen Designphasen mitzuwirken, w\u00e4hrend UI\/UX-Designer direkt mit Code-nahen Designs arbeiten. In cross-funktionalen Teams k\u00f6nnten hybride Profile entstehen, in denen gestalterische und technische Entscheidungen gemeinsam getroffen werden.<\/p>\n\n\n\n<p>Vor diesem Hintergrund ergeben sich mehrere offene Forschungsfragen:<em> Wie lassen sich Metriken f\u00fcr die Qualit\u00e4t von KI-generierten UIs (z.B. hinsichtlich UX, Accessibility, Maintainability) standardisieren? Welche Rollen- und Skill-Profile etablieren sich langfristig in Teams, in denen ein Gro\u00dfteil des Codes KI-generiert ist?<\/em> Und <em>Wie k\u00f6nnen Design- und Architekturentscheidungen so dokumentiert werden, dass sie auch in stark KI-getriebenen Entwicklungsprozessen steuerbar und \u00fcberpr\u00fcfbar bleiben?<\/em><\/p>\n\n\n\n<h2 class=\"wp-block-heading\">VIII. Fazit<\/h2>\n\n\n\n<p>Die vorliegende Arbeit verdeutlicht, dass die Integration K\u00fcnstlicher Intelligenz in die Frontend-Entwicklung nicht ausschlie\u00dflich eine reine Effizienzsteigerung ist, sondern eine strukturelle Transformation des Software Development Lifecycle (SDLC) darstellt. Die Analyse der \u201eIdea-to-Design\u201c- und \u201eDesign-to-Code\u201c-Workflows zeigt, dass aktuelle MLLMs und KI-Agenten-Umgebungen wie Google Antigravity oder Figma Make bereits heute in der Lage sind, die Implementierungsphase stark zu verk\u00fcrzen. Sie unterst\u00fctzen dabei besonders beim Rapid Prototyping und bei der Reduktion der \u201eAccidental Complexity\u201c.<\/p>\n\n\n\n<p>Dennoch korreliert ein anschauliches Layout und eine \u00fcberzeugende Darstellung der KI-generierten Artefakte nicht zwangsl\u00e4ufig mit technischer Qualit\u00e4t. Die empirischen Ergebnisse und Literaturanalysen weisen darauf hin, dass die \u201eProduction Readiness\u201c aufgrund von Defiziten in der Barrierefreiheit, Wartbarkeit und semantischen Korrektheit (\u201eAI-Slop\u201c) ohne menschliche Pr\u00fcfung und Korrektur oft nicht gegeben ist. In \u00dcbereinstimmung mit Brooks&#8217; Theorem bleibt die \u201eEssential Complexity\u201c eine Aufgabe f\u00fcr menschliche Entwickler.<\/p>\n\n\n\n<p>KI ersetzt somit nicht den Frontend Entwickler, sondern nimmt eine unterst\u00fctzende Rolle ein und verschiebt den Schwerpunkt weg von der Implementierung hin zur Orchestrierung, Bewertung und Einbettung von KI-Ergebnissen. Unabh\u00e4ngig von der Leistung der KI Tools bleibt ein ausschlaggebender Faktor f\u00fcr k\u00fcnftige Frontend Projekte wohl weiterhin der Human-in-the-loop.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Quellen<\/h2>\n\n\n<p>[1] R. S. Pressman, <em>Software Engineering: A Practitioner&#8217;s Approach<\/em>, 8th ed. New York: McGraw-Hill Education, 2014.<\/p>\n<p>[2] B. A. Myers, S. E. Hudson, and R. Pausch, &#8220;Past, present, and future of user interface software tools,&#8221; <em>ACM Transactions on Computer-Human Interaction (TOCHI)<\/em>, vol. 7, no. 1, pp. 3\u201328, 2000.<\/p>\n<p>[3] C. Si, Y. Zhang, R. Li, Z. Yang, R. Liu, and D. Yang, &#8220;Design2code: Benchmarking multimodal code generation for automated front-end engineering,&#8221; 2025. [Online]. Available: <a href=\"https:\/\/arxiv.org\/abs\/2403.03163\" target=\"_blank\" rel=\"noopener noreferrer\">https:\/\/arxiv.org\/abs\/2403.03163<\/a><\/p>\n<p>[4] J. Brooks, Frederick P., &#8220;No silver bullet: Essence and accident in software engineering,&#8221; <em>IEEE Computer<\/em>, vol. 20, no. 4, pp. 10\u201319, 1987, originally presented at the IFIP Tenth World Computing Conference, 1986. [Online]. Available: <a href=\"https:\/\/worrydream.com\/refs\/Brooks_1986_-_No_Silver_Bullet.pdf\" target=\"_blank\" rel=\"noopener noreferrer\">https:\/\/worrydream.com\/refs\/Brooks_1986_-_No_Silver_Bullet.pdf<\/a><\/p>\n<p>[5] A. Haque, S. Siddique, M. M. Rahman, A. R. Hasan, L. R. Das, M. Kamal, T. Masura, and K. D. Gupta, &#8220;Sok: Exploring hallucinations and security risks in ai-assisted software development with insights for llm deployment,&#8221; 2025. [Online]. Available: <a href=\"https:\/\/arxiv.org\/abs\/2502.18468\" target=\"_blank\" rel=\"noopener noreferrer\">https:\/\/arxiv.org\/abs\/2502.18468<\/a><\/p>\n<p>[6] G. B. Shelly and H. J. Rosenblatt, <em>Systems Analysis and Design<\/em>, 9th ed. Boston: Cengage Learning, 2011.<\/p>\n<p>[7] I. Sommerville, <em>Software Engineering<\/em>, 10th ed. Boston: Pearson, 2015.<\/p>\n<p>[8] Fegno Technologies. (2024) Phases of the software development lifecycle. Accessed: 20. Februar 2026. [Online]. Available: <a href=\"https:\/\/www.fegno.com\/software-development-lifecycle-sdlc\/\" target=\"_blank\" rel=\"noopener noreferrer\">https:\/\/www.fegno.com\/software-development-lifecycle-sdlc\/<\/a><\/p>\n<p>[9] L. Bass, P. Clements, and R. Kazman, <em>Software Architecture in Practice<\/em>, 3rd ed. Upper Saddle River: Addison-Wesley Professional, 2012.<\/p>\n<p>[10] X. French, <em>The Web Development Life Cycle<\/em>. Boston: Cengage Learning, 2011.<\/p>\n<p>[11] B. Shneiderman, C. Plaisant, M. Cohen, S. Jacobs, N. Elmqvist, and N. Diakopoulos, <em>Designing the User Interface: Strategies for Effective Human-Computer Interaction<\/em>, 6th ed. Boston: Pearson, 2016.<\/p>\n<p>[12] J. J. Garrett, <em>The Elements of User Experience: User-Centered Design for the Web and Beyond<\/em>, 2nd ed. Berkeley: New Riders, 2010.<\/p>\n<p>[13] C. Ebert and P. Lourdes, &#8220;Generative ai for software engineering,&#8221; <em>IEEE Software<\/em>, vol. 40, no. 3, pp. 24\u201329, 2023.<\/p>\n<p>[14] Uizard. (2026) Uizard: Ui design made easy, powered by ai. Accessed: 2026-02-09. [Online]. Available: <a href=\"https:\/\/uizard.io\/\" target=\"_blank\" rel=\"noopener noreferrer\">https:\/\/uizard.io\/<\/a><\/p>\n<p>[15] V. Nallatamby, A. Benard, and S. El-Husseini. (2025, May) From idea to app: Introducing stitch, a new way to design uis. <em>Google Developers Blog<\/em>. Accessed: 2026-02-09. [Online]. Available: <a href=\"https:\/\/developers.googleblog.com\/stitch-a-new-way-to-design-uis\/\" target=\"_blank\" rel=\"noopener noreferrer\">https:\/\/developers.googleblog.com\/stitch-a-new-way-to-design-uis\/<\/a><\/p>\n<p>[16] Google. Stitch \u2013 mit ki im handumdrehen designs entwerfen. Accessed: 2026-02-09. [Online]. Available: <a href=\"https:\/\/stitch.withgoogle.com\/\" target=\"_blank\" rel=\"noopener noreferrer\">https:\/\/stitch.withgoogle.com\/<\/a><\/p>\n<p>[17] Figma. (2025) Figma make \u2013 ai-gest\u00fctztes design- und prototyping-tool. Accessed: 2026-02-09. [Online]. Available: <a href=\"https:\/\/www.figma.com\/de-de\/make\/\" target=\"_blank\" rel=\"noopener noreferrer\">https:\/\/www.figma.com\/de-de\/make\/<\/a><\/p>\n<p>[18] Figma. (2026) Code connect \u2013 figma help center. Accessed: 2026-02-09. [Online]. Available: <a href=\"https:\/\/help.figma.com\/hc\/en-us\/articles\/23920389749655-Code-Connect\" target=\"_blank\" rel=\"noopener noreferrer\">https:\/\/help.figma.com\/hc\/en-us\/articles\/23920389749655-Code-Connect<\/a><\/p>\n<p>[19] Builder.io. (2024, Nov.) What is design to code: an automated approach. Accessed: 2026-02-09. [Online]. Available: <a href=\"https:\/\/www.builder.io\/m\/knowledge-center\/design-to-code\" target=\"_blank\" rel=\"noopener noreferrer\">https:\/\/www.builder.io\/m\/knowledge-center\/design-to-code<\/a><\/p>\n<p>[20] Figma Inc. Design to code with ai in figma make. Accessed: 2026-02-09. [Online]. Available: <a href=\"https:\/\/www.figma.com\/solutions\/design-to-code\/\" target=\"_blank\" rel=\"noopener noreferrer\">https:\/\/www.figma.com\/solutions\/design-to-code\/<\/a><\/p>\n<p>[21] Figma Inc. Design to code with ai in figma make. Accessed: 2026-02-09. [Online]. Available: <a href=\"https:\/\/www.figma.com\/make\/\" target=\"_blank\" rel=\"noopener noreferrer\">https:\/\/www.figma.com\/make\/<\/a><\/p>\n<p>[22] Figma Inc. Ai design systems generator in figma make. Accessed: 2026-02-09. [Online]. Available: <a href=\"https:\/\/www.figma.com\/solutions\/ai-design-systems-generator\" target=\"_blank\" rel=\"noopener noreferrer\">https:\/\/www.figma.com\/solutions\/ai-design-systems-generator<\/a><\/p>\n<p>[23] LF Projects. What is the model context protocol (mcp)? Accessed: 2026-02-08. [Online]. Available: <a href=\"https:\/\/modelcontextprotocol.io\/docs\/getting-started\/intro\" target=\"_blank\" rel=\"noopener noreferrer\">https:\/\/modelcontextprotocol.io\/docs\/getting-started\/intro<\/a><\/p>\n<p>[24] Google LLC. Experience liftoff with the next-generation ide. Accessed: 2026-02-08. [Online]. Available: <a href=\"https:\/\/antigravity.google\/\" target=\"_blank\" rel=\"noopener noreferrer\">https:\/\/antigravity.google\/<\/a><\/p>\n<p>[25] Google Antigravity Team. (2025, Nov.) Build with google antigravity, our new agentic development platform. Accessed: 2026-02-08. [Online]. Available: <a href=\"https:\/\/developers.googleblog.com\/build-with-google-antigravity-our-new-agentic-development-platform\/\" target=\"_blank\" rel=\"noopener noreferrer\">https:\/\/developers.googleblog.com\/build-with-google-antigravity-our-new-agentic-development-platform\/<\/a><\/p>\n<p>[26] R. I. and M. Atamel. (2026, Feb.) Getting started with google antigravity. <em>Google Codelabs<\/em>. Accessed: 2026-02-16. [Online]. Available: <a href=\"https:\/\/codelabs.developers.google.com\/getting-started-google-antigravity\" target=\"_blank\" rel=\"noopener noreferrer\">https:\/\/codelabs.developers.google.com\/getting-started-google-antigravity<\/a><\/p>\n<p>[27] R. A. L. et al., &#8220;Mllm as a ui judge: Benchmarking multimodal llms for ui evaluation,&#8221; arXiv:2510.08783, Oct. 2025, accessed: 2026-02-12. [Online]. Available: <a href=\"https:\/\/arxiv.org\/abs\/2510.08783\" target=\"_blank\" rel=\"noopener noreferrer\">https:\/\/arxiv.org\/abs\/2510.08783<\/a><\/p>\n<p>[28] J. Xiao, M. Wang, M. H. Lam, Y. Wan, J. Liu, Y. Huo, and M. R. Lyu, &#8220;Designbench: A comprehensive benchmark for mllm-based front-end code generation,&#8221; arXiv:2506.06251, Jun. 2025, accessed: 2026-02-08.<\/p>\n<p>[29] H. Subramonyam, D. Thakkar, A. Ku, J. Dieber, and A. Sinha. (2025, Mar.) Prototyping with prompts: Emerging approaches and challenges in generative ai design for collaborative software teams. Accessed: 2026-02-08. [Online]. Available: <a href=\"https:\/\/arxiv.org\/pdf\/2402.17721\" target=\"_blank\" rel=\"noopener noreferrer\">https:\/\/arxiv.org\/pdf\/2402.17721<\/a><\/p>\n<p>[30] GitClear. (2025) Ai assistant code quality research 2025. Accessed: 2026-02-12. [Online]. Available: <a href=\"https:\/\/www.gitclear.com\/ai_assistant_code_quality_2025_research\" target=\"_blank\" rel=\"noopener noreferrer\">https:\/\/www.gitclear.com\/ai_assistant_code_quality_2025_research<\/a><\/p>\n<p>[31] FabulousBluebird931. (2025, Jun.) Ai made me a beautiful ui&#8230; that i now fear touching. Accessed: 2026-02-12. [Online]. Available: <a href=\"https:\/\/www.reddit.com\/r\/BlackboxAl\/comments\/1li8mlu\" target=\"_blank\" rel=\"noopener noreferrer\">https:\/\/www.reddit.com\/r\/BlackboxAl\/comments\/1li8mlu<\/a><\/p>\n<p>[32] (2025, Aug.) Vercel v0 review 2025: What most developers get wrong about it. <em>Trickle<\/em>. Accessed: 2026-02-12. [Online]. Available: <a href=\"https:\/\/trickle.so\/blog\/vercel-v0-review\" target=\"_blank\" rel=\"noopener noreferrer\">https:\/\/trickle.so\/blog\/vercel-v0-review<\/a><\/p>\n<p>[33] C. Kure and J. Kasch. (2025) Ki im ux-design: Warum es auf den menschen ankommt. <em>Slashwhy<\/em>. Accessed: 2026-02-08. [Online]. Available: <a href=\"https:\/\/www.slashwhy.de\/de\/blog\/genai-ki-user-experience-ux-design-software\" target=\"_blank\" rel=\"noopener noreferrer\">https:\/\/www.slashwhy.de\/de\/blog\/genai-ki-user-experience-ux-design-software<\/a><\/p>\n<p>[34] S. K\u00fcbler. (2024) Das zusammenspiel von ui\/ux-design und k\u00fcnstlicher intelligenz. Accessed: 2026-02-08. [Online]. Available: <a href=\"https:\/\/www.econsor.de\/news\/ui-ux\/das-zusammenspiel-von-ui-ux-design-und-kuenstlicher-intelligenz\/\" target=\"_blank\" rel=\"noopener noreferrer\">https:\/\/www.econsor.de\/news\/ui-ux\/das-zusammenspiel-von-ui-ux-design-und-kuenstlicher-intelligenz\/<\/a><\/p>\n<p>[35] J. B., N. R., E. B., and D. Rein, &#8220;Measuring the impact of early-2025 ai on experienced open-source developer productivity,&#8221; arXiv:2507.09089, Jul. 2025, accessed: 2026-02-08. [Online]. Available: <a href=\"https:\/\/arxiv.org\/abs\/2507.09089\" target=\"_blank\" rel=\"noopener noreferrer\">https:\/\/arxiv.org\/abs\/2507.09089<\/a><\/p>\n<p>[36] The Software House. (2024) State of frontend 2024. Accessed: 2026-02-09. [Online]. Available: <a href=\"https:\/\/tsh.io\/state-of-frontend\" target=\"_blank\" rel=\"noopener noreferrer\">https:\/\/tsh.io\/state-of-frontend<\/a><\/p>\n<p>[37] Stack Overflow. (2025) Ai | 2025 stack overflow developer survey. Accessed: 2026-02-09. [Online]. Available: <a href=\"https:\/\/survey.stackoverflow.co\/2025\/ai#developer-tools-ai-acc-prof\" target=\"_blank\" rel=\"noopener noreferrer\">https:\/\/survey.stackoverflow.co\/2025\/ai#developer-tools-ai-acc-prof<\/a><\/p>\n<p>[38] Google Antigravity. (2025) Use case: Why frontend developers choose google antigravity. Accessed: 2026-02-09. [Online]. Available: <a href=\"https:\/\/antigravity.google\/use-cases\/frontend\" target=\"_blank\" rel=\"noopener noreferrer\">https:\/\/antigravity.google\/use-cases\/frontend<\/a><\/p>\n<p>[39] TestMu AI. (2026) Testmu ai \u2013 ai-native unified testing platform. Accessed: 2026-02-09. [Online]. Available: <a href=\"https:\/\/www.testmuai.com\/\" target=\"_blank\" rel=\"noopener noreferrer\">https:\/\/www.testmuai.com\/<\/a><\/p>\n<p>[40] BrowserStack. (2025) Best automated visual testing tools: Features, pros, and cons. [Online]. Available: <a href=\"https:\/\/www.browserstack.com\/guide\/best-automated-visual-testing-tools\" target=\"_blank\" rel=\"noopener noreferrer\">https:\/\/www.browserstack.com\/guide\/best-automated-visual-testing-tools<\/a><\/p>\n<p>[41] A. Authors, &#8220;Integrating ai-driven test case optimization into continuous integration\/continuous delivery (ci\/cd) pipeline,&#8221; <em>SSRN<\/em>, 2025. [Online]. Available: <a href=\"https:\/\/papers.ssrn.com\/sol3\/papers.cfm?abstract_id=5252630\" target=\"_blank\" rel=\"noopener noreferrer\">https:\/\/papers.ssrn.com\/sol3\/papers.cfm?abstract_id=5252630<\/a><\/p>\n<p>[42] A. Singla, A. Sukharevsky, L. Yee, M. Chui, and B. Hall, &#8220;The state of ai: How organizations are rewiring to capture value,&#8221; Mar. 2025, accessed: 2026-02-09. [Online]. Available: <a href=\"https:\/\/www.mckinsey.com\/capabilities\/quantumblack\/our-insights\/the-state-of-ai-how-organizations-are-rewiring-to-capture-value\" target=\"_blank\" rel=\"noopener noreferrer\">https:\/\/www.mckinsey.com\/capabilities\/quantumblack\/our-insights\/the-state-of-ai-how-organizations-are-rewiring-to-capture-value<\/a><\/p>\n<p>[43] Babyyougotastew4422. (2025, Oct.) Getting depressed because of ai. Reddit post on r\/UIUX forum, accessed 2026-02-09. [Online]. Available: <a href=\"https:\/\/www.reddit.com\/r\/UIUX\/comments\/1obooq1\/getting_depressed_because_of_ai\/\" target=\"_blank\" rel=\"noopener noreferrer\">https:\/\/www.reddit.com\/r\/UIUX\/comments\/1obooq1\/getting_depressed_because_of_ai\/<\/a><\/p>\n<p>[44] D. Patel. (2025, Jan.) The secret to success: How this 17-year-old quietly built a $1.12m\/month ai app. Accessed: 2026-02-09. [Online]. Available: <a href=\"https:\/\/www.cloudwirehub.com\/post\/the-secret-to-success-how-this-17-year-old-quietly-built-a-1-12m-month-ai-app\" target=\"_blank\" rel=\"noopener noreferrer\">https:\/\/www.cloudwirehub.com\/post\/the-secret-to-success-how-this-17-year-old-quietly-built-a-1-12m-month-ai-app<\/a><\/p>\n<p>[45] A. Khan, A. Shokrizadeh, and J. Cheng, &#8220;Beyond automation: How designers perceive ai as a creative partner in the divergent thinking stages of ui\/ux design,&#8221; in <em>Proceedings of the 2025 CHI Conference on Human Factors in Computing Systems<\/em>, ser. CHI &#8217;25. ACM, Apr. 2025, pp. 1\u201312. [Online]. Available: <a href=\"http:\/\/dx.doi.org\/10.1145\/3706598.3713500\" target=\"_blank\" rel=\"noopener noreferrer\">http:\/\/dx.doi.org\/10.1145\/3706598.3713500<\/a><\/p>\n<p>[46] Corinna, &#8220;How generative ai enables hyper-personalization in ui\/ux design,&#8221; Oct. 2024, accessed: 2026-02-09. [Online]. Available: <a href=\"https:\/\/www.pagent.ai\/blog\/hyper-personalization-ui-ux-design\/\" target=\"_blank\" rel=\"noopener noreferrer\">https:\/\/www.pagent.ai\/blog\/hyper-personalization-ui-ux-design\/<\/a><\/p>\n<p>[47] Figma Inc., &#8220;Figma make: Create with ai-powered design tools,&#8221; 2025, accessed: 2026-02-09. [Online]. Available: <a href=\"https:\/\/www.figma.com\/make\/\" target=\"_blank\" rel=\"noopener noreferrer\">https:\/\/www.figma.com\/make\/<\/a><\/p>\n<p>[48] HI Interactive. (2025) Ai tools for front-end development. [Online]. Available: <a href=\"https:\/\/hi-interactive.com\/blog\/ai-tools-for-front-end-development\/\" target=\"_blank\" rel=\"noopener noreferrer\">https:\/\/hi-interactive.com\/blog\/ai-tools-for-front-end-development\/<\/a><\/p>","protected":false},"excerpt":{"rendered":"<p>Abstract &#8211; Die Integration K\u00fcnstlicher Intelligenz (KI) in den Software Development Lifecycle (SDLC) f\u00fchrt zu einer Transformation der Frontend-Entwicklung und verschiebt den Fokus von der manuellen Implementierung hin zur KI-gest\u00fctzten Orchestrierung. Das vorliegende Paper untersucht den Einfluss generativer KI-Modelle und multimodaler Sprachmodelle (MLLMs) auf die Frontend-Engineering-Prozesse, wobei ein besonderer Schwerpunkt auf \u201eIdea-to-Design\u201c- und \u201eDesign-to-Code\u201c-Workflows liegt. [&hellip;]<\/p>\n","protected":false},"author":1293,"featured_media":0,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[1,652],"tags":[],"ppma_author":[1143,1174,1200],"class_list":["post-28492","post","type-post","status-publish","format-standard","hentry","category-allgemein","category-artificial-intelligence"],"aioseo_notices":[],"jetpack_featured_media_url":"","jetpack-related-posts":[{"id":27836,"url":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/2025\/07\/24\/spezifische-angriffsvektoren-auf-die-supply-chain-von-ki-systemen\/","url_meta":{"origin":28492,"position":0},"title":"Spezifische Angriffsvektoren auf die Supply Chain von KI-Systemen","author":"Tim Ruff","date":"24. July 2025","format":false,"excerpt":"Anmerkung:\u00a0Dieser Blogpost wurde f\u00fcr das Modul Enterprise IT (113601a) verfasst. Aus Gr\u00fcnden der besseren Lesbarkeit wird in dieser Arbeit auf eine geschlechtsneutrale Differenzierung verzichtet. S\u00e4mtliche Personenbezeichnungen gelten gleicherma\u00dfen f\u00fcr alle Geschlechter. Einleitung: Bereits seit mehreren Jahren liegt ein Hauptfokus der Technologieindustrie auf der Entwicklung von K\u00fcnstlicher Intelligenz (KI) Systemen, insbesondere\u2026","rel":"","context":"In &quot;Allgemein&quot;","block_context":{"text":"Allgemein","link":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/category\/allgemein\/"},"img":{"alt_text":"","src":"https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2025\/07\/image-2.png?resize=350%2C200&ssl=1","width":350,"height":200,"srcset":"https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2025\/07\/image-2.png?resize=350%2C200&ssl=1 1x, https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2025\/07\/image-2.png?resize=525%2C300&ssl=1 1.5x, https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2025\/07\/image-2.png?resize=700%2C400&ssl=1 2x, https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2025\/07\/image-2.png?resize=1050%2C600&ssl=1 3x"},"classes":[]},{"id":28347,"url":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/2026\/02\/10\/prufung-des-vibe-coding-ansatzes-als-ki-gestutzte-softwareentwicklung-in-der-implementierungsphase-des-software-development-life-cycles\/","url_meta":{"origin":28492,"position":1},"title":"Pr\u00fcfung des Vibe Coding Ansatzes als KI gest\u00fctzte Softwareentwicklung in der Implementierungsphase des Software Development Life Cycles","author":"Frederik Runge","date":"10. February 2026","format":false,"excerpt":"Abstract Vibe Coding hat sich innerhalb kurzer Zeit als neuartiger, KI-gest\u00fctzter Ansatz in der Softwareentwicklung etabliert und wird im Kontext der Implementierungsphase des Software Development Life Cycles kontrovers diskutiert. W\u00e4hrend dem Ansatz hohe Produktivit\u00e4tsgewinne und ein einfacherer Zugang zur Softwareentwicklung zugeschrieben werden, verweisen kritische Stimmen auf Risiken in Bezug auf\u2026","rel":"","context":"In &quot;Allgemein&quot;","block_context":{"text":"Allgemein","link":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/category\/allgemein\/"},"img":{"alt_text":"","src":"https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2026\/02\/Vibe-Kurve.png?resize=350%2C200&ssl=1","width":350,"height":200,"srcset":"https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2026\/02\/Vibe-Kurve.png?resize=350%2C200&ssl=1 1x, https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2026\/02\/Vibe-Kurve.png?resize=525%2C300&ssl=1 1.5x, https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2026\/02\/Vibe-Kurve.png?resize=700%2C400&ssl=1 2x"},"classes":[]},{"id":28499,"url":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/2026\/02\/20\/ki-generierte-dokumentation\/","url_meta":{"origin":28492,"position":2},"title":"KI-generierte Dokumentation","author":"Ai Nhu Dinh","date":"20. February 2026","format":false,"excerpt":"Abstract Software documentation represents a critical yet frequently neglected component of the software development lifecycle. Time constraints, outdated content, and limited accessibility remain persistent challenges in practice. Recent advances in artificial intelligence offer new opportunities to automate documentation processes and improve quality and maintainability.This paper investigates AI-supported documentation generation by\u2026","rel":"","context":"In &quot;Allgemein&quot;","block_context":{"text":"Allgemein","link":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/category\/allgemein\/"},"img":{"alt_text":"","src":"","width":0,"height":0},"classes":[]},{"id":27939,"url":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/2025\/09\/11\/entwickeln-eines-ki-tools-zum-generieren-von-strukturierten-lerninhalten\/","url_meta":{"origin":28492,"position":3},"title":"Entwickeln eines KI-Tools zum Generieren von strukturierten Lerninhalten","author":"Jonathan Aupperle","date":"11. September 2025","format":false,"excerpt":"F\u00fcr den Kurs \"Software Development for Cloud Computing\" wollte ich eine Anwendung entwickeln, mit der konkrete Aufgaben f\u00fcr ein gegebenes Lernziel generiert werden k\u00f6nnen. Der Nutzer stellt dabei Informationen zum Lernziel, sowie seines aktuellen Niveaus und der geplanten Lerndauer zur Verf\u00fcgung. Auf dieser Basis k\u00f6nnen dann die konkreten Aufgaben, die\u2026","rel":"","context":"In &quot;Allgemein&quot;","block_context":{"text":"Allgemein","link":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/category\/allgemein\/"},"img":{"alt_text":"","src":"https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2025\/08\/grafik.png?resize=350%2C200&ssl=1","width":350,"height":200,"srcset":"https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2025\/08\/grafik.png?resize=350%2C200&ssl=1 1x, https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2025\/08\/grafik.png?resize=525%2C300&ssl=1 1.5x, https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2025\/08\/grafik.png?resize=700%2C400&ssl=1 2x"},"classes":[]},{"id":28372,"url":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/2026\/02\/18\/safeguards-in-der-ki-unterstutzten-softwareentwicklung\/","url_meta":{"origin":28492,"position":4},"title":"Safeguards in der KI-unterst\u00fctzten Softwareentwicklung","author":"Christoph Merck","date":"18. February 2026","format":false,"excerpt":"KI gest\u00fctzte Werkzeuge und autonome Agenten machen Softwareentwicklung schneller, schaffen aber neue Sicherheitsrisiken, weil sie eigenst\u00e4ndig Entscheidungen treffen und externe Tools nutzen k\u00f6nnen. Der Artikel zeigt, warum deshalb ein mehrschichtiges Safeguard Konzept n\u00f6tig ist, das klassische Ma\u00dfnahmen wie Code Reviews, Tests und statische sowie dynamische Analysen mit KI spezifischen Schutzmechanismen\u2026","rel":"","context":"In &quot;Allgemein&quot;","block_context":{"text":"Allgemein","link":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/category\/allgemein\/"},"img":{"alt_text":"","src":"","width":0,"height":0},"classes":[]},{"id":28240,"url":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/2026\/01\/29\/open-source-ki-modelle-chancen-und-herausforderungen-fur-unternehmen-2\/","url_meta":{"origin":28492,"position":5},"title":"Open-Source-KI-Modelle \u2013 Chancen und Herausforderungen f\u00fcr Unternehmen","author":"Erzan Gashi","date":"29. January 2026","format":false,"excerpt":"Anmerkung:\u00a0Dieser Blogpost wurde f\u00fcr das Modul Enterprise IT (113601a) verfasst 1. Einleitung In heutiger Unternehmens-IT gewinnt Open-Source-K\u00fcnstliche Intelligenz (KI) immer mehr an Bedeutung. In einem Beitrag der Linux Foundation wird beschrieben, dass sich das Open-Source-Modell seit den 1980er-Jahren von einer Bewegung zu einem wichtigen Treiber technologischer Innovation entwickelt hat. Diese\u2026","rel":"","context":"In &quot;Allgemein&quot;","block_context":{"text":"Allgemein","link":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/category\/allgemein\/"},"img":{"alt_text":"","src":"https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2026\/01\/grafik.png?resize=350%2C200&ssl=1","width":350,"height":200,"srcset":"https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2026\/01\/grafik.png?resize=350%2C200&ssl=1 1x, https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2026\/01\/grafik.png?resize=525%2C300&ssl=1 1.5x"},"classes":[]}],"jetpack_sharing_enabled":true,"authors":[{"term_id":1143,"user_id":1293,"is_guest":0,"slug":"tom_bestvater","display_name":"Tom Bestvater","avatar_url":"https:\/\/secure.gravatar.com\/avatar\/87d68395150bdcade4f727bb7575ef1671af77025ffa6605eea84278c6b8516e?s=96&d=mm&r=g","0":null,"1":"","2":"","3":"","4":"","5":"","6":"","7":"","8":""},{"term_id":1174,"user_id":1303,"is_guest":0,"slug":"pascal_leyrer","display_name":"Pascal Leyrer","avatar_url":"https:\/\/secure.gravatar.com\/avatar\/43a2f24033c4855b6e0345716657e83360c80cf949c1b09791ee3da0055b4cc9?s=96&d=mm&r=g","0":null,"1":"","2":"","3":"","4":"","5":"","6":"","7":"","8":""},{"term_id":1200,"user_id":1315,"is_guest":0,"slug":"tilman_zorn","display_name":"Tilman Zorn","avatar_url":"https:\/\/secure.gravatar.com\/avatar\/c25410723d92bf712a6311507e7614dace4a97f48bfdd71786ecb4547b516f57?s=96&d=mm&r=g","0":null,"1":"","2":"","3":"","4":"","5":"","6":"","7":"","8":""}],"_links":{"self":[{"href":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/wp-json\/wp\/v2\/posts\/28492","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/wp-json\/wp\/v2\/users\/1293"}],"replies":[{"embeddable":true,"href":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/wp-json\/wp\/v2\/comments?post=28492"}],"version-history":[{"count":4,"href":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/wp-json\/wp\/v2\/posts\/28492\/revisions"}],"predecessor-version":[{"id":28540,"href":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/wp-json\/wp\/v2\/posts\/28492\/revisions\/28540"}],"wp:attachment":[{"href":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/wp-json\/wp\/v2\/media?parent=28492"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/wp-json\/wp\/v2\/categories?post=28492"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/wp-json\/wp\/v2\/tags?post=28492"},{"taxonomy":"author","embeddable":true,"href":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/wp-json\/wp\/v2\/ppma_author?post=28492"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}