KI-generierte Dokumentation

Ai Nhu Dinh, Anna Rinck, Kathrin Keubler

Abstract

Software documentation represents a critical yet frequently neglected component of the software development lifecycle. Time constraints, outdated content, and limited accessibility remain persistent challenges in practice. Recent advances in artificial intelligence offer new opportunities to automate documentation processes and improve quality and maintainability.
This paper investigates AI-supported documentation generation by analyzing theoretical foundations, quality criteria, and different generation approaches, including text-based, document-based, code-based, and UI-driven methods. Furthermore, several contemporary tools are evaluated in an exploratory case study with regard to their ability to generate developer and user documentation. The results indicate significant efficiency gains, particularly for workflow-based user documentation and initial documentation creation. However, the study also demonstrates that the effective use of AI requires a structured understanding of documentation types, targeted prompting strategies, and continuous human supervision. Integration into CI/CD-pipelines and optimization for Generative Engine Optimization emerge as key factors for sustainable documentation practices.
The findings suggest a transition from static documentation toward dynamic, AI-assisted knowledge systems, where automated updates, conversational interaction with codebases, and drift-detection mechanisms may fundamentally reshape how documentation is created, maintained, and consumed in future software engineering environments.

I. Einleitung

In der modernen Softwareentwicklung ist hochwertige Dokumentation unverzichtbar, wird jedoch aufgrund von Zeitmangel und hoher Release-Geschwindigkeit oft vernachlässigt. Das Resultat sind veraltete oder unvollständige Informationen, die die Wartbarkeit und Skalierbarkeit von Systemen gefährden. Mit dem Durchbruch generativer Künstlicher Intelligenz steht dieser Bereich jedoch vor einem grundlegenden Wandel. Aktuelle technologische Erkenntnisse deuten darauf hin, dass sich die Dokumentation gegenwärtig von einem statischen Nebenprodukt zu einem dynamischen Prozess transformiert. Moderne KI-Systeme sind heute in der Lage, Quellcode und Benutzerinteraktionen semantisch zu erfassen und daraus automatisiert konsistente Wissensressourcen zu generieren. Dies reduziert nicht nur den manuellen Aufwand, sondern minimiert auch die Diskrepanz zwischen technischem Stand und schriftlicher Fixierung. Diese Arbeit untersucht das Potenzial aktueller KI-gestützter Ansätze von der codebasierten Analyse bis zur prozessgesteuerten Generierung von Benutzeranleitungen. Anhand einer explorativen Fallstudie werden zeitgenössische Werkzeuge evaluiert, um zu prüfen, wie sie die theoretischen Qualitätsanforderungen in der Praxis erfüllen. Ziel ist es, den Übergang von rein manueller Dokumentation hin zu intelligenten Wissensökosystemen aufzuzeigen, in denen Mensch und KI synergetisch zusammenarbeiten.

II. Theoretische Grundlagen

Dieses Kapitel erläutert die fundamentalen Konzepte der Softwaredokumentation. Es klassifiziert Dokumentationstypen nach Sommerville [1] sowie dem Diátaxis-Framework [2], definiert Zielgruppen und Qualitätskriterien nach Treude et al. [3] und analysiert praktische Herausforderungen basierend auf Aghajani et al. [4].

A. Definition und Zweck der Dokumentation

Dokumentation bildet eine umfassende Informationsbasis, die Wissen, Prozesse und Best Practices systematisch sichert [1, 5]. Sie fungiert als zentrales Repository für explizites Wissen, das Projekterfahrungen und gewonnene Erkenntnisse langfristig konserviert und für Mitarbeiter über verschiedene Ebenen hinweg zugänglich macht [5]. Idealerweise beginnt dieser Prozess bereits in der Phase der Anforderungsanalyse, um Fehlentwicklungen und unnötige Prozesskosten zu minimieren [1].

Eine zielgerichtete Dokumentation lässt sich anhand der folgenden vier zentralen Kernfunktionen charakterisieren:

  • Kommunikationsmedium: Sie gewährleistet den Informationsfluss zwischen Teammitgliedern und ermöglicht den Zugriff auf relevante Daten, unabhängig von geografischen oder zeitlichen Barrieren [1, 5].
  • Wissensspeicher (Information Repository): Sie dient als Basis für Wartungsarbeiten und die langfristige Wissensspeicherung innerhalb der Organisation [1, 5].
  • Planungs- und Entscheidungsinstrument: Sie liefert dem Management notwendige Daten für die Budgetierung und Prozessplanung und dient gleichzeitig als Referenzpunkt für Problemlösungen und Innovationen [1, 5].
  • Anleitung und Instruktion: Sie instruiert Anwender und Administratoren in der Verwendung und Verwaltung des Systems [1].

B. Arten von Dokumentation

1. Prozessdokumentation

Die Prozessdokumentation übernimmt die zentrale Aufgabe, den Ablauf der Entwicklung und Wartung systematisch aufzuzeichnen. Da Software als immaterielles Gut keine physische Repräsentation besitzt und der Entwicklungsprozess primär aus komplexen kognitiven Aufgaben besteht, fungiert diese Dokumentationsform als einziges Mittel, um den Fortschritt sichtbar und damit für das Management steuerbar zu machen. Innerhalb dieser Informationsbasis lassen sich verschiedene Kategorien unterscheiden, die von Managementinstrumenten wie Plänen, Schätzungen und Zeitplänen zur Prozesssteuerung bis hin zu Berichten über die tatsächliche Ressourcennutzung reichen. Während formale Standards die Implementierung gemäß organisatorischer oder internationaler Normen festlegen, stellen Arbeitspapiere (Working Papers) oft das wichtigste Medium der technischen Kommunikation dar. Sie halten Ideen und Strategien der Ingenieure fest und dokumentieren insbesondere die Begründung für Designentscheidungen (Design Rationale). Ergänzt wird dies durch die tägliche Korrespondenz in Form von Memos und E-Mails. Hinsichtlich der Lebensdauer dieser Informationen ist festzustellen, dass viele Prozessdokumente, wie etwa wöchentliche Statusberichte, nach der Systemauslieferung schnell an Relevanz verlieren. Dennoch existieren kritische Ausnahmen, die für die langfristige Softwareevolution unerlässlich sind. Beispielsweise dienen Testpläne als notwendige Basis für die Validierung zukünftiger Änderungen, während die Sicherung der Design Rationale verhindert, dass spätere Modifikationen die ursprünglichen Architekturziele untergraben. Um die Qualität dieser Dokumente konsistent hochzuhalten, definieren Prozess-Standards zudem die zu nutzenden Werkzeuge sowie die Verfahren der Qualitätssicherung, bestehend aus Entwurf, Prüfung und Revision [1].

2. Produktdokumentation

Im Gegensatz zur oft kurzlebigen Prozessdokumentation zeichnet sich die Produktdokumentation durch ihre Langlebigkeit aus. Sie beschreibt das finale Softwareprodukt und muss über dessen gesamten Lebenszyklus hinweg kontinuierlich parallel zur Software weiterentwickelt werden, um ihre Relevanz zu behalten [1]. Die Struktur dieser Dokumentation lässt sich grundlegend in zwei Kategorien unterteilen: die Benutzerdokumentation und die Systemdokumentation.

Die Benutzerdokumentation (User Documentation) richtet sich sowohl an Endanwender als auch an Systemadministratoren. Nach Sommerville umfasst eine vollständige Dokumentation in diesem Bereich fünf Kernbestandteile: Eine Funktionsbeschreibung zur Entscheidungshilfe für potenzielle Nutzer, ein Installationsdokument für die technische Einrichtung sowie ein beispielorientiertes Einführungshandbuch für den täglichen Gebrauch. Ergänzt wird dies durch ein formales Systemreferenzhandbuch, bei dem Vollständigkeit Vorrang vor der Lesbarkeit hat, sowie ein spezielles Administratorhandbuch für komplexe Systeminteraktionen und Fehlerbehebungen [1].

Parallel dazu beschreibt die Systemdokumentation das Produkt aus der Perspektive der Ingenieure, die für Entwicklung und Wartung verantwortlich sind. Sie ist die essenzielle Voraussetzung für das Code-Verständnis und spätere Systemanpassungen. Zu ihren Bestandteilen gehören neben dem Anforderungsdokument und der dazugehörigen Begründung detaillierte Beschreibungen der System- und Programmarchitektur sowie der Schnittstellen einzelner Komponenten. Zudem umfasst sie kommentierte Quellcode-Listings für komplexe Logiken, Validierungsdokumente in Form von Testbeschreibungen und ein Wartungshandbuch, das bekannte Abhängigkeiten und Probleme dokumentiert [1].

Eine der größten Herausforderungen der Produktdokumentation besteht jedoch darin, die Konsistenz zum Quellcode zu wahren. Insbesondere unter Zeitdruck besteht die Gefahr, dass Dokumentationsstände veralten (out of step). Diese Diskrepanz zwischen Code und Beschreibung führt langfristig zu erheblichen Komplikationen sowohl für die Endbenutzer als auch für die Wartungsingenieure und untergräbt die Verlässlichkeit des gesamten Systems [1].lichen Komplikationen sowohl für die Endbenutzer als auch für die Wartungsingenieure und untergräbt die Verlässlichkeit des gesamten Systems [1].

C. Das Diátaxis-Framework

Während klassische Ansätze Dokumentation oft nach ihrer Rolle im Entwicklungsprozess kategorisieren, bietet das von Daniele Procida entwickelte Diátaxis-Framework [2] einen Ansatz, der die Dokumentation strikt nach den Bedürfnissen des Benutzers strukturiert. Das Modell organisiert Dokumentation in einer 2×2-Matrix entlang zweier Achsen: Theorie vs. Praxis und Erwerb (Lernen) vs. Anwendung (Arbeit). Daraus resultieren vier fundamentale Quadranten [2]:

  • Tutorials (Lernorientiert): Diese dienen dem praktischen Kompetenzerwerb. Ein Tutorial leitet den Anfänger Schritt für Schritt an, um ein erstes Erfolgserlebnis zu ermöglichen. Der Fokus liegt auf dem pädagogischen Effekt („Learning by doing“), nicht auf technischer Vollständigkeit.
  • How-to Guides (Problemorientiert): Diese richten sich an Nutzer, die bereits Grundkenntnisse besitzen und ein spezifisches Problem lösen wollen. Sie sind als eine Art Rezeptsammlung zu verstehen, um eine bestimmte Aufgabe zu erledigen.
  • Referenz (Informationsorientiert): Dieser Bereich liefert theoretische Fakten für die tägliche Arbeit. Er beschreibt technische Details (z. B. API-Endpunkte, Klassenbibliotheken) präzise und wertungsfrei. Die Referenz erklärt, was etwas ist, nicht wie man es benutzt.
  • Erklärung (Verständnisorientiert): Dieser Quadrant beleuchtet die theoretischen Hintergründe und Kontexte. Er klärt das „Warum“ hinter Designentscheidungen oder Architekturen und dient dem tieferen Verständnis des Systems [2].

Der wesentliche Vorteil dieses Frameworks liegt in der kognitiven Entlastung des Nutzers. Durch die klare Trennung von Instruktion (Tutorials, How-to) und Information (Referenz, Erklärung) weiß der Leser sofort, welche Art von Inhalt ihn erwartet, was die Nutzbarkeit der Dokumentation signifikant steigert [2].

D. Zielgruppen

Eine effektive technische Dokumentation erfordert mehr als nur inhaltliche Korrektheit. Sie muss präzise auf die jeweilige Zielgruppe zugeschnitten sein. Die Berücksichtigung des Wissensstands, der Sprachkenntnisse und der spezifischen Anforderungen erhöht die Klarheit und Relevanz der Informationen signifikant. Dies maximiert den Nutzen der Dokumentation und fördert die Nutzerbindung [6]. Im Rahmen des Softwareentwicklungsprozesses lassen sich vier zentrale Interessengruppen identifizieren, deren jeweilige Anforderungen spezifische dokumentarische Herangehensweisen erfordern.

1. Endnutzer

Diese Gruppe interagiert täglich mit dem Produkt, um Aufgaben zu erledigen. Sie besteht aus Konsumenten oder Mitarbeitern, die primär an der Lösung ihrer Probleme interessiert sind, nicht an der Technologie selbst [6].

  • Sprache: Verzicht auf technischen Jargon, um eine einfache und verständliche Sprache zu gewährleisten.
  • Fokus: Der Schwerpunkt liegt auf der User Experience (UX) und dem praktischen Nutzen (Usability). Funktionen sollten stets im Kontext ihres Mehrwerts für den Anwender beschrieben werden.
  • Methodik: Visuelle Hilfsmittel sind hier besonders effektiv. Schritt-für-Schritt-Anleitungen, ergänzt durch Screenshots, GIFs oder kurze Video-Tutorials, erleichtern das Verständnis komplexer Abläufe und erhöhen die Zugänglichkeit [6].
2. Entwickler

Entwickler tragen die Verantwortung für die Erstellung, Anpassung und Wartung der Software auf Code-Ebene. Die technischen Anforderungen, die an die zu erstellende Dokumentation gestellt werden, sind dabei von entscheidender Bedeutung [6].

  • Sprache: Präzise, akkurate und knappe Formulierungen. Doppeldeutungen sind zu vermeiden.
  • Inhalt: Essentiell sind Code-Beispiele (Code Snippets), API-Referenzen und technische Spezifikationen von Komponenten.
  • Kontext: Die Dokumentation muss die verwendeten Programmiersprachen, Frameworks und Bibliotheken adressieren, um eine effiziente Implementierung zu ermöglichen [6].
3. Systemadministratoren

Diese Gruppe verantwortet die Verwaltung der Infrastruktur, Server und Netzwerke sowie die Gewährleistung von Sicherheit und Performance.

  • Fokus: Der Schwerpunkt liegt auf Konfiguration, Sicherheit und Systemstabilität (Maintenance).
  • Inhalt: Benötigt werden detaillierte Konfigurationsanleitungen und präzise Informationen zu Sicherheitsfeatures und -prozessen.
  • Aktualität: Da Sicherheitsstandards sich schnell wandeln, ist hier die kontinuierliche Aktualisierung der Dokumentation bezüglich neuer Trends und Best Practices kritisch [6].
4. Management und Entscheidungsträger

Das Management benötigt Dokumentation primär als Grundlage für Planung, Budgetierung und Risikoeinschätzung. Im Gegensatz zu Entwicklern benötigen sie keinen Einblick in den Code (das „Wie“), sondern einen strategischen High-Level-Überblick [7].

  • Fokus auf „Was“ und „Warum“: Die Dokumentation muss den geschäftlichen Nutzen (Business Value) und die strategische Relevanz der Software erklären.
  • Komprimierte Information: Aufgrund von Zeitmangel sind Executive Summaries und klare „Takeaway-Messages“ essentiell. Berichte müssen so aufbereitet sein, dass der aktuelle Projektstatus und Ressourcenverbrauch auf einen Blick erkennbar sind.
  • Sprache: Zwar ist eine gewisse technische Terminologie oft unvermeidbar, dennoch sollte die Sprache so einfach wie möglich gehalten werden. Technische Details sollten in den Anhang verlagert werden, um den Lesefluss der Entscheidungsträger nicht zu hemmen [7].

E. Qualitätskriterien

Mangels einer universell akzeptierten Norm haben zahlreiche wissenschaftliche Publikationen versucht, Kriterien zu definieren, die qualitativ hochwertige Dokumentation charakterisieren [3, 8, 9]. Trotz unterschiedlicher Schwerpunktsetzungen ähneln sich diese Ansätze in ihren Kernkriterien, die typischerweise Aspekte wie Genauigkeit, Vollständigkeit, Verständlichkeit und Konsistenz umfassen [3, 9]. Die in der Literatur am häufigsten genannten Qualitätskriterien umfassen Attraktivität, Struktur, Verständlichkeit, Klarheit, Qualität, Kohäsion, Prägnanz, Effektivität, Konsistenz und Lesbarkeit [3]. Das von Treude et al. [3] vorgeschlagene Framework bietet mit seinen zehn Dimensionen eine besonders umfassende Betrachtung der Dokumentationsqualität und wird daher als Grundlage für diese Arbeit verwendet. Attraktivität bezieht sich auf die visuelle Gestaltung und Benutzerfreundlichkeit der Dokumentation, die Entwickler zur Nutzung motiviert. Struktur bezeichnet die logische Organisation und hierarchische Gliederung von Informationen, sodass Nutzer intuitiv navigieren können. Verständlichkeit meint die Zugänglichkeit der Inhalte für die jeweilige Zielgruppe unter Berücksichtigung deren Vorwissens. Klarheit fokussiert auf die Eindeutigkeit von Formulierungen und die Vermeidung von Ambiguitäten. Das Kriterium Qualität umfasst die fachliche Korrektheit, Vollständigkeit und Aktualität der dokumentierten Inhalte. Kohäsion beschreibt den inhaltlichen Zusammenhang zwischen verschiedenen Dokumentationsabschnitten und die Vermeidung redundanter Informationen. Prägnanz zielt auf die Kompaktheit der Darstellung ab, wobei Informationen ohne unnötige Ausschweifungen vermittelt werden sollen. Effektivität misst, inwieweit die Dokumentation den Nutzer bei der Problemlösung unterstützt. Konsistenz gewährleistet eine einheitliche Terminologie, Formatierung und Strukturierung über den gesamten Dokumentationskorpus hinweg. Lesbarkeit bezieht sich auf die sprachliche Komplexität und Satzstruktur, die eine flüssige Rezeption ermöglichen soll.

In den vergangenen Jahren hat sich ein zusätzliches Kriterium etabliert, das zunehmend an Bedeutung gewinnt: die Lesbarkeit und Auffindbarkeit durch KI-Assistenzen [10]–[12]. Diese Entwicklung ist auf einen signifikanten Wandel im Suchverhalten zurückzuführen, bei dem Nutzer zunehmend traditionelle Suchmaschinen durch konversationelle Künstliche Intelligenz (KI)-Systeme wie ChatGPT, Claude oder Perplexity ergänzen oder teilweise ersetzen [11, 12]. Um unter diesen veränderten Rahmenbedingungen relevant zu bleiben, müssen technische Dokumentationen nun für Generative Engine Optimization (GEO) optimiert werden [10].

Generative Engine Optimization bezeichnet die Praxis, Dokumentation so zu strukturieren und zu verfassen, dass Large Language Models (LLMs) diese zuverlässig erfassen und präzise zitieren können [10]. Im Gegensatz zur klassischen Search Engine Optimization (SEO), die sich primär auf Rankings fokussiert, konzentriert sich GEO auf maschinelle Lesbarkeit, Quellenattribution und Antwortfähigkeit. Durch die Verwendung klarer, präziser technischer Sprache, atomarer Seitenstrukturen mit eindeutiger Intention sowie deskriptiver Überschriften können KI-Assistenzen die Inhalte einer Dokumentation effizienter indexieren und akkurater in ihren Antworten wiedergeben [10].

Ein besonders diskutiertes Element dieser Entwicklung stellt die Einführung von llms.txt- und llms-full.txt-Dateien dar [10, 11]. Diese speziellen Konfigurationsdateien, die in ihrer Funktion mit robots.txt-Dateien vergleichbar sind, ermöglichen es Dokumentationsverantwortlichen, KI-Crawler durch die Struktur und Inhalte ihrer Dokumentation zu führen. Die Implementierung dieser Mechanismen wird in der Entwickler-Community kontrovers diskutiert [11], da unterschiedliche Auffassungen über deren Notwendigkeit, Standardisierung und praktische Umsetzung existieren.

F. Technische Herausforderungen

Um die praktischen Herausforderungen technischer Dokumentation empirisch zu erfassen, führten Aghajani et al. eine umfassende Studie mit 146 Praktikern aus verschiedenen Rollen wie Developer, Technical Engineer, Technical Lead und Test Analyst durch [4]. Ziel der Untersuchung war es zu ermitteln, welche Dokumentationsprobleme in der Praxis als besonders relevant wahrgenommen werden und welche Lösungsstrategien die Befragten bei auftretenden Problemen anwenden. Die Studie erfolgte mittels zweier Befragungen, die sowohl die wahrgenommenen Dokumentationsprobleme als auch die für verschiedene Aufgaben als wichtig erachteten Dokumentationstypen erfassten.

Die identifizierten Probleme wurden dabei in verschiedene Kategorien eingeteilt, die sich primär am Information Content orientieren: Was wird dokumentiert, wie wird es dokumentiert, und welche tool- oder prozessspezifischen Probleme treten auf [4]. Die Ergebnisse offenbaren ein differenziertes Bild der praktischen Herausforderungen, wobei sich mehrere Hauptprobleme herauskristallisierten. Mit 88% wurde mangelnde Klarheit als das mit Abstand häufigste Problem identifiziert, gefolgt von Zugänglichkeits- und Auffindbarkeitsdefiziten bei der inhaltlichen Dokumentation, die 65% der Befragten als problematisch einstuften [4]. Diese beiden Befunde unterstreichen, dass selbst vorhandene Dokumentation ihren Zweck verfehlt, wenn sie entweder nicht verständlich formuliert oder nicht effizient auffindbar ist. Hinsichtlich der Vollständigkeit der Dokumentation zeigten sich erhebliche Defizite: 69% der Praktiker bemängelten fehlende Dokumentation für neue Features und Komponenten, während 68% das Fehlen von Installations-, Deployment- und Release-Anleitungen feststellten [4]. Ebenfalls als hochproblematisch wurden fehlerhafte Tutorials (65%), fehlende Benutzerdokumentation (65%), ungeeignete Installationsanweisungen (63%) und fehlende Entwickler-Richtlinien (60%) bewertet. Weitere signifikante Probleme umfassten fehlerhafte Code-Beispiele (59%), Inkonsistenzen zwischen Code und Dokumentation (59%), veraltete Installationsanweisungen (54%), fehlende Dokumentation für neue Releases (53%) sowie veraltete Beispiele (51%) [4]. Eine zentrale Erkenntnis dieser Befunde ist, dass sich die Probleme mehrheitlich auf Vollständigkeitsdefizite konzentrieren. Es fehlt häufiger an Dokumentation, als dass vorhandene Dokumentation fehlerhaft wäre. Besonders auffällig ist dabei die hohe Priorität, die Einstiegsdokumenten zugemessen wird, was sich in den hohen Prozentwerten für Installations- und Deployment-Anleitungen manifestiert [4]. Als zugrundeliegende Ursache für viele dieser Dokumentationsprobleme identifizierten 65% der Befragten Zeitmangel für das Schreiben von Dokumentation [4]. Dieser Befund reflektiert ein fundamentales Problem in der Softwareentwicklungspraxis: Dokumentation wird häufig als niedrig priorisiert betrachtet und leidet unter Zeitmangel [4]. Dies führt dazu, dass Dokumentation oft unvollständig oder fehlerhaft ist, was sich negativ auf die Qualität und Nützlichkeit auswirkt [4].

III. EINSATZ VON KI

Der Einsatz von KI zur Generierung von Dokumentation im gesamten Softwareentwicklungsprozess hat das Potenzial, die Erfüllung der Qualitätskriterien zu optimieren und die technischen Herausforderungen zu reduzieren. Die Ersparnis von Zeit, die konsistente Erfüllung von Standards sowie die Sicherstellung einer stets aktuellen Dokumentation sind wesentliche Vorteile, die sich aus der Verwendung ergeben. Dies wiederum führt zu einer verbesserten Wartbarkeit und Zugänglichkeit [13]. Der Einsatz von KI kann zu verschiedenen Zeitpunkten im Softwareentwicklungszyklus erfolgen und unterschiedliche Anwendungsfälle unterstützen. Dazu gehört die Dokumentation vor Beginn der Implementierung, die den Entwicklern als wichtige Informationsgrundlage dient [14]. Ein weiterer Anwendungsbereich ist die Integration von KI in die Integrated Development Environment (IDE) oder in eine Continuous Integration / Continuous Delivery (CI/CD)-Pipeline während der Entwicklungsphase. Dadurch können regelmäßige Aktualisierungen sichergestellt werden, was für die Aktualität und Korrektheit der Dokumentation von Vorteil ist und sich somit positiv auf die Entwickler auswirkt, da sie einen stets aktuellen Dokumentationsstand haben. Nachdem der Code geschrieben wurde, gibt es einen weiteren Anwendungsbereich für die KI zur Dokumentationsgenerierung. Hierbei handelt es sich vor allem um die Dokumentation für die Kunden und Endnutzer der Anwendung [15].

A. Generierungsansätze

In dem folgenden Abschnitt wird erörtert, wie der Einsatz von KI zur Generierung von Dokumentation aussehen kann, welche Generierungsansätze sich für welchen Anwendungsfall einsetzen lassen und welche Zielgruppe damit erreicht wird.

  1. Textbasierte Generierung: Bei diesem Ansatz steht die textbasierte Eingabe im Mittelpunkt der Dokumentationsgenerierung. Das KI-System erhält primär sprachliche Informationen, beispielsweise in Form von Prompts, Stichpunkten oder konzeptionellen Beschreibungen, und erzeugt daraus eigenständig Dokumentation. Ein Anwendungsbeispiel ist die Generierung strukturierter Übersichten zu funktionalen und nicht-funktionalen Anforderungen eines Systems. Die erzeugten Inhalte können sowohl entwicklerorientierte als auch nutzerzentrierte Dokumentation umfassen, wobei die zugrundeliegende Informationsquelle überwiegend natürliche Sprache und nicht bestehender Quellcode oder aufgezeichnete Benutzerinteraktionen ist. Dieser Ansatz entspricht einer weitgehend from-scratch Generierung und zeichnet sich durch eine hohe Flexibilität sowie eine schnelle Erstellung natürlichsprachlicher Inhalte aus. Gleichzeitig ergeben sich jedoch Einschränkungen hinsichtlich der inhaltlichen Verlässlichkeit, da die KI kein tatsächliches Systemverständnis besitzt und somit fehlerhafte oder halluzinierte Informationen erzeugen kann [14].
  2. Dokumentbasierte Generierung: Hier stehen bereits vorhandene Dokumentationsartefakte im Zentrum der Generierung. Als Eingabedaten dienen bestehende Inhalte wie Spezifikationen, Anforderungsdokumente, ältere Dokumentationen, Wiki-Artikel, Ticketsystemeinträge oder Benutzerhandbücher. Die Aufgabe des Systems besteht dabei weniger in der vollständigen Neuerstellung von Inhalten, sondern vielmehr im Zusammenfassen, Umstrukturieren, Aktualisieren und Kombinieren vorhandener Informationen [16]. Auf dieser Basis werden neue Dokumentationsartefakte, beispielsweise Leitfäden, FAQs oder Referenzdokumentationen, erzeugt oder bestehende Inhalte überarbeitet. Ein typisches technisches Paradigma in diesem Kontext stellen Retrieval-Augmented Generation (RAG)-Systeme dar, bei denen relevante Dokumente zunächst aus einer Wissensbasis abgerufen und anschließend zur Generierung konsistenter Inhalte genutzt werden. Der Ansatz eignet sich sowohl für entwicklerorientierte als auch für nutzerzentrierte Dokumentation, etwa zur Ableitung von Use-Case-Beschreibungen aus Anforderungsdokumenten oder zur Modernisierung bestehender Legacy-Dokumentation. Im Unterschied zur rein textbasierten Generierung basiert dieser Ansatz explizit auf vorhandenen Dokumenten als Wissensquelle, sodass die Dokumentation nicht vollständig neu erzeugt werden muss, sondern auf bestehendem Projektwissen aufbaut [16].
  3. Code- und strukturbasierte Generierung: Bei Code- und strukturbasierter Generierung bilden technische Artefakte der Software die primäre Informationsquelle für die Dokumentationsgenerierung. Als Eingaben dienen insbesondere Quellcode, Projektstrukturen oder vollständige Repository-Inhalte. Die KI analysiert dabei statische und strukturelle Eigenschaften des Codes, um daraus automatisiert API-Dokumentationen, Modulbeschreibungen oder technische Systemübersichten abzuleiten. Der Fokus liegt folglich überwiegend auf entwicklerorientierter Dokumentation [15]. Ein wesentlicher Vorteil dieses Ansatzes besteht darin, dass die Generierung unmittelbar auf dem tatsächlichen Implementierungsstand basiert. Dadurch ist der fachliche und technische Kontext implizit im Code enthalten, was die Konsistenz zwischen Implementierung und Dokumentation erhöht. Insbesondere bei einer Integration in IDEs kann die Dokumentation kontextsensitiv und kontinuierlich erzeugt werden [15]. Darüber hinaus ermöglicht die Einbindung in Versionsverwaltungssysteme eine automatisierte Aktualisierung der Dokumentation innerhalb von CI/CD-Pipelines, wodurch Aktualität und Wartbarkeit langfristig verbessert werden [17].
  4. UI- und Prozessbasierte Generierung: Für diesen Ansatz dienen aufgezeichnete Nutzungsvorgänge und Benutzeroberflächen als primäre Informationsquelle für die Dokumentationsgenerierung. Eingabedaten umfassen beispielsweise Screen-Recordings, Klickpfade, Event-Logs oder strukturelle Informationen der grafischen Benutzeroberfläche. Die KI analysiert dabei Benutzerinteraktionen sowie aufgezeichnete Workflows, erkennt einzelne Prozessschritte und generiert daraus automatisiert Schritt-für-Schritt-Anleitungen, visuell gestützte Handlungsanweisungen oder Video-Tutorials. Der Schwerpunkt dieses Ansatzes liegt typischerweise auf der Erstellung von Benutzerdokumentation, da reale Nutzungsszenarien und tatsächliche Arbeitsabläufe abgebildet werden [18]. Ein zentraler Vorteil besteht darin, dass die Dokumentation unmittelbar auf der praktischen Anwendung des Systems basiert und somit reale Workflows präzise widerspiegelt. Im Unterschied zur codebasierten Generierung analysiert die KI hierbei nicht die interne Implementierung, sondern das sichtbare Verhalten der Anwendung sowie die Interaktion zwischen Nutzer und System [18].

B. Qualitätssicherung

Obwohl KI-Systeme als effizient zu bewerten sind, ist ihre Zuverlässigkeit als gering einzustufen. So neigen sie zu Halluzinationen und technischen Ungenauigkeiten [15]. Um die mit der Qualitätssicherung einhergehenden Risiken und Missverständnisse zu minimieren, ist die Implementierung eines mehrstufigen Prozesses zur systematischen Durchführung der Qualitätssicherung erforderlich [19]. Letztlich besteht das Ziel darin, die Effizienz von KI-Systemen mit der Expertise des Menschen zu verbinden. Die Qualitätssicherung bei KI-generierter Software folgt einem ähnlichen Prinzip, das auch auf die Generierung von Softwaredokumentation übertragen werden kann. Dies impliziert die Existenz klar definierter Standards, automatisierter Prüfverfahren, partiell auch unter Zuhilfenahme von KI, menschlicher Überprüfung und Feedbackschleifen. In Abhängigkeit zur Art der Generierung sowie zu der Zielgruppe, für die die Dokumentation konzipiert wurde, kommt es zu einer Verlagerung der Schwerpunkte. Die Durchführung einer Qualitätssicherung in Bezug auf die Softwaredokumentation erfordert die Festlegung messbarer Key Performance Indicator (KPI). Die Überprüfung dieser Kennzahlen sollte in regelmäßigen Abständen erfolgen, beispielsweise in Form der Evaluation der Kundenzufriedenheit, der Abdeckung oder der Anzahl an Nachfragen oder erstellten Tickets. Es besteht die Möglichkeit, kontinuierliche Verbesserungen an der Dokumentation vorzunehmen. Zu diesem Zweck können Prompts, Templates oder Review-Workflows anhand der KPIs in einer iterativen Vorgehensweise angepasst werden. Des Weiteren wird die Implementierung des Konzepts „Human in the Loop“ empfohlen, bei dem die KI die Dokumentation generiert und diese partiell überprüfen kann, wobei die finale Verantwortung beim Menschen verbleibt. Der Mensch ist dazu angehalten, die technische Richtigkeit, Verständlichkeit und sicherheitskritische Themen zu prüfen. Der Fokus liegt demnach auf der Erkennung von Halluzinationen und technischen Fehlern sowie der Gewährleistung von Sicherheit und Datenschutz. Das Ziel besteht darin zu vermeiden, dass ungewollte sensible Informationen, kritischer Code oder vertrauliche Geschäftsdaten in öffentlich zugänglichen Dokumentationen durch automatisierte Vorgänge landen. Diese Vorgehensweise gewährleistet, dass die Verantwortung für die getroffenen Entscheidungen beim Menschen verbleibt [15].

IV. BEWERTUNG DER KI-TOOLS

A. GitBook und RepoDoc.AI

Für die Untersuchung KI-gestützter Dokumentationswerkzeuge wurden zwei Auswahlkriterien definiert: kostenfreie Zugänglichkeit ohne Paywall oder verpflichtendes Abomodell sowie Anwendbarkeit auf möglichst viele Programmiersprachen. Auf Basis dieser Kriterien wurden RepoDoc.AI und GitBook für die vergleichende Analyse ausgewählt.

RepoDoc.AI transformiert GitHub-Repositories automatisiert in Business Requirements, Technical Documentation, Test Strategies und README-Dokumente – laut Anbieter in unter fünf Minuten. Das Tool verfolgt dabei einen stark generativen Ansatz durch vollautomatische Generierung aus bestehendem Quellcode [20].

GitBook stellt eine kollaborative Plattform für Developer Docs, API-Dokumentation und Knowledge Bases dar, die KI auf mehreren Ebenen integriert: als RAG-System, als Schreibassistent sowie als automatisierter Übersetzer. Im Gegensatz zu RepoDoc.AI verfolgt GitBook einen assistierenden Ansatz, bei dem die KI den menschlichen Autor unterstützt [21].

B. Evaluationsmethodik

Da für Softwaredokumentation kein einheitlicher Qualitätsstandard existiert, erfolgt die Evaluation auf Basis einer explorativen Fallstudie nach [22]. Die beiden Tools werden anhand der zehn Qualitätsdimensionen nach Treude et al. untersucht: Attraktivität, Struktur, Verständlichkeit, Klarheit, Qualität, Kohäsion, Prägnanz, Effektivität, Konsistenz und Lesbarkeit.

C. Evaluation: GitBook

Attraktivität: GitBook bietet eine moderne, minimalistische Benutzeroberfläche mit anpassbaren Themes und responsiver Darstellung. Die Navigation wird durch eine klare Seitenstruktur und Suchfunktionalität unterstützt.

Struktur: Verschachtelte Seiten, automatische Inhaltsverzeichnisse und Breadcrumb-Navigation ermöglichen eine hierarchische Organisation komplexer Dokumentationsstrukturen. Mehrere Dokumentationsräume (Spaces) erlauben eine logische Trennung verschiedener Produktbereiche.

Verständlichkeit: Die Plattform unterstützt Markdown sowie einen What You See Is What You Get (WYSIWYG)-Editor und ist damit für technische und nicht-technische Autoren gleichermaßen zugänglich. Die KI-Assistenz kann Inhalte auf Anfrage für verschiedene Zielgruppen anpassen.

Klarheit: Strukturierte Content-Blocks (Code-Snippets, Hinweise, Warnungen) fördern visuelle Differenzierung. Die KI-Schreibhilfe kann mehrdeutige Formulierungen identifizieren und Verbesserungsvorschläge anbieten.

Qualität: Die Git-Integration gewährleistet nachvollziehbare Änderungen und parallele Versionsverwaltung. Der RAG-basierte Suchmechanismus ermöglicht präzise Antworten, abhängig von der Qualität der zugrundeliegenden Dokumentation.

Kohäsion: Interne Verlinkungen, automatische Referenzen sowie zentral verwaltete Begriffsdefinitionen und wiederverwendbare Content-Snippets fördern inhaltliche Vernetzung und Konsistenz.

Prägnanz: Eine automatische Redundanzprüfung fehlt; die Verantwortung für prägnante Formulierungen liegt beim Autor, wobei die KI-Schreibhilfe auf Anfrage Texte komprimieren kann.

Effektivität: Suchfunktion und KI-Assistent ermöglichen schnelles Auffinden relevanter Informationen. Die direkte Ausführbarkeit von Code-Beispielen erhöht die praktische Nutzbarkeit für Entwickler.

D. Evaluation: RepoDoc.AI

Attraktivität: RepoDoc.AI präsentiert eine funktionale, aber weniger ausgereifte Benutzeroberfläche als dedizierte Dokumentationsplattformen. Die generierten Dokumente folgen professionellen Standardvorlagen mit begrenzten Anpassungsmöglichkeiten.

Struktur: Vordefinierte Kategorien (Business Requirements, Technical Documentation, Test Strategy, README) garantieren eine konsistente Grundstruktur, die jedoch nicht immer den Anforderungen komplexer Projekte entspricht.

Verständlichkeit: Die Qualität der generierten Dokumentation hängt stark von der Codekommentierung ab. Bei spärlich kommentiertem Code tendieren die Ausgaben zu generischen Beschreibungen mit wenig projektspezifischem Kontext.

Klarheit: Das Tool neigt zu formelhaften Formulierungen mit gelegentlich redundanten oder selbstevidenten Aussagen und kann nicht immer zwischen wesentlichen und nebensächlichen Implementierungsdetails differenzieren.

Qualität: Die fachliche Korrektheit ist grundsätzlich gegeben, da direkt aus dem Quellcode abgeleitet wird. Architekturentscheidungen, Design Patterns und Business-Logik werden jedoch nicht erfasst, wenn sie nicht explizit im Code dokumentiert sind.

Kohäsion: Innerhalb einzelner Kategorien ist die Kohäsion moderat, jedoch fehlen Querverweise zwischen den generierten Dokumenttypen, wodurch die Verknüpfung verschiedener Komponenten oberflächlich bleibt.

Prägnanz: Die Ausgaben tendieren zu Ausführlichkeit, da das Tool vollständige Methodenbeschreibungen generiert, auch wenn kürzere Erklärungen ausreichend wären.

Effektivität: Für initiale Dokumentation ist RepoDoc.AI effektiv. Die versprochene Zeitersparnis wird jedoch durch den Aufwand für Nachbearbeitung und Kontextualisierung teilweise relativiert.

Konsistenz: Terminologie und Formatierung sind innerhalb eines Generierungsdurchlaufs konsistent. Zwischen verschiedenen Durchläufen kann die Konsistenz abhängig von Code-Änderungen variieren.

Lesbarkeit: Die generierten Texte sind grammatikalisch korrekt und klar strukturiert, wirken jedoch durch die formale Sprache gelegentlich monoton.

E. Ergebnis

RepoDoc.AI ist schnell und effizient in der Generierung von Softwaredokumentations-Artefakten, eignet sich jedoch primär für den initialen Dokumentationsstart, da generische Inhalte bei unzureichender Code-Kommentierung die Qualität begrenzen. Es adressiert die Probleme der Vollständigkeit und des Zeitmangels bei der Dokumentationserstellung. GitBook eignet sich durch seine Repository-Anbindung besonders für die kontinuierliche Pflege bestehender Dokumentation und das Codeverständnis. Das integrierte RAG-System adressiert primär Zugänglichkeits- und Auffindbarkeitsdefizite und ermöglicht durch intuitive Bedienung eine langfristige, inkrementelle Qualitätsverbesserung.

F. Scribe, Trupeer und Trainn

Im Rahmen dieser Arbeit wurden drei KI-gestützte Werkzeuge zur automatisierten Erstellung von Benutzerdokumentation untersucht: Scribe, Trupeer und Trainn. Da die im Kontext der Vorlesung entwickelte Anwendung zum Zeitpunkt der Evaluation noch nicht vollständig implementiert war, wurde ein funktionsfähiger Prototyp auf Basis von Figma-Make verwendet, welcher die zentralen Kernfunktionalitäten der Anwendung abbildete [23]. Für alle drei Systeme wurde ein identischer Workflow durchgeführt, um eine möglichst vergleichbare Bewertung zu ermöglichen.

Alle untersuchten Werkzeuge stehen sowohl in einer kostenfreien Basisversion als auch in erweiterten, kostenpflichtigen Varianten zur Verfügung und können als Browser-Erweiterungen innerhalb von Google Chrome eingesetzt werden [24]–[26]. Trupeer bietet zusätzlich die Möglichkeit, bereits vorhandene Screenrecordings hochzuladen, wofür keine Installation des Chrome-Plugins notwendig ist [26]. Das grundlegende Funktionsprinzip ist bei allen Systemen vergleichbar: Nach Start eines Screenrecorders und Auswahl des entsprechenden Browser-Tabs wird ein Nutzungsworkflow aufgezeichnet, welcher anschließend automatisiert in Dokumentationsartefakte überführt wird [24]–[26].

Scribe generierte nach Abschluss der Aufzeichnung eine strukturierte Schritt-für-Schritt-Anleitung und stellte zusätzlich eine sogenannte „Guide-Me“-Funktion bereit. Diese öffnet automatisch die Zielanwendung parallel zur erzeugten Anleitung und ermöglicht somit eine geführte Erkundung der Software [24]. Trupeer hingegen erzeugte primär ein Video-Tutorial mit KI-generierter Sprachausgabe, wobei optional auch die originale Audiospur der Aufnahme verwendet werden kann. In der Evaluation zeigte sich jedoch, dass die synthetische Sprachausgabe teilweise zeitlich nicht exakt mit den dargestellten Aktionen synchronisiert war oder Sätze nicht beendet wurden [26]. Trainn verfolgte einen ähnlichen Ansatz, erzeugte ebenfalls Video-Tutorials mit KI-generiertem Voice-Over und ergänzte diese durch visuelle Hervorhebungen relevanter Benutzeroberflächenelemente. Zusätzlich konnte automatisch eine Schritt-für-Schritt-Anleitung generiert werden, ohne dass eine erneute Aufzeichnung erforderlich war. Während der Aufnahme ermöglichte eine Hover-Funktion das Hervorheben von Bereichen ohne explizite Interaktion, welche unmittelbar in die Beschreibung des Voice-Overs übernommen wurden. Die resultierenden Artefakte konnten anschließend umfassend nachbearbeitet werden [25].

Im direkten Vergleich zeigte Trupeer aufgrund der geringeren Videoqualität sowie des höheren Nachbearbeitungsaufwands schwächere Ergebnisse als Trainn. Trainn überzeugte insbesondere durch die gleichzeitige Generierung mehrerer Dokumentationsformate aus einer einzigen Aufnahme. Scribe hob sich dagegen durch die interaktive Guide-Me-Funktion hervor, welche von den anderen Systemen nicht angeboten wird. Ein gemeinsamer Nachteil aller untersuchten Werkzeuge besteht in eingeschränkten Exportmöglichkeiten, da die erzeugten Dokumentationen nicht lokal heruntergeladen werden können und somit eine Bindung an die jeweilige Plattform entsteht. Die Inhalte lassen sich lediglich über Freigabelinks teilen [24]–[26].

Die Evaluation zeigt insgesamt, dass KI-gestützte Werkzeuge bereits heute eine deutliche Reduktion des manuellen Aufwands bei der Erstellung von Benutzerdokumentation ermöglichen und insbesondere bei der schnellen Erzeugung workflowbasierter Anleitungen einen erheblichen Effizienzgewinn bieten.

V. STAND DER TECHNIK

A. Technologische Evolution und industrielle Adaption

Die Verwaltung und Erstellung von Dokumentation hat in den letzten Jahrzehnten einen fundamentalen Wandel durchlaufen, der sich in vier technologische Generationen unterteilen lässt [5]:

  • Generation 1 (Digitalisierung): Fokus auf elektronische Dokumentenmanagementsysteme zur Ablösung physischer Archive und Ermöglichung von systematischer Suche.
  • Generation 2 (Verwaltung): Einführung von Versionskontrollen und Benachrichtigungssystemen für asynchrone Zusammenarbeit.
  • Generation 3 (Kollaboration): Etablierung von Cloud-Storage und mobilen Applikationen mit Fokus auf aktive Review-Prozesse und Task-Management.
  • Generation 4 (KI-Assistenz): Die aktuelle Phase, in der KI als „persönlicher Assistent“ fungiert und mittels Pattern Discovery sowie Automated Codification Inhalte autonom klassifiziert und aufbereitet [5].

Obwohl die theoretische Entwicklung bereits die vierte Generation erreicht hat, zeigt die industrielle Praxis ein differenziertes Bild der Adaption. Aktuelle Daten des Stack Overflow Developer Survey 2025 mit über 12.000 Teilnehmern verdeutlichen, dass das Potenzial moderner KI-Assistenz noch nicht voll ausgeschöpft wird. Derzeit nutzen etwa 30% der Befragten KI-Tools zur Kommentierung von Quellcode, während lediglich 25% diese zur aktiven Erstellung und Pflege der Dokumentation heranziehen. Bemerkenswert ist, dass bereits 20% der Entwickler KI-gestützte Ansätze nutzen, um komplexe Zusammenhänge innerhalb der Codebase zu explorieren [27]. Diese Verteilung unterstreicht, dass trotz der technologischen Reife der vierten Generation ein erheblicher Spielraum für die flächendeckende Integration dieser Werkzeuge im Entwicklungsalltag besteht.

B. Wissensmanagement und Modernisierung von Altsystemen

In der aktuellen vierten Generation wird ein signifikanter wirtschaftlicher Vorteil in der Modernisierung von veralteten Systemen (Legacy Code) gesehen. In diesem Kontext wird die Stärke der KI insbesondere in der semantischen Analyse und der automatisierten Erstellung von Architekturdiagrammen deutlich. Entwickler verwenden traditionell bis zu 60% ihrer Zeit für das Verständnis von nicht dokumentiertem Code. Der KI-Einsatz bietet daher ein direktes Potenzial zur Reduktion dieser Zeit. Das sogenannte Strangler Pattern ist eine mögliche Strategie, die diesen Prozess durch eine risikoarme, schrittweise Modernisierung unterstützt [28].

Trotz dieser signifikanten Effizienzgewinne für das Onboarding und Wissensmanagement wird die flächendeckende Einführung intelligenter Systeme durch tiefgreifende Sicherheitsbedenken eingeschränkt. Das Risiko eines potenziellen Verlusts sensibler Unternehmensdaten bei der Nutzung externer KI-Schnittstellen führt dazu, dass IT-Experten die Sicherheit aktueller Lösungen skeptisch bewerten [5].

C. Automatisierung in Continuous Software Development (CSD)

Parallel dazu fokussiert sich die Forschung auf die Echtzeit-Synchronisation innerhalb von CSD-Umgebungen, um die Konsistenz zwischen Code-Entwicklung und Dokumentation zu gewährleisten. Architekturen auf Basis von RAG-Systemen demonstrieren hierbei eine hohe Leistungsfähigkeit bei der Verarbeitung von Code-Diffs innerhalb von Merge-Requests. Ein aktueller Forschungsansatz ist das Framework CodeDocSync, welches eine Antwortrelevanz von bis zu 0,94 erreicht. Diese hohe Präzision wird maßgeblich durch den Einsatz von Emotion Prompting unterstützt. Die Qualität der Generierung ist dabei abhängig von der methodischen Aufbereitung der Instruktionen sowie einer präzisen Kontextselektion [29]. Die Skalierung dieser Ansätze auf umfangreiche, monolithische Codebasen stellt jedoch weiterhin eine zentrale Forschungsherausforderung dar. Die Context-Window-Limitierungen aktueller LLMs erschweren die ganzheitliche Erfassung globaler Systemabhängigkeiten. Um diese Restriktionen zu überwinden, untersuchen aktuelle Forschungsarbeiten die Granularität des Information Retrievals. Ansätze wie das Intelligent Chunking oder die strukturelle Analyse mittels Abstract Syntax Tree (AST) zielen darauf ab, logische Einheiten präziser zu extrahieren.

Diese Verfahren erhöhen jedoch die algorithmische Komplexität sowie die benötigten Rechenressourcen signifikant, was die Überführung in performante Echtzeitsysteme erschwert [30].

D. Zielgruppenadaption und Documentation-Driven Development

Die Effektivität automatisierter Dokumentation wird maßgeblich durch ihre Adressatengerechtigkeit bestimmt. Hier zeigt sich in der aktuellen Forschung ein zweigeteiltes Bild hinsichtlich der Nutzerakzeptanz. KI-Modelle erweisen sich als exzellentes Werkzeug, um komplexe technische Inhalte für Management-Ebenen aufzubereiten. Durch die Fähigkeit der LLM, Texte zu verdichten und eine prägnantere Sprache zu wählen, wird die Akzeptanz bei fachfremden Entscheidungsträgern signifikant erhöht. Im Gegensatz dazu bleibt die Akzeptanz innerhalb der Entwicklerteams moderat. Experten bevorzugen oft die ursprüngliche, technisch präzise Dokumentation, da KI-gestützte Versionen dazu neigen, essenzielle Details zugunsten einer höheren sprachlichen Fluidität zu vernachlässigen. Dies führt zu einer Diskrepanz zwischen der gewünschten Abstraktion für das Management und der benötigten Informationstiefe für die technische Implementierung [7].

Um die Diskrepanz zwischen Abstraktion und technischer Exaktheit zu überbrücken, rücken methodische Rahmenwerke wie das Documentation Driven Development (DDD) in den Fokus der Forschung. In diesem Paradigma fungiert die Dokumentation nicht als retrospektive Beschreibung, sondern als primäre Spezifikationsinstanz vor der eigentlichen Implementierung. Durch die komplementäre Kopplung mit Test Driven Development (TDD) wird eine konsistente Informationsgrundlage geschaffen, die als präziser Kontext für generative KI-Modelle dient [14]. Nichtsdestotrotz erweist sich die praktische Umsetzung als anspruchsvoll, da der hohe initiale Aufwand für die Erstellung von Dokumentation und Tests weiterhin die meiste Entwicklungszeit beanspruchen kann. Zudem korreliert die Code-Qualität kritisch mit der Vollständigkeit der textuellen Beschreibungen, da visuelle Architekturdiagramme von aktuellen Tools oft nur unzureichend verarbeitet werden. In Verbindung mit dem Nicht-Determinismus der KI und der Neigung zu funktional korrekten, aber algorithmisch suboptimalen Lösungen bleibt eine kontinuierliche menschliche Aufsicht unverzichtbar [14].

VI. FAZIT

Die vorliegende Arbeit zeigt, dass der Einsatz künstlicher Intelligenz die Erstellung und Pflege von Softwaredokumentation grundlegend verändert. KI-Systeme ermöglichen eine deutliche Reduktion des manuellen Aufwands und adressieren insbesondere das in der Praxis häufig auftretende Problem des Zeitmangels bei der Dokumentationserstellung. Die Evaluation verschiedener Generierungsansätze sowie ausgewählter Werkzeuge verdeutlicht jedoch, dass die Qualität der Ergebnisse stark von der zugrunde liegenden Informationsbasis und einem fundierten Verständnis von Dokumentationsstrukturen abhängt. Ein tiefgehendes Verständnis der unterschiedlichen Dokumentationsarten, der Intention der Dokumentation und der Zielgruppen erweist sich daher als zentrale Voraussetzung für effektives Prompting und den erfolgreichen Einsatz KI-gestützter Systeme. Darüber hinaus gewinnt der Ansatz der Generative Engine Optimization zunehmend an Bedeutung. Dokumentation dient nicht mehr ausschließlich menschlichen Lesern, sondern muss zugleich für KI-Systeme strukturiert und interpretierbar sein, um Auffindbarkeit und Wiederverwendbarkeit in KI-gestützten Such- und Assistenzsystemen sicherzustellen. Ein weiterer zentraler Erfolgsfaktor liegt in der technischen Integration der Dokumentationsgenerierung in bestehende Entwicklungsprozesse. Insbesondere die Einbindung in CI/CD-Pipelines ermöglicht eine kontinuierliche Aktualisierung und reduziert das Risiko veralteter Dokumentation, welches als eines der größten praktischen Probleme identifiziert wurde. Trotz der hohen Effizienzpotenziale zeigt sich, dass KI menschliche Expertise nicht ersetzt. Vielmehr etabliert sich ein Human-in-the-Loop-Ansatz, bei dem die KI das operative “Heavy Lifting” übernimmt, während Verantwortung, Qualitätssicherung sowie fachliche Validierung weiterhin beim Menschen verbleiben. Die Kombination aus automatisierter Generierung und menschlicher Kontrolle stellt somit aktuell den nachhaltigsten Ansatz für qualitativ hochwertige Softwaredokumentation dar.

VII. AUSBLICK

Die rasante Weiterentwicklung generativer KI deutet auf einen grundlegenden Wandel im Umgang mit Softwaredokumentation hin. Zukünftig könnte klassische, statische Dokumentation zunehmend durch interaktive Wissenssysteme ergänzt oder teilweise ersetzt werden. Ein vielversprechender Ansatz ist das Konzept “Chat with your Codebase”, bei dem Entwickler und Anwender Informationen nicht mehr aktiv in Dokumentationen suchen müssen, sondern Fragen direkt an ein KI-System stellen, das auf Repository- und Dokumentationsdaten zugreift. Parallel dazu zeichnet sich eine Entwicklung hin zu automatisch aktualisierter Dokumentation ab. KI-Systeme können Veränderungen im Quellcode oder in Benutzeroberflächen erkennen und entsprechende Anpassungen der Dokumentation eigenständig durchführen. Dadurch entsteht erstmals die Möglichkeit einer kontinuierlich synchronisierten Wissensbasis über den gesamten Softwarelebenszyklus hinweg.

Eng damit verbunden ist das Konzept der Drift-Detection. Zukünftige Systeme werden zunehmend in der Lage sein, Abweichungen zwischen Implementierung und Dokumentation automatisch zu identifizieren und Entwickler frühzeitig auf Inkonsistenzen hinzuweisen. Dies könnte langfristig eines der zentralen Qualitätsprobleme technischer Dokumentation lösen. Insgesamt deutet sich eine Verschiebung von statischer Dokumentation hin zu dynamischen, KI-gestützten Wissensökosystemen an, in denen Dokumentation nicht mehr als nachgelagerte Aufgabe verstanden wird, sondern als kontinuierlicher, automatisierter Bestandteil moderner Softwareentwicklung.

Literatur

[1] I. Sommerville, “Software documentation,” Lancaster University UK, 2001, Überarbeitete Version von Kapitel 30 aus Software Engineering, 4th edition (Addison Wesley, 1992). [Online]. Available:
[2] D. Procida, “Diátaxis documentation framework,” [Abgerufen: 05.01.2026]. [Online]. Available:
[3] C. Treude, J. Middleton, and T. Atapattu, “Beyond accuracy: assessing software documentation quality,” in Proceedings of the 28th ACM Joint Meeting on European Software Engineering Conference and Symposium on the Foundations of Software Engineering, 2020, pp. 1509–1512.
[4] E. Aghajani, C. Nagy, M. Linares-Vásquez, L. Moreno, G. Bavota, M. Lanza, and D. C. Shepherd, “Software documentation,” in Proceedings of the ACM/IEEE 42nd International Conference on Software Engineering, 2020, pp. 590–601.
[5] D. Georgiev and A. Antonova, “Enhancing knowledge sharing processes via automated software documentation management systems using gen ai software tools,” in 2024 XXXIV International Scientific Symposium Metrology and Metrology Assurance (MMA), 2024, pp. 1–6.
[6] guidde. (2024) Targeted technical writing: Reaching end-users, developers, and system administrators. [Abgerufen: 12.01.2026]. [Online]. Available:
[7] S. Bala, K. Sahling, J. Haase, and J. Mendling, “ChatGPT for tailoring software documentation for managers and developers,” in Agile Processes in Software Engineering and Extreme Programming – Workshops, vol. 524. Springer, 2025, pp. 103–109.
[8] G. Garousi, V. Garousi, M. Moussavi, G. Ruhe, and B. Smith, “Evaluating usage and quality of technical software documentation,” in Proceedings of the 17th International Conference on Evaluation and Assessment in Software Engineering, 2013, pp. 24–35.
[9] Meegle, “Software documentation standards,” , [Abgerufen: 10.01.2026].
[10] GitBook, “Geo guide: How to optimize your docs for ai search and llm ingestion,” , [Abgerufen: 12.01.2026].
[11] A. Crestodina, “Are ai chatbots replacing search engines? AI vs Google [new research],” , Orbit Media Studios, [Abgerufen: 12.01.2026].
[12] H. Ehtesham, “Ai visibility statistics 2026: The hidden shift behind 1.5 billion monthly AIO users,” , All About AI, Jan. 2026, [Abgerufen: 12.01.2026].
[13] G. Foster, “Ai for code documentation: automating comments and docs,” Apr. 2025, , [Abgerufen: 30.12.2025].
[14] I. B. Bobrov, “Documentation-driven development mit ki neu denken,” .
[15] CREATEQ AG, “Automated code documentation,” 2025, , [Abgerufen: 30.12.2025].
[16] L. Naimi, E. M. Bouziane, A. Jakimi, R. Saadane, and A. Chehri, “Automating software documentation: Employing llms for precise use case description,” Procedia Computer Science, vol. 246, pp. 1346–1354, 2024, , [Abgerufen: 11.01.2026].
[17] A. Ibrahim, M. Baryal, A. Ullah, M. Shoaib, and M. G. Khan, “Using nlp and ai to enhance software documentation and code comprehension,” Spectrum of Engineering Sciences, vol. 3, no. 5, p. 195–204, May 2025, , [Abgerufen: 05.01.2026].
[18] KodeSage, “7 ai documentation generators you should know,” , 2025, [Abgerufen: 12.01.2026].
[19] L. yunhan and W. gengshen, “Legaleval-q: A new benchmark for the quality evaluation of llm-generated legal text,” 2025, , [Abgerufen: 09.01.2026].
[20] RepoDoc AI, “Repodoc ai — ai github documentation generator,” , [Abgerufen: 20.02.2026].
[21] GitBook, “Gitbook — documentation platform,” , [Abgerufen: 20.02.2026].
[22] P. Runeson and M. Höst, “Guidelines for conducting and reporting case study research in software engineering,” Empirical Software Engineering, vol. 14, no. 2, pp. 131–164, 2008.
[23] Figma, “Gamified learning app – figma make prototype,” , [Abgerufen: 10.01.2026].
[24] Scribe, “Scribe — process documentation and knowledge sharing platform,” , [Abgerufen: 10.01.2026].
[25] Trainn, “Trainn — customer education and product training platform,” , [Abgerufen: 10.01.2026].
[26] Trupeer, “Trupeer — ai-based video and documentation creation,” , [Abgerufen: 10.01.2026].
[27] Stack Overflow, “2025 developer survey: AI tools and usage trends,” , 2025, [Abgerufen: 13.01.2026].
[28] P. K. M. Surendra, “Automating documentation and legacy code modernization: Revitalizing legacy systems with AI,” World Journal of Advanced Engineering Technology and Sciences, vol. 15, no. 1, pp. 1390–1397, 2025.
[29] H. Birru, A. Cicchetti, and M. Latifaj, “Supporting automated documentation updates in continuous software development with large language models,” 01 2025, pp. 92–106.
[30] A. S. Bhosale, A. G. Mahajan, K. S. Pawar, A. V. Ulagadde, and M. Mane, “AI based code documentation generation,” International Journal of Innovative Research in Technology (IJIRT), vol. 11, no. 9, February 2025.


Posted

in

by

Ai Nhu Dinh, Anna Rinck, Kathrin Keubler

Comments

Leave a Reply