In meiner Artikelserie haben wir bereits eine weite Reise durch die taktischen und strategischen Landschaften der Lean Softwareentwicklung gemacht. In den bisherigen Beiträgen haben wir uns mit der Disziplin des „Eliminating Waste“, der Neugier des „Amplifying Learning“, der strategischen Geduld von „Deciding as Late as Possible“, der operativen Notwendigkeit „Deliver as Fast as Possible“ und dem menschlichen Kern des Systems „Empower the Team“ beschäftigt.
Mit dem sechsten Prinzip aus dem grundlegenden Werk Lean Software Development: An Agile Toolkit von Mary und Tom Poppendieck erreichen wir nun ein Konzept, das den Unterschied zwischen einem funktionierenden und einem herausragenden System ausmacht: Build Integrity In.
Im Jahr 2026 ist die Softwarelandschaft geprägt von enormer kognitiver Belastung, verteilten Architekturen und der schnellen Integration von KI-unterstütztem Code. In diesem anspruchsvollen Umfeld ist Integrität keine ästhetische Entscheidung, sondern die einzige Möglichkeit, ein System wartbar, anpassungsfähig und für Nutzer relevant zu halten.
Wenn „Empower the Team“ den Motor liefert, dann sorgt „Build Integrity In“ für die strukturelle Stabilität, damit das Fahrzeug bei hoher Geschwindigkeit nicht auseinanderfällt. Und Prozesse wie mein AI Unified Process stellen sicher, dass dieses Fahrzeug auch tatsächlich sein Ziel erreicht.
Die doppelte Natur der Integrität
Ende der 1980er-Jahre untersuchte Kim Clark von der Harvard Business School, warum manche Unternehmen konstant überlegene Produkte entwickeln, während andere scheitern. Seine Forschung in der Automobilindustrie zeigte, dass der entscheidende Unterschied in der Produktintegrität liegt. Diese unterteilte er in zwei Dimensionen: wahrgenommene Integrität und konzeptionelle Integrität.
Wahrgenommene Integrität ist die externe Dimension. Sie beschreibt, wie gut Funktionalität, Benutzerfreundlichkeit und Zuverlässigkeit eines Produkts den Kunden begeistern und zu seinem Alltag passen. Wenn ein Nutzer das Gefühl hat, dass die Entwickler „in seinem Kopf waren“, dann besitzt das System wahrgenommene Integrität. Diese ist stark subjektiv und kann von Nutzer zu Nutzer variieren. Im Jahr 2026 bedeutet das oft Systeme, die Bedürfnisse antizipieren, etwa durch intelligente Defaults oder nahtlose KI-Unterstützung.
Konzeptionelle Integrität ist die interne Dimension. Sie bedeutet, dass die zentralen Konzepte eines Systems als kohärentes Ganzes zusammenarbeiten. Architektur muss dabei ein Gleichgewicht zwischen Flexibilität, Wartbarkeit und Reaktionsfähigkeit erreichen. Diese Dimension ist technisch und damit objektiver.
Mit zunehmender Komplexität durch Microservices und serverlose Architekturen wird konzeptionelle Integrität schwieriger zu erreichen, aber gleichzeitig immer wichtiger. Es ist die „unsichtbare Sauberkeit“ im Code und die Konsistenz der Datenmodelle, die es ermöglichen, das Gesamtsystem zu verstehen, indem man einen Teil betrachtet.
Konzeptionelle Integrität ist die Voraussetzung für wahrgenommene Integrität. Ohne konsistente Designprinzipien leidet die Benutzerfreundlichkeit, weil dem Nutzer eine einheitliche Metapher fehlt. Ein System, das von zehn Teams mit zehn unterschiedlichen Vorstellungen eines Benutzerprofils entwickelt wurde, wird sich niemals stimmig anfühlen.
Der Schlüssel: exzellenter Informationsfluss
Die Poppendiecks argumentieren, dass Integrität durch einen exzellenten und detaillierten Informationsfluss entsteht. Wahrgenommene Integrität spiegelt den Informationsfluss von den Nutzern zu den Entwicklern wider, während konzeptionelle Integrität den technischen Informationsfluss zwischen Systemkomponenten oder Microservices beschreibt.
Im Jahr 2026 können command-and-control Strukturen, die Anforderungen und Implementierung voneinander trennen, fatal sein. Sequentielle Entwicklungsmodelle, bei denen Anforderungen an Analysten, dann an Designer und schliesslich an Entwickler übergeben werden, führen dazu, dass diejenigen, die den Code schreiben, mehrere Dokumente vom eigentlichen Kundenbedürfnis entfernt sind.
Bis ein Entwickler eine technische Entscheidung trifft, ist die ursprüngliche Vision oft längst verloren gegangen.
Lean-Organisationen setzen daher auf Modelle mit hoher Bandbreite in der Kommunikation. Es geht nicht um mehr Meetings, sondern darum, die Distanz zwischen Frage und Antwort zu minimieren.
Hier empfehlen die Poppendiecks das Chief Engineer Modell (in Japan oft „Shusa“ genannt). Dieses Modell stammt aus dem Toyota Product Development System und basiert auf einer Person mit tiefem technischem Verständnis und gleichzeitig starkem Kundenfokus.
Der Chief Engineer ist kein klassischer Manager, sondern Experte und Vermittler. Er beeinflusst das Projekt durch technische Autorität und Vision und arbeitet über funktionale Silos hinweg, etwa UI, Backend, KI und QA. Ziel ist es, dass alle Teile des Systems auf ein gemeinsames Produktkonzept ausgerichtet sind und damit Integrität entsteht.
Vergleich:
| Merkmal | Klassischer Projektmanager | Chief Engineer |
|---|---|---|
| Fokus | Zeitplan, Budget, Ressourcen | Produktintegrität, Wert, Architektur |
| Technisches Know-how | Oft generalistisch | Tiefgehende Expertise |
| Entscheidungsfindung | Koordiniert Meetings | Trifft technische Produktentscheidungen |
| Kommunikation | Erstellt Reports | Übersetzt Kundenwert in Code |
Unabhängig davon, ob man mit einem Chief Engineer oder cross-funktionalen Teams arbeitet, bleibt das Ziel gleich: Die Vision der Stakeholder soll vom ersten Code bis zum Deployment konsistent erhalten bleiben.
Refactoring und Tests als Fundament der Qualität
Ein häufiger Irrtum ist die Annahme, dass Design von Anfang an perfekt sein muss. In einem dynamischen Markt führt ein frühes „Einfrieren“ der Architektur jedoch zu fragilen Systemen.
In Lean wird Integrität durch zwei zentrale Praktiken sichergestellt: Refactoring und automatisiertes Testen.
Refactoring bedeutet, das Design kontinuierlich zu verbessern. Es ist keine Nacharbeit, sondern eine gezielte Weiterentwicklung. Ähnlich wie bei Toyota die Produktion gestoppt wird, um Ursachen zu beheben, müssen Entwickler regelmässig Code bereinigen und Duplikate entfernen, um die Architektur gesund zu halten.
Automatisierte Tests bilden das Sicherheitsnetz für diese Entwicklung. Sie sind nicht nur zur Fehlererkennung da, sondern beschreiben präzise das erwartete Verhalten eines Systems. Eine umfassende Testsuite wird zur „Landkarte“ des Systems und ermöglicht sichere Änderungen über den gesamten Lebenszyklus hinweg.
Integrierte Problemlösung
Ein praktisches Beispiel: Ein Projekt hatte grosse Probleme bei einer Datenmigration – ein klassischer „Death March“. Die Frage war, wie ein komplexes Legacy-Datenmodell in eine moderne Cloud-Architektur überführt werden kann.
Der klassische Ansatz wäre gewesen, dass ein Architekt mehrere Wochen an einer umfangreichen Spezifikation arbeitet.
Stattdessen brachte das Team alle Beteiligten zusammen: Datenbankadministratoren, Frontend-Entwickler und Product Owner. Statt Lösungen vorzugeben, wurden zunächst die Constraints gesammelt:
- DBAs brauchten Performance
- Frontend-Entwickler brauchten Einfachheit
- Der Product Owner brauchte korrekte historische Daten
Durch die gemeinsame Visualisierung dieser Anforderungen entstand eine neue Lösung: eine Transformationsschicht in der Mitte, die alle Anforderungen erfüllte.
Das Ergebnis:
- Konzeptionelle Integrität, weil die Lösung zur Architektur passte
- Wahrgenommene Integrität, weil sie den Nutzeranforderungen entsprach
Das System funktionierte von Anfang an, weil Integrität nicht am Ende geprüft, sondern von Anfang an eingebaut wurde.
Ein Prozess für alles: der AI Unified Process
Viele Entwickler haben heute „Vibe Coding“ ausprobiert, also KI primär zur Beschleunigung der Implementierung genutzt.
Ich habe jedoch festgestellt, dass KI besonders wertvoll vor dem Coding ist, nämlich in der Spezifikationsphase.
Der AI Unified Process ist ein spezifikationsgetriebener Ansatz, bei dem System Use Cases im Zentrum stehen. Die Spezifikation ist das zentrale Artefakt des gesamten Entwicklungsprozesses.
Das gibt sowohl dem Team als auch den eingesetzten KI-Systemen eine klare Richtung. Verwirrung wird reduziert, und gleichzeitig entsteht Raum, um mehr Qualität und Integrität bewusst aufzubauen.
Die Rolle des Chief Engineers passt perfekt in diesen Ansatz. Er begleitet den gesamten Prozess:
- Definition von Anforderungen und Use Cases
- Kontinuierliche Verfeinerung
- Sicherstellung der Integrität über alle Artefakte hinweg
Die KI unterstützt dabei kontinuierlich beim Testen, Refactoring und Validieren.
Der Erfolg eines Teams sollte daher nicht an der Geschwindigkeit des Codings gemessen werden, sondern an der Qualität und Integrität der Ergebnisse.
Fazit: Nachhaltiger Erfolg durch Integrität
„Build Integrity In“ ist kein einmaliger Schritt, sondern ein kontinuierlicher Prozess, den Teams aktiv pflegen müssen.
In der komplexen Welt von 2026 ist die Fähigkeit, eine konsistente Architektur zu bewahren und gleichzeitig schnell auf Nutzerbedürfnisse zu reagieren, ein entscheidender Wettbewerbsvorteil.
Durch guten Informationsfluss und konsequentes Refactoring entstehen robuste Systeme, die Nutzer wirklich begeistern.
Vibe Coding kann Entwicklung beschleunigen. Der AI Unified Process geht einen Schritt weiter: Er strukturiert und beschleunigt Entwicklung, ohne Agilität zu verlieren.
Das Ergebnis ist genau das, was wir alle erreichen wollen: eingebaute Integrität.
Wie die Poppendiecks sagen: Qualität ist nichts, was man am Ende hinzufügt. Sie ist das Ergebnis eines Prozesses, der die Integrität des Gesamtsystems in den Mittelpunkt stellt.
Im nächsten Artikel geht es um das letzte Prinzip: „See the Whole“ – und darum, wie man lokale Optimierungen vermeidet und den maximalen Gesamtwert im Blick behält.


