Ein kürzlich erschienener Artikel von Geoffrey Huntley argumentiert, dass die Softwareentwicklung dank KI extrem schnell und kostengünstig wird. Diese Beobachtung ist richtig. Code, für den früher Tage benötigt wurden, kann heute in Minuten generiert werden. Ganze Funktionen lassen sich nahezu im Handumdrehen erstellen.

Doch das ist nur die halbe Wahrheit.

Was der Artikel hinsichtlich der Geschwindigkeit hervorhebt, deutet er beim Verständnis nur an. Und genau darin liegt die eigentliche Herausforderung.

Der Engpass hat sich verlagert.

KI reduziert den Aufwand bei der Implementierung erheblich. Sie beseitigt jedoch nicht den Aufwand, der nötig ist, um ein Problem zu verstehen.

Bevor Code geschrieben wird, muss immer noch jemand herausfinden, was das System eigentlich leisten soll. Dazu gehört das Verständnis des Anwendungsbereichs, die Klärung von Regeln, die Beseitigung von Unklarheiten und die Abstimmung der Erwartungen verschiedener Stakeholder, die oft im Widerspruch zueinander stehen. Diese Tätigkeiten sind zutiefst menschlich. Sie erfordern Zeit, Diskussionen und sorgfältiges Nachdenken.

Kein Modell kann diesen Prozess vollständig abkürzen. Es kann unterstützen, aber Verantwortung nicht ersetzen.

Folglich ist der Engpass nicht verschwunden. Er hat sich lediglich verlagert. Was früher eine technische Einschränkung war, ist heute eine kognitive.

Geschwindigkeit ohne Klarheit führt zu Verschwendung.

Es herrscht die weitverbreitete Annahme, dass schnelleres Programmieren automatisch zu schnellerer Auslieferung führt. In der Praxis trifft dies selten zu.

Organisationen sind nicht durch Tippgeschwindigkeit begrenzt, sondern durch Entscheidungsfindung, Koordination und Klarheit. Selbst wenn die Implementierung zehnmal schneller wird, verlangsamen unklare Anforderungen alles. In manchen Fällen verschlimmern sie die Situation sogar.

Mit KI lässt sich zwar sehr einfach funktionierende Software schnell erstellen. Doch wenn das zugrunde liegende Verständnis falsch ist, erhält man nur ein Ergebnis: fehlerhafte Systeme, die zwar schneller geliefert werden.

Das Ergebnis ist keine Beschleunigung, sondern verstärkte Nacharbeit.

Die Illusion des Fortschritts

KI vermittelt ein starkes Gefühl des Fortschritts. Code entsteht schnell. Schnittstellen wirken vollständig. Systeme scheinen zu funktionieren.

Doch das kann trügerisch sein.

Wenn das Verhalten nicht klar definiert ist, kann das System fertig aussehen, obwohl es grundlegend fehlerhaft ist. Die Kluft zwischen Schein und Sein wächst. Dies ist gefährlich, insbesondere in komplexen Geschäftssystemen, in denen Sonderfälle und Regeln wichtiger sind als der Normalfall.

In einem solchen Umfeld ist Geschwindigkeit ohne Klarheit kein Vorteil, sondern ein Nachteil.

Vom Codieren zum Spezifizieren

Wir treten in eine Phase ein, in der das Codieren nicht mehr der schwierigste Teil der Softwareentwicklung ist. Die präzise Beschreibung des Verhaltens ist es.

Die zentrale Frage verschiebt sich von „Wie implementieren wir das?“ zu „Was genau soll implementiert werden?“

Dies verändert das Kompetenzprofil von Teams. Das Schreiben von Code verliert an Bedeutung. Das Verstehen von Problemen und deren klare Formulierung werden zur Kernkompetenz.

Klarheit wird zur knappen Ressource.

Warum Anforderungen dadurch wieder entscheidend werden

Lange Zeit wurde das Anforderungsmanagement oft als zweitrangig betrachtet. Viele Teams bevorzugten es, „Dinge im Code herauszufinden“.

Dieser Ansatz ist in einer KI-gesteuerten Welt nicht skalierbar.

Wenn die Eingabe für ein KI-System vage ist, ist die Ausgabe unzuverlässig. KI löst keine Mehrdeutigkeiten auf, sondern verstärkt sie. Daher sind gut definierte Anforderungen wieder unerlässlich – nicht als umfangreiche Dokumentation, sondern als präzise Verhaltensbeschreibungen, die geteilt, überprüft und als vertrauenswürdig eingestuft werden können.

Von spontanen Eingabeaufforderungen zu strukturiertem Verständnis

Manche Teams versuchen, dieses Problem durch die Verbesserung ihrer Eingabeaufforderungen zu lösen. Dies funktioniert zwar bei kleinen Aufgaben, stößt aber bei größeren Systemen an seine Grenzen.

Eingabeaufforderungen sind flüchtig. Sie sind schwer zu überprüfen, schwierig zu versionieren und als gemeinsame Datenquelle nahezu unmöglich zu pflegen. Sie bieten keine Stabilität.

Was stattdessen benötigt wird, ist ein Satz strukturierter, persistenter Artefakte, die das System klar beschreiben. Hier bietet der AI Unified Process eine hilfreiche Perspektive.

Er verlagert den Fokus von spontanen Eingabeaufforderungen hin zu stabilen Spezifikationen. Das Verhalten wird explizit durch Artefakte wie Systemanwendungsfälle definiert, die mit Anforderungen und Domänenmodellen verknüpft sind. Diese Artefakte sind keine Dokumentation um ihrer selbst willen. Sie bilden das Fundament, das sowohl Menschen als auch KI leitet.

Bei diesem Ansatz folgt die Implementierung der Spezifikation. Änderungen beginnen mit dem Verhalten, nicht mit dem Code. Dies stellt sicher, dass Geschwindigkeit nicht auf Kosten der Korrektheit geht.

Eine andere Art der Softwareentwicklung

Die eigentliche Transformation besteht nicht in der Umstellung von manueller auf KI-gestützte Programmierung. Es geht vom Programmieren zum Verstehen.

KI ist äußerst effektiv, wenn das Problem klar definiert ist. Sie wird unzuverlässig, wenn das Problem vage ist. Das bedeutet, dass die Qualität des Ergebnisses direkt von der Qualität der Spezifikation abhängt.

Teams, die diesen Wandel erkennen, passen ihre Prozesse an. Sie investieren mehr in Klarheit, beseitigen Mehrdeutigkeiten frühzeitig und halten ihre Systeme so klein, dass sie verständlich bleiben. Sie verlassen sich nicht darauf, dass KI Probleme löst, sondern nutzen sie, um klar definierte Absichten umzusetzen.

Fazit

KI hat die Komplexität nicht beseitigt, sondern verlagert.

Der Aufwand lohnt sich nicht.