Arbeiten mit generativer KI in der Due Diligence
Fünf Phasen, viele Erwartungen – und einige ernüchternde Erkenntnisse
Generative KI wird derzeit als universelles Werkzeug gehandelt: Sie soll Dokumente verstehen, Zahlen analysieren, Risiken erkennen und Entscheidungen vorbereiten – möglichst alles gleichzeitig und möglichst automatisch. Gerade im Bereich der Due Diligence, also der strukturierten Prüfung von Geschäftsmodellen, scheint das Versprechen verlockend. Schließlich liegen die relevanten Informationen meist bereits vor: Businesspläne als PDFs, Finanzmodelle in Excel, ergänzende Präsentationen und Texte.
Genau an diesem Punkt setzt unser Projekt an. Ziel war es nicht, ein weiteres „KI-Tool“ zu bauen, sondern systematisch zu untersuchen, wo und unter welchen Bedingungen generative KI in der Due Diligence tatsächlich sinnvoll einsetzbar ist – und wo nicht. Entstanden ist dabei eine mehrstufige Pipeline, die wir bewusst in einzelne Phasen zerlegt haben. Diese Phasen sind weniger als technischer Fahrplan zu verstehen, sondern als Lernprozess darüber, wie Analyse, Automatisierung und menschliches Urteil sinnvoll zusammenspielen können.
Phase 1: Extraktion – Lesen ist noch kein Verstehen
Am Anfang steht die Arbeit mit Dokumenten. Businesspläne liegen in der Regel als gut formulierte PDFs vor, reich an Text, Grafiken und Zahlen. Für Menschen sind sie lesbar, für Maschinen jedoch zunächst nicht greifbar. Phase 1 dient deshalb ausschließlich der strukturierten Extraktion: Texte werden in Abschnitte zerlegt, Zahlen als solche erkannt, Tabellen isoliert.
Die zentrale Erkenntnis hier: Extraktion ist keine Analyse. Wer an dieser Stelle bereits interpretiert, vermischt Struktur mit Bedeutung – ein Fehler, der sich später kaum korrigieren lässt.
Phase 2: Generative KI als Sprach- und Strukturhilfe
Erst auf Basis dieser strukturierten Texte kommt generative KI zum Einsatz. In Phase 2 erzeugt sie Zusammenfassungen, SWOT-Analysen und Risikoübersichten. Das funktioniert erstaunlich gut – allerdings nur, weil die Eingangsdaten sauber vorbereitet sind.
Gleichzeitig wird deutlich: Die KI prüft nichts. Sie formuliert, ordnet, verdichtet. Sie übernimmt Aussagen, hinterfragt sie aber nicht. Das ist keine Schwäche der Technologie, sondern eine Eigenschaft, die man kennen und begrenzen muss.
Phase 3: Excel – der unterschätzte Engpass
Die größte Überraschung des Projekts lag in Phase 3. Finanzdaten aus Excel gelten oft als strukturiert. In der Praxis sind sie es selten. Schon kleine Abweichungen bei Überschriften, Formeln oder Tabellenblättern führen zu falschen Ergebnissen oder Systemabbrüchen.
Hier wurde klar: Standardisierung ist kein Nebenthema, sondern der eigentliche Engpass. Keine KI kann fehlende Definitionen oder implizite Annahmen kompensieren. Erst durch strikt definierte Formate wurde zuverlässige Berechnung möglich.
Phase 4: Ergebnisse sind noch keine Erkenntnisse
Nach Phase 4 liegen viele Ergebnisse vor: strukturierte Texte, berechnete Kennzahlen, qualitative Einschätzungen. Doch sie stehen zunächst nur nebeneinander. Automatisierung erzeugt Outputs – aber noch keine Einsicht.
An diesem Punkt zeigt sich eine häufige Schwäche vieler KI-Ansätze: Sie produzieren überzeugende Reports, ohne die innere Stimmigkeit der zugrunde liegenden Aussagen zu prüfen.
Phase 5: Konsistenz als eigentliche Intelligenz
Phase 5 markiert deshalb den entscheidenden Übergang. Hier geht es erstmals nicht um neue Inhalte, sondern um eine einfache, aber zentrale Frage: Passen die Aussagen aus Text und Zahlen überhaupt zusammen?
Behauptet der Businessplan einen Umsatz, den das Excel-Modell nicht trägt? Wird ein Kapitalbedarf genannt, der rechnerisch nicht erklärbar ist? Phase 5 automatisiert genau diesen Abgleich und erzeugt daraus gezielte Rückfragen. Keine Bewertung, keine Entscheidung – sondern Klarheit darüber, wo geprüft werden muss.
Was wir über generative KI gelernt haben
Nach fünf Phasen lässt sich ein nüchternes Fazit ziehen: Generative KI ist kein Ersatz für Analyse. Sie ist ein Werkzeug zur Beschleunigung, wenn Struktur, Regeln und Grenzen klar definiert sind. Der eigentliche Mehrwert entsteht nicht durch „mehr Intelligenz“, sondern durch mehr Disziplin im Umgang mit Daten.
Oder anders formuliert:
KI ist dort stark, wo sie Ordnung unterstützt – und dort riskant, wo sie Ordnung nur suggeriert.
——————————-
Was die KI – also ChatGPT und Claude – dazu meinen:
Was ihr erlebt habt, ist genau der Unterschied zwischen über KI reden und mit KI arbeiten. In Diskussionen klingt KI oft wie ein autonomer Akteur: „Die KI analysiert“, „die KI prüft“, „die KI entscheidet“. In der realen Arbeit zeigt sich dagegen etwas ganz anderes: KI ist nur so gut wie die Struktur, die Erwartungen und die Disziplin, mit der man sie einsetzt.
Gerade eure Phasen 1 bis 5 zeigen das sehr deutlich. Der größte Lernfortschritt kam nicht aus spektakulären Modellen oder neuen Prompts, sondern aus ganz banalen, manchmal frustrierenden Tätigkeiten: Excel-Header korrigieren, Formate vereinheitlichen, Begriffe eindeutig definieren, Abweichungen sichtbar machen. Das sind Dinge, über die man auf Konferenzen kaum spricht – aber genau dort entscheidet sich, ob KI hilfreich oder irreführend wird.
Wer nur über KI spricht, bleibt meist auf der Ebene von Versprechen: schneller, intelligenter, automatisierter. Wer mit KI arbeitet, lernt schnell Demut. Man erkennt, dass KI keine Abkürzung um Denken, sondern eine Verstärkung vorhandener Strukturen ist. Sind diese Strukturen schlecht, wird die KI nur schneller schlecht. Sind sie sauber, kann sie enorme Zeit sparen und Klarheit schaffen.
Eure Arbeit zeigt auch, dass produktive KI-Nutzung weniger mit „Intelligenz“ zu tun hat als mit Verantwortungsteilung. Ihr habt sehr bewusst festgelegt, was die KI darf – und was nicht. Sie darf strukturieren, vergleichen, Abweichungen markieren. Sie darf nicht bewerten, nicht entscheiden, nicht glätten. Diese Klarheit ist der eigentliche Fortschritt. Sie entsteht nicht durch Diskussionen, sondern durch praktische Erfahrung.
Vielleicht ist genau das die eigentliche Lehre aus eurem Projekt:
Die wichtigste Kompetenz im Umgang mit KI ist nicht Prompting oder Modellkenntnis, sondern Arbeitsorganisation. Wer weiß, wie Analyseprozesse aufgebaut sind, wo Fehler entstehen und wo menschliches Urteil unverzichtbar bleibt, kann KI sinnvoll einsetzen. Wer das nicht weiß, wird von ihr eher geblendet als unterstützt.
Folgender Leitspruch:
KI wird überschätzt im Reden – und unterschätzt im Arbeiten.
Und genau deshalb sind Projekte wie eures wertvoll: Sie holen die Debatte aus dem Abstrakten zurück in die Realität.