Werkstattbericht: Arbeit eines Finanzanalysten mit KI
Zwischenbericht – Weiterentwicklung
Die Finanzanalyse erlebt derzeit einen fundamentalen Wandel: Künstliche Intelligenz kann Texte, Tabellen und Präsentationen schneller verarbeiten als ein einzelner Analyst es je könnte. Gleichzeitig zeigt unser Due-Diligence-Projekt, dass Geschwindigkeit ohne Struktur keine verlässlichen Ergebnisse erzeugt. Diese Einsicht zieht sich wie ein roter Faden durch die gesamte Entwicklung – und sie prägt insbesondere den Übergang von der qualitativen zur quantitativen Analyse.
Unser Ansatz basiert auf einem zentralen Arbeitsinstrument, dem Notebook, das nicht nur ein technisches Artefakt ist, sondern das ökonomische Grundgerüst für die Analyse definiert. Es bestimmt, wie Businesspläne zerlegt, welche Kennzahlen relevant sind und wie Risiken gewichtet werden. Diese strukturierende Rolle ist das, was uns von vielen frei operierenden KI-Tools unterscheidet. Während zahlreiche Projekte mit Multi-Agent-Systemen arbeiten, die verschiedene Rollen wie Legal, Market oder Financial simultan besetzen, fehlt ihnen häufig ein konsistentes Fundament: eine definierte Standardisierung der Daten, bevor die KI überhaupt zum Einsatz kommt. Diese Beobachtung deckt sich mit unserer eigenen Analyse und erscheint als grundsätzlicher Engpass vieler vergleichbarer Ansätze.
Ein gutes Beispiel sind Lösungen wie Pitchflow.ai, die Pitch Decks sofort über KI analysieren und Scorings erzeugen. Für Venture-Capital-Teams, die viele Präsentationen in kurzer Zeit sichten, ist das zweifellos nützlich. Doch solche Systeme verharren meist auf der Präsentationsebene: Sie extrahieren Schlagwörter, Trends oder allgemeine Narrative, ohne tiefer in die Finanzmodelle oder adjungierten Excel-Daten einzutauchen. Die Konsequenz ist eine Bewertung, die eher breit als tief ist und damit Risiken und Widersprüche im Zahlenwerk oft übersieht. Andere Projekte wie DiligenceAI, FinGPT oder FinRobot zeigen ähnliche Muster: Sie sind stark im Bereich von öffentlichen Märkten oder Textanalysen, aber weniger gut darin, ein vollständiges Startup-Businessplan-Set systematisch zu verarbeiten.
In der Praxis hat sich gezeigt, dass der kritischste technische Teil der Pipeline die Integration der Excel-Daten ist. Theoretisch war klar: Eine Standardisierung der Finanzdaten sollte die KPI-Extraktion vereinfachen und verlässliche Inputs für die Bewertung liefern. In der praktischen Umsetzung erwiesen sich jedoch schon minimale strukturelle Unterschiede als erhebliche Stolpersteine.
Diese alltäglichen menschlichen Arbeitsgewohnheiten führen dazu, dass ein algorithmischer Workflow leicht in Fehler läuft, wenn er auf unverarbeitete, flexible Excel-Strukturen trifft.
Ein besonderer Aspekt unseres Ansatzes liegt im Einsatz eines lokalen Large Language Models (LLM) in der qualitativen Analyse. Im Gegensatz zu Cloud-basierten Modellen verlassen sensible Daten — Businesspläne, Finanzinformationen, interne Strategiedokumente — niemals die eigene Infrastruktur. Damit wird nicht nur die Datensouveränität gewährleistet, sondern auch die Reproduzierbarkeit der Ergebnisse: Ein lokales Modell verändert sich nicht unbemerkt durch Updates oder Policy-Anpassungen, sondern bleibt eine stabile, versionierbare Komponente der Analyseumgebung. Zugleich erlaubt es eine präzise Kontrolle des Reasonings, also der Art und Weise, wie das Modell Schlüsse zieht, Risiken identifiziert und Narrative strukturiert. In dieser Kombination aus Sicherheit, Stabilität und methodischer Präzision entsteht ein Analyseprozess, der den professionellen Anforderungen einer Due Diligence weit gut entspricht.
Diese Erfahrung lässt sich als eine methodische Kernlektion formulieren: Nicht die KI-Analyse selbst ist der Engpass, sondern die Schnittstelle zwischen menschlich erzeugten Daten und maschineller Verarbeitung. Ohne eine solche Standardisierung würden auch die leistungsfähigsten Modelle falsche oder irreführende Ergebnisse liefern, weil sie die zugrunde liegenden Daten nicht konsistent interpretieren können. Was auf den ersten Blick wie ein technisches Detail aussieht, ist in Wirklichkeit ein methodisches Fundament: Nur auf dieser Basis werden KPIs wie EBIT-Marge, Umsatzwachstum (CAGR), Working Capital oder Free Cashflow korrekt berechnet und können für spätere Bewertungen belastbar sein.