So prüfen KI-Agenten Ausschreibungen gegen Ihre Projekthistorie

Wie Multi-Agenten-Systeme Ausschreibungen semantisch gegen vergangene Projekte abgleichen und Go/No-Go-Entscheidungen datenbasiert automatisieren
So prüfen KI-Agenten Ausschreibungen gegen Ihre Projekthistorie

Stellen Sie sich vor, eine neue Ausschreibung landet in Ihrem Postfach — 180 Seiten, voller Anforderungen, Zertifikatsauflagen und Leistungskriterien. Ihr Team verbringt drei Tage damit, herauszufinden, ob das Projekt überhaupt zu Ihnen passt. Dann entscheidet jemand im Meeting: „Wir machen mit." Fünf Wochen später verlieren Sie den Bid, weil eine Pflichtqualifikation fehlte, die auf Seite 142 versteckt war.

Dieses Szenario ist kein Einzelfall — es ist industrieller Standard. Laut einer Analyse von DreamAI Software dauert die Bearbeitung eines komplexen RFPs bei Ingenieurbüros im Schnitt 8 bis 10 Wochen. Mit einem Multi-Agenten-System reduzierten sie diese Zeit auf unter 2 Wochen — bei 95 % Treffergenauigkeit beim Matching gegen die eigene Projekthistorie.

Die Frage ist nicht mehr ob KI-Agenten hier helfen können. Die Frage ist: Wie baut man so ein System — und worauf kommt es wirklich an?

Warum klassische RFP-Prozesse strukturell scheitern

Das Problem ist kein Kompetenzproblem. Es ist ein Informationsverarbeitungsproblem.

Ein typischer RFP kombiniert:

  • Eignungskriterien (Zertifikate, Referenzen, Umsatzschwellen)
  • Leistungsbeschreibungen (technische Anforderungen, Lieferumfang)
  • Formale Ausschlussgründe (fehlende Nachweise, Fristen, Set-aside-Klauseln)
  • Strategische Passung (Branchenfokus, Projektgröße, geografische Lage)

Ein Mensch liest linear. Ein KI-Agent verarbeitet alle Dimensionen parallel und strukturiert — und zieht dabei gleichzeitig auf eine vektorisierte Wissensbasis zurück, die Ihre gesamte Unternehmenshistorie enthält.

Wie Agentic AI den RFP-Prozess neu strukturiert

Moderne Ansätze setzen auf spezialisierte Agenten, die wie ein eingespieltes Analyseteam zusammenarbeiten — jeder mit einer klaren Aufgabe, alle auf dasselbe Ziel ausgerichtet: eine begründete, datengestützte Bid/No-Bid-Empfehlung.

Agent 1: Der Extraktor

Der erste Agent liest das RFP-Dokument (PDF, Word, E-Mail) und zerlegt es in strukturierte Datenpunkte:

  • Pflichtanforderungen vs. optionale Kriterien
  • Fristen und Einreichungsformate
  • Geforderte Zertifikate (z. B. ISO 27001, CMMC Level 2, DIN-Normen)
  • Mindest-Referenzprojekte und Umsatzgrenzen

Das CES-System, das 83 % aller eingehenden RFPs ohne manuelle Prüfung verarbeitete, setzt genau hier an: Ein spezialisierter RFP Parser Agent übernimmt die Erstverarbeitung und leitet strukturierte Daten an nachgelagerte Agenten weiter.

Agent 2: Der Qualifikationsprüfer

Dieser Agent führt einen harten Gate-Check durch — binär, keine Graubereiche:

Ist Zertifikat X aktuell und gültig? Haben wir Referenzprojekte der geforderten Größenordnung? Sind wir in der geforderten Region lieferfähig?

Das Tribble-AI-Framework beschreibt diesen zweistufigen Ansatz präzise: Erst ein Pass/Fail-Gate auf Pflichtkriterien, danach ein gewichtetes Scoring-Modell (Pwin) für die strategische Bewertung. Zertifikate, die „in Bearbeitung" oder „in Erneuerung" sind, passieren den Gate nicht — ein häufiger und teurer Fehler in manuellen Prozessen.

Agent 3: Der Projekthistorie-Matcher

Hier liegt der eigentliche Kern des Systems — und die größte Hebelwirkung.

Der Matcher durchsucht eine vektorisierte Datenbank (RAG: Retrieval-Augmented Generation) mit allen vergangenen Projekten, Referenzblättern und Angebotsunterlagen des Unternehmens. Er beantwortet semantisch:

„Haben wir ein Projekt realisiert, das diesem hier ähnlich genug ist, um als qualifizierendes Referenzprojekt zu gelten?"

Das ist kein Keyword-Matching. Das Ingenieursbüro RHC Engineering indexierte über 150 Lebensläufe, Projektdatenblätter und Rechtsdokumente in einer Vektordatenbank (LanceDB) und erzielte dabei eine Matching-Genauigkeit von ~95 % — bei einer Fehlerreduzierung in der Risikoanalyse von 40 %.

Agent 4: Der Machbarkeits- und Risikobewerter

„Machbarkeit" ist im deutschsprachigen Ausschreibungskontext ein vielschichtiger Begriff: Können wir die Leistung fristgerecht erbringen? Haben wir die richtigen Ressourcen verfügbar? Sind Teilleistungen rechtlich oder technisch problematisch?

Dieser Agent bewertet:

  • Ressourcenverfügbarkeit (sind Schlüsselpersonen für den Zeitraum einsetzbar?)
  • Technische Machbarkeit (haben wir Erfahrung mit den geforderten Technologien?)
  • Risikofaktoren (unklare Anforderungen, sehr kurze Lieferzeiten, ungewöhnliche Haftungsklauseln)

Microsofts Open-Source Solution Accelerator für RFP-Response geht hier sogar weiter: Der Agent berechnet automatisch einen Confidence Score für die generierte Antwort und markiert Abschnitte, bei denen die Wissensbasis dünn ist.

Agent 5: Die Bid/No-Bid-Entscheidungsinstanz

Der finale Agent synthetisiert alle Inputs und produziert eine erklärbare Empfehlung — keine Black Box:

  • Gesamtbewertung (z. B. 72/100)
  • Kritische Lücken (Must-have-Kriterien, die nicht erfüllt sind)
  • Stärken im Vergleich zum Wettbewerb
  • Empfehlung: Go / Conditional Go / No-Bid — mit Begründung und Confidence-Level

Die technische Grundlage: RAG + spezialisierte Agenten

Das Herzstück jedes solchen Systems ist eine private, unternehmenseigene Wissensbasis, aufgebaut mit Retrieval-Augmented Generation (RAG):

  1. Indexierung: Alle relevanten Unternehmensdokumente (Projektblätter, Zertifikate, frühere Angebote, CVs) werden in Vektoren umgewandelt und in einer Vektordatenbank gespeichert (z. B. Pinecone, LanceDB, Azure AI Search).
  2. Retrieval: Bei jedem neuen RFP sucht der Agent semantisch — nicht nur per Schlüsselwort — nach den relevantesten Dokumenten aus dem eigenen Bestand.
  3. Generation: Ein LLM (GPT-4, Claude 3.5, Gemini) generiert strukturierte Outputs, verankert in den eigenen Quellen — damit werden Halluzinationen systematisch reduziert.

Wichtig für sensible Ausschreibungen: Wie Cabrillo Club in einer technischen Analyse betont, sollte die Wissensbasis isoliert und nicht mandantenübergreifend betrieben werden — besonders wenn vertrauliche Projektdaten oder behördenrelevante Informationen enthalten sind.

Was die Zahlen sagen

Die Ergebnisse aus realen Implementierungen sprechen für sich:

MetrikVorher (manuell)Nachher (KI-Agenten)
RFP-Bearbeitungszeit8–10 Wochen~2 Wochen (−75 %)
Manuelle Review-Quote100 %17 % (CES-System)
Matching-Genauigkeitsubjektiv~95 %
Fehler in RisikoanalyseBaseline−40 %
Bearbeitete RFPs/Jahrlimitiert+25 ohne mehr Headcount

Was gute Implementierungen von schlechten unterscheidet

Drei kritische Erfolgsfaktoren aus der Praxis:

1. Human-in-the-Loop bleibt unverzichtbar — Die besten Systeme sind semi-automatisiert. Agenten erstellen die Analyse und den Entwurf; Fachleute prüfen und entscheiden final. Das ist kein Rückschritt, sondern klug: Die menschliche Expertise wird auf die Stellen konzentriert, wo sie wirklich gebraucht wird.

2. Die Qualität der Wissensbasis entscheidet alles — Garbage in, garbage out. Wenn die Projekthistorie unvollständig, unstrukturiert oder veraltet ist, liefert auch der beste Agent schwache Ergebnisse. Die Datenpflege ist kein technisches Problem — es ist eine organisatorische Führungsaufgabe.

3. Erklärbarkeit ist kein Nice-to-have — Besonders in regulierten Märkten oder bei öffentlichen Vergaben müssen Entscheidungen nachvollziehbar sein. Systeme, die mit Seitenzahl-Referenzen und Quellennachweisen arbeiten, schaffen Vertrauen — intern wie extern.

Fazit: Die nächste Ausschreibung wartet nicht auf Ihr Team

Die Frage, ob ein RFP zu Ihnen passt, ist heute keine Frage der Erfahrung mehr — sie ist eine Frage der Datenverfügbarkeit und Verarbeitungsgeschwindigkeit. KI-Agenten können beides liefern: systematisch, skalierbar und erklärbar.

Wer jetzt beginnt, seine Projekthistorie zu strukturieren und eine private Wissensbasis aufzubauen, verschafft sich einen dauerhaften Wettbewerbsvorteil — nicht nur bei der Angebotserstellung, sondern bei der strategischen Frage: Welche Ausschreibungen wollen wir überhaupt gewinnen?

Der erste Schritt ist kleiner als gedacht: Beginnen Sie mit 20 Ihrer besten Referenzprojekte, einem klaren Kriterienkatalog für Must-have-Qualifikationen — und einem Agenten, der beides zusammenbringt.