Nicht eine Super-KI – sondern ein ganzes Team aus spezialisierten KI-Agenten, die wie ein echtes Unternehmen zusammenarbeiten.
LLMs werden mit menschlicher Sprache trainiert und verhalten sich daher sehr menschenähnlich. Deshalb funktionieren auch menschliche Organisationsstrukturen perfekt für KI-Systeme.
Jedes LLM hat ein limitiertes Token-Limit. Genau wie ein Mensch nicht an alles gleichzeitig denken kann, muss man Aufgaben aufteilen.
Statt einer KI, die alles macht, bekommt jede KI eine klare Rolle mit eigenem System-Prompt – genau wie Mitarbeiter mit einer Jobbeschreibung.
Mehrere KIs prüfen sich gegenseitig. Kritiker finden Fehler, Pragmatiker filtern übertriebene Kritik – so entsteht zuverlässige Qualität.
Jede Rolle hat einen eigenen System-Prompt, der den Charakter, die Arbeitsweise und die Verantwortlichkeiten definiert.
Hat die Gesamtübersicht über das Projekt. Empfängt Ergebnisse, trifft finale Entscheidungen und hält alles zusammen in der Projektakte.
Plant zusammen mit dem Menschen das Projekt. Erstellt den Gesamtplan mit Zielen, Anforderungen und Rahmenbedingungen.
Unterteilt den Plan in Phasen, erstellt die Roadmap und tracked den Fortschritt. Weiß immer, wo das Projekt gerade steht.
Schätzt den Aufwand jeder Aufgabe und bündelt sie in optimale Pakete (z.B. 5 mittelschwere Aufgaben = 1 Paket für einen Worker).
Die Macher. Jeder Worker bekommt ein Aufgabenpaket und führt es aus. Mehrere Worker arbeiten parallel in eigenen Chat-Sessions.
Prüft alle Ergebnisse extrem kritisch. Findet Fehler, Sicherheitslücken und Abweichungen von den Projektanforderungen.
Filtert die Kritikerliste. Prüft, ob Kritikpunkte wirklich relevant sind oder übertrieben. Behält nur das, was wirklich wichtig ist.
Prüft am Ende jeder Phase, ob alle Teilergebnisse zusammenpassen und kompatibel sind. Verhindert Integrationsfehler.
Hat Zugang zum Web, zu RAG-Systemen (z.B. Gesetzbücher) und Datenbanken. Beantwortet Fachfragen, damit andere LLMs ihr Kontextfenster nicht verbrauchen.
Vom ersten Briefing bis zum fertigen Ergebnis – Schritt für Schritt durch das System.
Der Mensch sitzt mit dem Projektplaner-LLM zusammen und erarbeitet einen detaillierten Projektplan mit Zielen, Anforderungen und Rahmenbedingungen.
Der Plan wird in Phasen unterteilt. Abhängigkeiten werden erkannt, eine Reihenfolge festgelegt. Was muss zuerst erledigt werden? Was baut aufeinander auf?
Jede Phase wird in Einzelaufgaben aufgeteilt. Der Schätzer bewertet den Aufwand und bündelt Aufgaben in optimale Pakete (z.B. 5 mittelschwere Aufgaben pro Paket).
Mehrere frische Worker-LLMs bekommen jeweils ein Aufgabenpaket und arbeiten parallel. Jeder Worker startet in einem eigenen, frischen Chat – ohne Ballast.
Alle Ergebnisse werden dem Kritiker vorgelegt. Er prüft auf Fehler, Sicherheitslücken, Abweichungen von den Anforderungen und listet alle Probleme auf.
Der Pragmatiker prüft die Kritikerliste: Was ist wirklich relevant? Was ist übertrieben? Nur valide Punkte werden korrigiert – der Rest wird verworfen.
Alle Teilergebnisse der Phase werden zusammengeführt. Der Integrations-Tester prüft, ob alles kompatibel ist und zusammen funktioniert.
Der CEO nimmt die fertigen Ergebnisse, aktualisiert die zentrale Projektakte und gibt dem Projektmanager das Signal: Nächste Phase starten.
Diese drei Mechanismen machen den Unterschied zwischen einem fragilen Experiment und einem zuverlässig funktionierenden System.
Nach jeder Phase prüft ein eigener Agent, ob alle Teilergebnisse zusammenpassen. Worker A und Worker B liefern vielleicht einzeln perfekte Ergebnisse – aber sind sie kompatibel?
Ein strukturiertes, lebendes Dokument, das nach jeder Phase aktualisiert wird: Status, erledigte Aufgaben, offene Punkte, getroffene Entscheidungen, bekannte Probleme.
Klare Regeln für Fehlschläge: Maximal 2 Korrekturschleifen pro Aufgabe. Danach Eskalation an den CEO, der die Aufgabe neu formuliert oder aufteilt.
Diese Fragen müssen bei der Implementierung beantwortet werden.
Wie definiert man den Charakter, die Arbeitsweise und die Regeln für jede Rolle? Der System-Prompt ist die „Jobbeschreibung" jedes LLMs.
Wie tauschen die LLMs Informationen aus? In welchen Dateien schreiben und lesen sie? Welches Format haben die Übergaben?
Welches System startet neue Chats, sammelt Ergebnisse und steuert den Ablauf? Das ist die technische Infrastruktur hinter den Rollen.
Welche Projekte eignen sich? Gut zerlegbare, strukturierte Aufgaben funktionieren am besten. Rein kreative, vage Aufgaben sind schwieriger.
Der Trick ist die menschliche Organisationsstruktur. Klare Rollen, klare Verantwortlichkeiten, klare Kommunikationswege. Jedes LLM konzentriert sich auf genau eine Sache – und macht die richtig gut.