Die „KI-Boardroom" Architektur: Multi-Agenten-Orchestrierung
Wir alle kennen die Grenzen eines einzelnen KI-Prompts. Du fragst nach einem komplexen Report, und die KI verpasst die neuesten News, verliert auf halbem Weg den Ton oder vergisst schlicht das ursprüngliche Ziel. In der professionellen Welt lösen wir das mit Teams. Du würdest einen Lead Researcher nicht bitten, Marketing-Copy zu schreiben, und den Copywriter nicht, technische Daten zu verifizieren. In der “echten Welt” gibt es dafür Spezialisten und einen Manager, der sie koordiniert.
Mit Hilfe von CrewAI habe ich ein System gebaut, das recherchiert, schreibt und reviewed — während ich die Rolle des „Grand CEO" innehabe und weiterhin die Fäden in der Hand halte.
1. Die Kern-Architektur: Hierarchisch vs. Sequenziell
Die meisten KI-Workflows sind sequenziell. Aber in einem echten Unternehmen gibt es einen Manager. Ich habe einen Hierarchischen Prozess implementiert, bei dem ein „Projektmanager" (Der Boss) die Worker überwacht.
In diesem Modell ist der Manager der Einzige, der mit dem User spricht. Die Worker (Researcher, Writer, Librarian) sind „isoliert". Sie sprechen nicht miteinander; sie reporten nur zum Boss.
Warum das wichtig ist:
- Reduzierte Halluzinationen: Agenten bleiben auf ihre spezifische Nische fokussiert
- Kontext-Kontrolle: Der Manager entscheidet genau, welche Informationen für jeden Agenten relevant sind
- Skalierbarkeit: Du kannst weitere Spezialisten hinzufügen, ohne deine Workflow-Logik zu zerstören
- Parallele Verarbeitung: Der Boss kann mehrere Tasks gleichzeitig delegieren
2. Technisches Geheimnis: Tiered Intelligence
Einer der größten Fehler in der KI-Entwicklung ist es, das teuerste Modell für jeden Task zu verwenden. Das ist, als würdest du einen Senior Architect einstellen, um eine Glühbirne zu wechseln.
Hier habe ich Tiered LLMs implementiert – als Beispiel:
- Gemini 2.5 Pro: Dem Boss zugewiesen für High-Reasoning, komplexe Orchestrierung und Quality Control
- Gemini 2.5 Flash: Den Workern zugewiesen für blitzschnelle Execution und geringere Token-Kosten
Warum ein „Super-Brain" für eine simple Suche nutzen? Effizienz ist der Schlüssel. In meinen Tests hat dieser Ansatz die API-Kosten drastisch reduziert, während die Output-Qualität hoch blieb.
3. Das spezialisierte Team: Drei Agenten, drei Zwecke
Hier zahlt sich Tool-Spezialisierung aus – jeder Agent hat Zugriff auf unterschiedliche Fähigkeiten:
- The Web Scout: Ausgestattet mit Echtzeit-Internet-Suche
- The Research Librarian: Hat Zugang zu deiner Dokumenten-Bibliothek und PDFs
- The Writer: Fokussiert rein auf Content-ErstellungDiese Trennung spiegelt ein echtes Research-Team wider.
Der Web Scout findet Breaking News, der Librarian gleicht mit historischen Daten und gespeicherten Dokumenten ab, und der Writer synthetisiert alles zu einer kohärenten Narrative.
4. Chronologisches Bewusstsein
KI lebt oft in einer „zeitlosen" Blase. Durch Injektion eines dynamischen Timestamps in die Backstories der Agenten zur Laufzeit wissen meine Agenten immer genau, welcher Tag heute ist – das stellt sicher, dass ihre „neuesten News" tatsächlich von heute sind.
import datetime
now = datetime.datetime.now().strftime("%A, %d. %B %Y")
Das wird in die Backstory jedes Agenten injiziert, und diese simple Ergänzung hat ein echtes Problem gelöst: Meine Agenten referenzieren nicht mehr „recent events" aus 2023, wenn wir tatsächlich 2026 haben.
5. Der Code in Aktion
Hier ist die erweiterte Architektur (Python):
import os
import datetime
from crewai import Agent, Task, Crew, Process, LLM
from crewai.tools import tool
from crewai_tools import FileReadTool, PDFSearchTool
from duckduckgo_search import DDGS
now = datetime.datetime.now().strftime("%A, %d. %B %Y")
print("\n--- Welcome to the Multi-Agent Research Command ---")
user_objective = input("Boss, what specific task should the team work on today? ")
print(f"Understood. Starting research on: '{user_objective}'\n")
boss_llm = LLM(model="gemini/gemini-2.5-pro")
worker_llm = LLM(model="gemini/gemini-2.5-flash")
os.environ["OPENAI_API_KEY"] = "NA" # Set to NA to prevent accidental use of OpenAI models
@tool("internet_search")
def internet_search(query: str):
"""Searches the internet for real-time data using DuckDuckGo."""
with DDGS() as ddgs:
results = ddgs.text(query, max_results=5)
return [r for r in results]
file_tool = FileReadTool()
pdf_tool = PDFSearchTool(
config={
"llm": {
"provider": "google",
"config": {
"model": "gemini/gemini-2.5-flash",
},
},
"embedder": {
"provider": "google",
"config": {
"model": "models/embedding-001",
"task_type": "retrieval_document",
},
},
}
)
knowledge_dir = 'knowledge'
if not os.path.exists(knowledge_dir):
os.makedirs(knowledge_dir)
print(f"📁 Created '{knowledge_dir}' folder. Add your files there!")
# The Library for the Librarian
all_files = os.listdir(knowledge_dir)
text_files = [os.path.join(knowledge_dir, f) for f in all_files if f.endswith('.txt')]
pdf_files = [os.path.join(knowledge_dir, f) for f in all_files if f.endswith('.pdf')]
# Initialize sources only if files exist
knowledge_sources = []
if text_files:
from crewai.knowledge.source.text_file_knowledge_source import TextFileKnowledgeSource
knowledge_sources.append(TextFileKnowledgeSource(file_paths=text_files))
if pdf_files:
from crewai.knowledge.source.pdf_knowledge_source import PDFKnowledgeSource
knowledge_sources.append(PDFKnowledgeSource(file_paths=pdf_files))
# Agent 1: The Web Scout
web_researcher = Agent(
role="Web Intelligence Scout",
goal="Identify the most significant AI breakthroughs from online sources.",
backstory=f"You are a data-driven researcher who monitors the web. Today is {now}.",
tools=[internet_search],
llm=worker_llm,
allow_delegation=False,
verbose=True
)
# Agent 2: The Research Librarian
librarian = Agent(
role="Research Librarian",
goal="Cross-reference findings with existing documents and research papers.",
backstory=f"Meticulous librarian with archive access. Today is {now}.",
tools=[file_tool, pdf_tool],
llm=worker_llm,
allow_delegation=False,
verbose=True
)
# Agent 3: The Writer
writer = Agent(
role="Content Strategist",
goal="Transform research into engaging, accurate content.",
backstory=f"Skilled writer creating compelling narratives. Today is {now}.",
llm=worker_llm,
allow_delegation=False,
verbose=True
)
# The Manager (Boss)
boss = Agent(
role="Strategic Manager",
goal=f"Lead the team to produce a comprehensive research report on {user_objective}.",
backstory=f"Orchestrator delegating to Scout, Librarian, and Writer. Today is {now}.",
llm=boss_llm,
allow_delegation=True, # Manager MUST have this to coordinate
verbose=True
)
# Master Task
master_task = Task(
description="""Research the latest developments on {user_objective},
cross-reference with our document library, and produce a 500-word article.""",
expected_output="A well-researched, engaging article ready for publication.",
human_input=True,
agent=boss
)
# The Crew Assembly
crew = Crew(
agents=[web_researcher, librarian, writer],
tasks=[master_task],
manager_agent=boss,
process=Process.hierarchical,
verbose=True,
max_rpm=2
)
# Execute
result = crew.kickoff()
print(result)
6. Warum der Librarian alles verändert
Den Research Librarian hinzuzufügen hat eine kritische Lücke in meinem Workflow geschlossen. Der Web Scout findet aktuelle , aber der Librarian liefert:
- Depth not matched by pure internet research: Zugang zu Research Papers, Whitepapers und internen Dokumenten
- Fact-Checking: Cross-Referenzierung von Claims gegen vertrauenswürdige Quellen in deiner Library
- Competitive Intelligence: Analyse gespeicherter Competitor-Reports und Marktforschung
- Historical Context: „Diese Idee wurde bereits 2022 versucht, deshalb ist sie gescheitert..."
In der Praxis kreiert dieses Drei-Agenten-Setup eine360-Grad-Research-View:aktuelle Trends (Web Scout) + institutionelles Wissen (Librarian) + überzeugende Narrative (Writer) = umfassender Output.
7. Human-in-the-Loop: The Safety Net
Das mächtigste Feature aber? human_input=True.
Bevor der Boss den Task abschließt, stoppt sie und fragt mich, ob das Ergebnis zufriedenstellend ist. Es ist die perfekte Mischung aus Automation und Human Oversight. Wenn die Arbeit erledigt ist, pausiert das Programm. Der Boss präsentiert den Draft und fragt nach Feedback. Du kannst sagen „Looks good!" oder „Add more technical depth" oder „Der Librarian hat unseren Q4-Report verpasst. Check das auch."
Der Boss koordiniert die Änderungen mit den relevanten Spezialisten und kommt für ein zweites Review zurück.
Das kreiert einen iterativen Refinement-Loop, die mit Single-Agent-Systemen unmöglich ist.
Aber diese Orchestrierung funktioniert nur wirklich, wenn du als Mensch am Steuer das „Warum" hinter dem „Was" verstehst. In einem Multi-Agenten-Setup sind tiefe Subject-Matter-Expertise und ein solides Verständnis der zugrunde liegenden Theorie der Motor, der dich zum 'Alpha AI: Die neue Alpha Leader Kulturvon mir bereits dargelegt. Du setzt den strategischen und kulturellen Ton, dem diese Agenten folgen, und verwandelst eine iterative Refinement-Loop in ein High-Impact Business Asset.
8. Real-World Application: From Prototype to Production
Als ich dieses Multi-Agenten-System zum ersten Mal baute, war das nur die Basis. Sobald ich den Multi-Agenten-Ansatz validiert hatte, sah ich eine gute Real-Life Möglichkeit: App Store Optimization ist der perfekte Use Case für KI-Orchestrierung. ASO erfordert mehrere spezialisierte Skills: Keyword-Research, Competitive Analysis, Creative Optimization und Performance Monitoring, die keine einzelne KI wirklich gut meistern kann.
Daher habe ich gebaut, was ich eine„AIgency"nenne: ein production-ready System, das 5 spezialisierte KI-Agenten orchestriert, jeder mit eigener Persönlichkeit, Expertise und Tools:
- Liza, unsere SEO & Social Media Expert
- Konstantin ist der Brand Detective und Researcher
- Sky fokussiert sich auf Trend-Intelligence und Algorithmen
- Sam ist unser Tech Guru und Performance Specialistund schließlich
- Echo, die Authorin
Jetzt ist dieses System nicht nur schneller, sondern auch smarter. Weil die Agenten Spezialisten mit unterschiedlichen Perspektiven sind, catchen sie, was ich vielleicht übersehe. Sie arbeiten parallel, spotten Patterns über Domains hinweg und challengen gegenseitig ihre Assumptions. Der Manager orchestriert ihre Collaboration und stellt sicher, dass ihre Outputs sich ergänzen statt zu kollidieren.
Meine AIgency ist offensichtlich über die Zeit etwas komplexer geworden und umfasst mittlerweile ein paar tausend Zeilen Code – aber das ist KI-Orchestrierung in Production: nicht das Ersetzen menschlicher Expertise, sondern deren Amplifikation durch spezialisierte, koordinierte KI-Agenten, die als Team arbeiten.
Zum Schluss
Dieses System zu bauen hat mir gezeigt, dass die Zukunft der KI nicht nur „bessere Prompts" ist – es ist besseres Management:
- Role Clarity: Gib deinen Agenten ein spezifisches „Warum" und „Wie"
- Hierarchy: Lass ein smartes Modell die schnellen Modelle managen
- Tool Spezialisierung: Match Tools mit Expertise (web search ≠ document analysis)
- Zusätzliche Skills: Baue Teams, bei denen die Stärken der Agenten die Schwächen der anderen abdecken
- Übersicht: Behalte immer einen Human in the Loop für die finalen 5% an Qualität
CTC.rocks
Neugierig, wie alles zusammenarbeitet? Besuch das komplette Crew auf ctc.rocks. (derzeit noch 'Work in Progress'.)