← Zurück zum Überblick

Zielgruppen-Pipelines & Parallelisierung

Wie der Skill drei unabhängige Build-Pipelines orchestriert — und warum weniger Dateien der eigentliche Effizienzgewinn sind

01

Eine Pipeline pro Zielgruppe

Das zentrale Architekturprinzip: Jede Zielgruppe erhält eine eigenständige Build-Pipeline. Diese Pipeline bestimmt, welche Tiefenstufen generiert werden und wann der Prozess stoppt. Die Pipelines sind vollständig voneinander entkoppelt — sie teilen sich weder Zustand noch Wartezeiten.

Pipeline-Tiefe pro Zielgruppe

📊 Entscheider
L0
L1
STOP
👤 Anwender
L0
L1
L2
STOP
🔧 Entwickler
L0
L1
L2
L3
STOP

Kernprinzip: Die Pipelines warten nicht aufeinander. Die 📊 Entscheider-Pipeline ist nach 2 Level-Schritten fertig, während die 🔧 Entwickler-Pipeline noch 2 weitere Stufen vor sich hat. Jede Pipeline kennt nur ihre eigene max_depth und terminiert selbstständig.

02

Parallelisierung auf zwei Ebenen

Das Parallelisierungsmodell des Skills ist zweistufig: Auf der oberen Ebene laufen Pipeline-Agents (einer pro Zielgruppe), auf der unteren Ebene File-Agents (einer pro zu generierende Datei innerhalb eines Levels). Innerhalb einer Pipeline sind die Levels jedoch strikt sequentiell.

Hierarchisches Parallelisierungsmodell

🎯 Orchestrator steuert alle Pipelines

EBENE 1: Pipeline-Agents (parallel)

📊 Pipeline 👤 Pipeline 🔧 Pipeline

EBENE 2: File-Agents pro Level (parallel)

thema-a_de thema-a_en thema-b_de thema-b_en ...
↔️
Zwischen Pipelines
Vollständig unabhängig. Die 📊 Pipeline kann fertig sein, während die 🔧 Pipeline noch L1 baut. Kein shared state, kein Warten.
↕️
Innerhalb einer Pipeline
Levels sind sequentiell: L1 darf erst starten, wenn alle L0-Dateien dieser Pipeline fertig sind. Innerhalb eines Levels sind die File-Agents parallel.
03

Was parallel darf und was nicht

Die Parallelisierungsregeln folgen einer klaren Logik: Alles, was keine Datenabhängigkeit hat, darf parallel laufen. Alles, was auf dem Output einer vorherigen Stufe aufbaut, muss warten.

Operation Parallel? Begründung
Verschiedene Zielgruppen-Pipelines Kein shared state, keine Datenabhängigkeiten
Themen innerhalb eines Levels Themen sind voneinander unabhängig
DE + EN desselben Themas Sprachversionen teilen keine Abhängigkeiten
Levels innerhalb einer Pipeline L1 referenziert L0-Seiten — L0 muss fertig sein
Phase 3 → Phase 4 Phase 4 benötigt die CSS/JS-Foundation aus Phase 3
Phase 5 (Polish) Benötigt den vollständigen Output aller Pipelines
// Ausführungsmodell: Was darf wann laufen? Phase 3: Foundation // MUSS vor Phase 4 fertig sein build_css_js_foundation() // Einmal, global Phase 4: Build // Pro-Pipeline-Ausführung 📊 pipeline (parallel zu 👤 und 🔧) L0: [thema_de, thema_en] // File-Agents parallel --- barrier: alle L0 fertig --- L1: [thema_de, thema_en] // File-Agents parallel --- STOP (max_depth = 1) --- 🔧 pipeline (parallel zu 📊 und 👤) L0: [thema_de, thema_en, ...] --- barrier --- L1: [thema_de, thema_en, ...] --- barrier --- L2: [thema_de, thema_en, ...] --- barrier --- L3: [thema_de, thema_en, ...] --- STOP (max_depth = 3) --- Phase 5: Polish // MUSS warten bis ALLE Pipelines fertig verify_links(), add_switches()

Ausführungsmodell: Phase 3 (Foundation) läuft einmal global und muss abgeschlossen sein, bevor Phase 4 beginnt. In Phase 4 arbeiten die drei Pipelines unabhängig: Innerhalb jeder Pipeline werden die Levels nacheinander abgearbeitet (L0 muss fertig sein, bevor L1 startet), aber innerhalb eines Levels können alle Themen und Sprachversionen parallel generiert werden. Jede Pipeline stoppt bei ihrer individuellen max_depth. Phase 5 (Polish) darf erst beginnen, wenn alle Pipelines abgeschlossen sind, da sie den gesamten Output für Link-Validierung und Cross-References benötigt.

✏️ Kurz getestet

Die 🔧 Pipeline baut gerade L2-Dateien. Kann die 📊 Pipeline gleichzeitig L1 bauen?

Ja — verschiedene Pipelines sind unabhängig voneinander
Nein — es darf nur eine Pipeline gleichzeitig aktiv sein
Nur wenn beide Pipelines auf dem gleichen Level sind
04

Praxis-Modus vs. Ideal

Die Theorie erlaubt volle Parallelisierung. In der Praxis ist das jedoch unzuverlässig: LLM-Kontextfenster sind begrenzt, parallele API-Aufrufe können Timeouts verursachen, und Fehler in einem parallelen Branch sind schwer zu debuggen. Empfohlen wird daher sequentielle Ausführung oder maximal 2 parallele Agents (ein DE+EN-Paar).

Zeitverlauf: Ideal vs. Praxis

💡 Ideal: Voll parallel
📊 L0 → L1
👤 L0 → L1 → L2
🔧 L0 → L1 → L2 → L3

Alle 3 Pipelines starten gleichzeitig. Gesamtzeit = längste Pipeline.

✅ Praxis: Sequentiell
📊 L0 → L1
dann
👤 L0 → L1 → L2
dann
🔧 L0 → L1 → L2 → L3

Pipelines nacheinander. Länger, aber zuverlässig und debuggbar.

Entscheidend: Die Pipeline-Logik bestimmt weiterhin Reihenfolge und Tiefe, auch bei sequentieller Ausführung. Ob die Pipelines parallel oder nacheinander laufen, ändert nichts am Ergebnis — nur an der Laufzeit. Der Orchestrator entscheidet auf Basis der Systemlast, welcher Modus gewählt wird.

Voll parallel
3 Pipeline-Agents + N File-Agents gleichzeitig. Schnell, aber fehleranfällig. Nur für robuste Infrastruktur.
Riskant
DE+EN parallel
Max. 2 File-Agents gleichzeitig (ein Sprachpaar). Guter Kompromiss zwischen Geschwindigkeit und Stabilität.
Empfohlen
Voll sequentiell
Eine Datei nach der anderen. Langsamer, aber deterministisch und einfach zu debuggen.
Sicher
05

Effizienz durch bedarfsgerechte Tiefe

Der eigentliche Effizienzgewinn liegt nicht in der Parallelisierung, sondern darin, weniger Dateien zu generieren. Durch bedarfsgerechte Tiefe (demand-based depth) produziert das System mit 3 Zielgruppen ca. 52 Dateien statt 100+ — eine Reduktion um 48%. Die 📊 Entscheider-Pipeline endet früh (2 Level-Schritte), die 🔧 Entwickler-Pipeline durchläuft alle 4 Stufen.

Dateienanzahl: Uniform vs. Bedarfsgerecht

Uniform (alle L0–L3)
~105 Dateien
Bedarfsgerecht
~52 Dateien

Aufschlüsselung pro Pipeline

📊 Entscheider
~14 Dateien
2 Schritte
👤 Anwender
~18 Dateien
3 Schritte
🔧 Entwickler
~20 Dateien
4 Schritte

Warum das zählt: Jede nicht generierte Datei spart LLM-Tokens, API-Kosten und Laufzeit. Die Kombination aus Helpfulness-Scoring (filtert irrelevante Themen) und bedarfsgerechter Tiefe (begrenzt die Levels pro Zielgruppe) ergibt die Gesamteinsparung von ~48%.

Im Detail Subagent-Architektur im Detail → Pipeline-Agents, File-Agents und die interne Kommunikation zwischen den Ebenen