English | Français | 中文 | Español | 日本語 | Português | Deutsch | 한국어 | हिन्दी | Русский | العربية | Bahasa | Türkçe | Italiano | Nederlands | Tiếng Việt | Polski | Svenska
Wieloagentowa Fabryka Oprogramowania — Autonomiczne agenty AI orkiestruja pelny cykl zycia produktu
Funkcje · Szybki start · Zrzuty ekranu · Architektura · Wspolpraca
Software Factory to autonomiczna platforma wieloagentowa, ktora orkiestruje caly cykl tworzenia oprogramowania — od pomyslu do wdrozenia — uzywajac wyspecjalizowanych agentow AI wspolpracujacych razem.
Wyobraz sobie wirtualna fabryke oprogramowania, gdzie 192 agentow AI wspolpracuje przez strukturyzowane przeplywy pracy, stosujac metodologie SAFe, praktyki TDD i automatyczne bramki jakosci.
- 192 spezialisierte Agenten — Architekten, Entwickler, Tester, SRE, Sicherheitsanalysten, Product Owner
- 46 integrierte Workflows — SAFe-Zeremonien, Qualitaets-Gates, naechliche Wartung, Sicherheit, Wissensmanagement
- Wissensmanagement — 4 dedizierte Agenten, ART-Knowledge-Team, naechlicher
knowledge-maintenance-Workflow - Memory Intelligence — Relevanzbewertung, Zugriffsverfolgung, automatisches Bereinigen veralteter Eintraege
- LLM-Kostenverfolgung — Kosten pro Mission im Timeline-Tab-Header angezeigt
- Mission-Timeline — Swimlane-Timeline-Tab zeigt Phasendauern in Mission Control
- 10 Orchestrierungsmuster — Solo, Sequentiell, Parallel, Hierarchisch, Netzwerk, Schleife, Router, Aggregator, Welle, Human-in-the-Loop
- SAFe-ausgerichteter Lebenszyklus — Portfolio → Epic → Feature → Story mit PI-Kadenz
- Selbstheilung — autonome Vorfallserkennung, Triage und Selbstreparatur
- Odporność LLM — wieloproviderowy fallback, retry z jitterem, zarządzanie rate-limitem; gpt-5.2 dla wnioskowania/architektury, gpt-5.2-codex dla kodu/TDD, gpt-5-mini dla dokumentacji/dyskusji
- OpenTelemetry-Observabilitaet — Distributed Tracing mit Jaeger, Pipeline-Analytics-Dashboard
- Kontinuierlicher Watchdog — Auto-Wiederaufnahme pausierter Runs, Sitzungswiederherstellung, Bereinigung fehlgeschlagener Runs
- Sicherheit zuerst — Prompt-Injection-Guard, RBAC, Secret-Scrubbing, Connection-Pooling
- DORA-Metriken — Bereitstellungshaeufigkeit, Lead Time, MTTR, Change Failure Rate
- Klaster wielowęzłowy — topologia master/slave, współdzielone PostgreSQL, pasywny failover, żywe plakietki węzłów na topbarze
Natywna aplikacja SwiftUI dla macOS (Apple Silicon i Rosetta 2) dostępna jest obok platformy internetowej — w pełni offline lokalna instancja SF i zdalne połączenia z OVH i Azure.
curl -L https://github.com/macaron-software/software-factory/releases/download/v0.01/SFApp-macos-arm64.zip -o SFApp.zip
unzip SFApp.zip && ./SFAppJeśli macOS zablokuje: Ustawienia systemowe → Prywatność i bezpieczeństwo → Otwórz mimo to
- Wbudowana lokalna SF — agenci z Ollama/MLX (Qwen, Llama…) lub kluczami API
- 3 zdalne połączenia — Lokalna SF / Demo OVH / Prod Azure (HA 2 węzły)
- 100% ISO web — Agenci, Misje, Projekty, TMA, Wiki, Analityka, DORA, Evals, Ideacja, RBAC
- 22 testy jednostkowe — WSJF, LLMConfig, onboarding, zarządzanie instancjami
Das Docker-Image enthaelt: Node.js 20, Playwright + Chromium, bandit, semgrep, ripgrep.
git clone https://github.com/macaron-software/software-factory.git
cd software-factory
make setup # kopiert .env.example → .env (bearbeiten Sie die Datei, um Ihren LLM-API-Key einzutragen)
make run # baut und startet die PlattformOeffnen Sie http://localhost:8090 — klicken Sie auf "Skip (Demo)" um ohne API-Key zu erkunden.
git clone https://github.com/macaron-software/software-factory.git
cd software-factory
cp .env.example .env # Konfiguration erstellen (LLM-Key eintragen — siehe Schritt 3)
python3 -m venv .venv && source .venv/bin/activate
pip install -r platform/requirements.txt
# Plattform starten
make dev
# oder manuell: PYTHONPATH=$(pwd) python3 -m uvicorn platform.server:app --host 0.0.0.0 --port 8090 --ws noneOeffnen Sie http://localhost:8090 — beim ersten Start erscheint der Onboarding-Assistent. Waehlen Sie Ihre SAFe-Rolle oder klicken Sie auf "Skip (Demo)" um sofort loszulegen.
Ohne API-Key laeuft die Plattform im Demo-Modus — Agenten antworten mit simulierten Antworten. Dies ist nuetzlich zum Erkunden der Oberflaeche, aber Agenten generieren keinen echten Code oder Analysen.
Um echte KI-Agenten zu aktivieren, bearbeiten Sie .env und fuegen Sie einen API-Key hinzu:
# Option A: MiniMax (empfohlen zum Einstieg)
PLATFORM_LLM_PROVIDER=minimax
MINIMAX_API_KEY=sk-your-key-here
# Option B: Azure OpenAI
PLATFORM_LLM_PROVIDER=azure-openai
AZURE_OPENAI_API_KEY=your-key
AZURE_OPENAI_ENDPOINT=https://your-resource.openai.azure.com
# Option C: NVIDIA NIM
PLATFORM_LLM_PROVIDER=nvidia
NVIDIA_API_KEY=nvapi-your-key-hereDann neu starten: make run (Docker) oder make dev (lokal)
| Anbieter | Umgebungsvariable | Modelle |
|---|---|---|
| MiniMax | MINIMAX_API_KEY |
MiniMax-M2.7 |
| Azure OpenAI | AZURE_OPENAI_API_KEY + AZURE_OPENAI_ENDPOINT |
GPT-5-mini |
| Azure AI Foundry | AZURE_AI_API_KEY + AZURE_AI_ENDPOINT |
GPT-5.2 |
| NVIDIA NIM | NVIDIA_API_KEY |
Kimi K2 |
Die Plattform wechselt automatisch zu anderen konfigurierten Anbietern, wenn der primaere ausfaellt.
Sie koennen Anbieter auch ueber die Einstellungen-Seite im Dashboard konfigurieren (/settings).
Nach der Installation koennen Sie wie folgt von der Idee zum fertigen Projekt gelangen:
- Oeffnen Sie die Startseite (
/) — die Plattform startet im CTO-Jarvis-Tab - Tippen Sie Ihre Projektidee — z.B. "Erstelle ein Projekt fuer eine Unternehmens-Fahrgemeinschafts-App mit React und Python"
- Jarvis (Gabriel Mercier, Strategischer Orchestrator) analysiert die Anfrage, erstellt das Projekt, provisioniert den SAFe-Backlog und startet die erste Mission — alles in einem Gespraech
Dies ist der empfohlene Einstiegspunkt fuer jedes neue Projekt.
- Gehen Sie zu
/projectsund klicken Sie auf "Neues Projekt" - Fuellen Sie aus: Name, Beschreibung, Tech-Stack, Repository-Pfad
- Die Plattform erstellt automatisch:
- Einen Product-Manager-Agenten, der dem Projekt zugewiesen wird
- Eine TMA-Mission (kontinuierliche Wartung — ueberwacht den Zustand, erstellt Vorfaelle)
- Eine Sicherheits-Mission (woechentliche Sicherheitsaudits — SAST, Abhaengigkeitspruefungen)
- Eine Technische-Schulden-Mission (monatliche Schuldenreduktion — geplant)
- Erstellen Sie auf der Portfolio-Seite (
/portfolio) Epics mit WSJF-Priorisierung - Fuegen Sie aus einem Epic heraus Features hinzu und gliedern Sie diese in User Stories
- Verwenden Sie das PI Board (
/pi-board) zur Planung von Program Increments und Zuweisung von Features zu Sprints
- Klicken Sie auf "Start" bei einer beliebigen Mission, um die Agenten-Ausfuehrung zu starten
- Waehlen Sie ein Orchestrierungsmuster (hierarchisch, Netzwerk, parallel...)
- Beobachten Sie die Agenten in Echtzeit ueber Mission Control
- Agenten nutzen ihre Werkzeuge (code_read, git, build, test, security scan) autonom
Diese sind fuer jedes Projekt automatisch aktiviert — keine Konfiguration erforderlich:
| Mission | Typ | Zeitplan | Was sie tut |
|---|---|---|---|
| TMA | Programm | Kontinuierlich | Zustandsueberwachung, Vorfallserkennung, Auto-Reparatur, Ticket-Erstellung |
| Sicherheit | Review | Woechentlich | SAST-Scans (bandit/semgrep), Abhaengigkeitsaudit, Secret-Erkennung |
| Technische Schulden | Reduktion | Monatlich | Code-Qualitaetsanalyse, Refactoring-Empfehlungen |
| Selbstheilung | Programm | Kontinuierlich | Auto-Erkennung von 5xx/Abstuerzen → TMA-Mission → Agenten-Diagnose → Code-Fix → Validierung |
Alle vier werden mit dem Projekt erstellt. TMA, Sicherheit und Selbstheilung starten als aktiv, Technische Schulden starten als Planung (aktivieren, wenn bereit).
Agenten sind in Teams organisiert, die echte Software-Organisationen widerspiegeln:
| Team | Agenten | Rolle |
|---|---|---|
| Produkt | Product Manager, Business Analyst, PO | SAFe-Planung, WSJF-Priorisierung |
| Architektur | Solution Architect, Tech Lead, System Architect | Architekturentscheidungen, Design Patterns |
| Entwicklung | Backend/Frontend/Mobile/Data Engineers | TDD-Implementierung pro Stack |
| Qualitaet | QA Engineers, Security Analysts, Test Automation | Tests, Sicherheitsaudits, Penetrationstests |
| Design | UX Designer, UI Designer | Benutzererfahrung, visuelles Design |
| DevOps | DevOps Engineer, SRE, Platform Engineer | CI/CD, Monitoring, Infrastruktur |
| Management | Scrum Master, RTE, Agile Coach | Zeremonien, Moderation, Hindernisbeseitigung |
- Solo — einzelner Agent fuer einfache Aufgaben
- Sequentiell — Pipeline von Agenten in Reihenfolge
- Parallel — mehrere Agenten arbeiten gleichzeitig
- Hierarchisch — Manager delegiert an Unter-Agenten
- Netzwerk — Agenten arbeiten Peer-to-Peer zusammen
- Schleife — Agent iteriert bis Bedingung erfuellt
- Router — einzelner Agent leitet basierend auf Eingabe an Spezialisten weiter
- Aggregator — mehrere Eingaben werden von einem Aggregator zusammengefuehrt
- Welle — parallel innerhalb von Wellen, sequentiell ueber Wellen hinweg
- Human-in-the-Loop — Agent schlaegt vor, Mensch validiert
Vollstaendige Portfolio → Epic → Feature → Story-Hierarchie mit:
- Strategisches Portfolio — Portfolio Canvas, strategische Themen, Wertströme
- Program Increment — PI-Planung, Ziele, Abhaengigkeiten
- Team-Backlog — User Stories, Aufgaben, Akzeptanzkriterien
- Sprint-Ausfuehrung — Daily Standups, Sprint Reviews, Retrospektiven
- Authentifizierung — JWT-basierte Authentifizierung mit RBAC
- Prompt-Injection-Guard — Erkennung und Blockierung boesartiger Prompts
- Secret-Scrubbing — automatische Schwärzung sensibler Daten
- CSP (Content Security Policy) — gehaertete Header
- Rate Limiting — API-Kontingente pro Benutzer
- Audit-Logging — umfassende Aktivitaetsprotokolle
- Bereitstellungshaeufigkeit — wie oft Code in Produktion gelangt
- Lead Time — Dauer von Commit bis Deployment
- MTTR — mittlere Wiederherstellungszeit nach Vorfaellen
- Change Failure Rate — Prozentsatz fehlgeschlagener Bereitstellungen
- Echtzeit-Dashboards — Chart.js-Visualisierungen
- Prometheus-Metriken — /metrics-Endpunkt
Deterministisches Qualitaets-Scanning (ohne LLM) mit 10 Dimensionen, wie eine Produktionslinie:
| Dimension | Werkzeuge | Was gemessen wird |
|---|---|---|
| Komplexitaet | radon, lizard | Zyklomatische Komplexitaet, kognitive Komplexitaet |
| Unit-Test-Abdeckung | coverage.py, nyc | Zeilen-/Branch-Abdeckung in Prozent |
| E2E-Test-Abdeckung | Playwright | Anzahl der Testdateien, Spec-Abdeckung |
| Sicherheit | bandit, semgrep | SAST-Befunde nach Schweregrad (kritisch/hoch/mittel/niedrig) |
| Barrierefreiheit | pa11y | WCAG 2.1 AA Verstoesse |
| Performance | Lighthouse | Core Web Vitals Scores |
| Dokumentation | interrogate | README, Changelog, API-Docs, Docstring-Abdeckung |
| Architektur | madge, jscpd, mypy | Zirkulaere Abhaengigkeiten, Code-Duplizierung, Typfehler |
| Wartbarkeit | custom | Dateigroessenverteilung, Anteil grosser Dateien |
| Adversarial | built-in | Vorfallsrate, Adversarial-Ablehnungsrate |
Qualitaets-Gates auf Workflow-Phasen — jede Workflow-Phase zeigt ein Qualitaets-Badge (PASS/FAIL/PENDING) basierend auf Dimensions-Schwellenwerten, die pro Gate-Typ konfiguriert sind:
| Gate-Typ | Schwellenwert | Verwendet in |
|---|---|---|
always |
0% | Analyse-, Planungsphasen |
no_veto |
50% | Implementierungs-, Sprint-Phasen |
all_approved |
70% | Review-, Release-Phasen |
quality_gate |
80% | Deploy-, Produktionsphasen |
Qualitaets-Dashboard unter /quality — globale Scorecard, projektbezogene Bewertungen, Trend-Snapshots.
Qualitaets-Badges sichtbar auf Missionsdetails, Projekt-Board, Workflow-Phasen und dem Haupt-Dashboard.
Drei integrierte Workflows zur Selbstverbesserung:
| Workflow | Zweck | Agenten |
|---|---|---|
| quality-improvement | Metriken scannen → schlechteste Dimensionen identifizieren → Verbesserungen planen & umsetzen | QA Lead, Dev, Architect |
| retrospective-quality | Sprint-Retro: ROTI, Vorfaelle, Qualitaetsdaten sammeln → Massnahmen ableiten | Scrum Master, QA, Dev |
| skill-evolution | Agenten-Performance analysieren → System-Prompts aktualisieren → Faehigkeiten weiterentwickeln | Brain, Lead Dev, QA |
Diese Workflows erzeugen eine Feedback-Schleife: Metriken → Analyse → Verbesserung → erneuter Scan → Fortschritt verfolgen.
Das Docker-Image enthaelt alles, was Agenten benoetigen, um autonom zu arbeiten:
| Kategorie | Werkzeuge | Beschreibung |
|---|---|---|
| Code | code_read, code_write, code_edit, code_search, list_files |
Projektdateien lesen, schreiben und durchsuchen |
| Build | build, test, local_ci |
Builds, Tests und lokale CI-Pipelines ausfuehren (npm/pip/cargo automatisch erkannt) |
| Git | git_commit, git_diff, git_log, git_status |
Versionskontrolle mit Agenten-Branch-Isolation |
| Sicherheit | sast_scan, dependency_audit, secrets_scan |
SAST via bandit/semgrep, CVE-Audit, Secret-Erkennung |
| QA | playwright_test, browser_screenshot, screenshot |
Playwright E2E-Tests und Screenshots (Chromium enthalten) |
| Tickets | create_ticket, jira_search, jira_create |
Vorfaelle/Tickets fuer TMA-Tracking erstellen |
| Deploy | docker_deploy, docker_status, github_actions |
Container-Bereitstellung und CI/CD-Status |
| Speicher | memory_store, memory_search, deep_search |
Persistenter Projektspeicher ueber Sitzungen hinweg |
Autonomer Zyklus fuer Vorfallserkennung, Triage und Selbstreparatur:
- Heartbeat-Monitoring — kontinuierliche Zustandspruefungen aller laufenden Missionen und Dienste
- Automatische Vorfallserkennung — HTTP 5xx, Timeout, Agenten-Absturz → automatische Vorfallserstellung
- Triage & Klassifizierung — Schweregrad (P0-P3), Auswirkungsanalyse, Ursachenhypothese
- Selbstreparatur — Agenten diagnostizieren und beheben Probleme autonom (Code-Patches, Konfigurationsaenderungen, Neustarts)
- Ticket-Erstellung — ungeloeste Vorfaelle erstellen automatisch nachverfolgte Tickets fuer menschliche Ueberpruefung
- Eskalation — P0/P1-Vorfaelle loesen Slack/E-Mail-Benachrichtigungen an das Bereitschaftsteam aus
- Retrospektiv-Schleife — Post-Incident-Erkenntnisse werden im Speicher abgelegt und in zukuenftige Sprints injiziert
Rollenbasierte adaptive Oberflaeche, die reale SAFe-Organisationen widerspiegelt:
- 9 SAFe-Perspektiven — Portfolio Manager, RTE, Product Owner, Scrum Master, Developer, Architect, QA/Security, Business Owner, Admin
- Adaptives Dashboard — KPIs, Schnellaktionen und Seitenleisten-Links aendern sich je nach gewaehlter Rolle
- Onboarding-Assistent — 3-stufiger Erstbenutzer-Flow (Rolle waehlen → Projekt waehlen → starten)
- Perspektiven-Auswahl — SAFe-Rolle jederzeit ueber das Dropdown in der Kopfleiste wechseln
- Dynamische Seitenleiste — zeigt nur Navigation, die fuer die aktuelle Perspektive relevant ist
Persistentes Wissen ueber Sitzungen hinweg mit intelligenter Abfrage:
- Sitzungsspeicher — Konversationskontext innerhalb einer einzelnen Sitzung
- Musterspeicher — Erkenntnisse aus der Ausfuehrung von Orchestrierungsmustern
- Projektspeicher — projektbezogenes Wissen (Entscheidungen, Konventionen, Architektur)
- Globaler Speicher — projektuebergreifendes Organisationswissen (FTS5-Volltextsuche)
- Automatisch geladene Projektdateien — CLAUDE.md, SPECS.md, VISION.md, README.md werden in jeden LLM-Prompt injiziert (max 8K)
- RLM Deep Search — Recursive Language Model (arXiv:2512.24601) — iterativer WRITE-EXECUTE-OBSERVE-DECIDE-Zyklus mit bis zu 10 Explorationsiterationen
Token-basierter Agenten-Marktplatz fuer Teamzusammenstellung:
- Agenten-Angebote — Agenten mit Preisvorstellung zum Transfer anbieten
- Free-Agent-Pool — nicht zugewiesene Agenten, die zum Drafting verfuegbar sind
- Transfers & Leihen — Agenten zwischen Projekten kaufen, verkaufen oder leihen
- Marktbewertung — automatische Agentenbewertung basierend auf Faehigkeiten, Erfahrung und Leistung
- Wallet-System — Token-Wallets pro Projekt mit Transaktionsverlauf
- Draft-System — freie Agenten fuer Ihr Projekt beanspruchen
Zweischichtiges Qualitaets-Gate, das gefaelschten/Platzhalter-Code am Durchkommen hindert:
- L0 Deterministisch — sofortige Erkennung von Slop (Lorem Ipsum, TBD), Mocks (NotImplementedError, TODO), Fake-Builds, Halluzinationen, Stack-Unstimmigkeiten
- L1 LLM Semantisch — separates LLM bewertet die Ausgabequalitaet fuer Ausfuehrungsmuster
- Bewertung — Score < 5 bestanden, 5-6 Soft-Pass mit Warnung, 7+ abgelehnt
- Zwangsablehnung — Halluzinationen, Slop, Stack-Unstimmigkeiten, Fake-Builds werden unabhaengig vom Score immer abgelehnt
Automatische Dokumentationsgenerierung waehrend des gesamten Lebenszyklus:
- Sprint-Retrospektiven — LLM-generierte Retro-Notizen, im Speicher abgelegt und in die naechsten Sprint-Prompts injiziert (Lernschleife)
- Phasen-Zusammenfassungen — jede Missionsphase erzeugt eine LLM-generierte Zusammenfassung der Entscheidungen und Ergebnisse
- Architecture Decision Records — Architekturmuster dokumentieren automatisch Design-Entscheidungen im Projektspeicher
- Projekt-Kontextdateien — automatisch geladene Anweisungsdateien (CLAUDE.md, SPECS.md, CONVENTIONS.md) dienen als lebende Dokumentation
- Confluence-Sync — bidirektionale Synchronisation mit Confluence-Wiki-Seiten fuer Unternehmensdokumentation
- Swagger Auto-Docs — 94 REST-Endpunkte automatisch dokumentiert unter
/docsmit OpenAPI-Schema
Hauptoberflaeche unter http://localhost:8090:
- Echtzeit-Multi-Agenten-Konversationen mit SSE-Streaming
- PI Board — Program-Increment-Planung
- Mission Control — Ausfuehrungsueberwachung
- Agenten-Verwaltung — Agenten anzeigen, konfigurieren, ueberwachen
- Vorfall-Dashboard — Selbstheilungs-Triage
- Mobil-responsiv — funktioniert auf Tablets und Smartphones
Vollstaendige Kommandozeilenschnittstelle:
# Installation (zum PATH hinzufuegen)
ln -s $(pwd)/cli/sf.py ~/.local/bin/sf
# Durchsuchen
sf status # Plattform-Zustand
sf projects list # Alle Projekte
sf missions list # Missionen mit WSJF-Scores
sf agents list # 145 Agenten
sf features list <epic_id> # Epic-Features
sf stories list --feature <id> # User Stories
# Arbeiten
sf ideation "e-commerce app in React" # Multi-Agenten-Ideation (gestreamt)
sf missions start <id> # Mission starten
sf metrics dora # DORA-Metriken
# Ueberwachen
sf incidents list # Vorfaelle
sf llm stats # LLM-Nutzung (Token, Kosten)
sf chaos status # Chaos Engineering22 Befehlsgruppen · Dualer Modus: API (Live-Server) oder DB (Offline) · JSON-Ausgabe (--json) · Spinner-Animationen · Markdown-Tabellenrendering
94 API-Endpunkte automatisch dokumentiert unter /docs (Swagger UI):
# Beispiele
curl http://localhost:8090/api/projects
curl http://localhost:8090/api/agents
curl http://localhost:8090/api/missions
curl -X POST http://localhost:8090/api/ideation \
-H "Content-Type: application/json" \
-d '{"prompt": "bike GPS tracker app"}'Swagger UI: http://localhost:8090/docs
24 MCP-Tools fuer KI-Agenten-Integration (Port 9501):
# MCP-Server starten
python3 -m platform.mcp_platform.server
# Verfuegbare Tools:
# platform_agents, platform_projects, platform_missions,
# platform_features, platform_sprints, platform_stories,
# platform_incidents, platform_llm, platform_search, ... ┌──────────────────────┐
│ CLI (sf) / Web UI │
│ REST API :8090 │
└──────────┬───────────┘
│
┌──────────────┴──────────────┐
│ FastAPI Server │
│ Auth (JWT + RBAC + OAuth) │
│ 17 route modules │
└──┬──────────┬────────────┬───┘
│ │ │
┌────────────┴┐ ┌────┴─────┐ ┌──┴───────────┐
│ Agent Engine │ │ Workflow │ │ Mission │
│ 192 agents │ │ Engine │ │ Layer │
│ executor │ │ 46 defs │ │ SAFe cycle │
│ loop+retry │ │ 10 ptrns │ │ Portfolio │
└──────┬───────┘ │ phases │ │ Epic/Feature │
│ │ retry │ │ Story/Sprint │
│ │ skip │ └──────────────┘
│ │ ckpoint │
│ └────┬─────┘
│ │
┌───────────┴────────────────┴───────────────┐
│ Services │
│ LLM Client (multi-provider fallback) │
│ Tools (code, git, deploy, memory, security)│
│ MCP Bridge (fetch, memory, playwright) │
│ Quality Engine (10 dimensions) │
│ Notifications (Slack, Email, Webhook) │
└───────────────────┬─────────────────────────┘
│
┌───────────────────┴─────────────────────────┐
│ Operations │
│ Watchdog (auto-resume, stall detection) │
│ Auto-Heal (incident > triage > fix) │
│ OpenTelemetry (tracing + metrics > Jaeger) │
└───────────────────┬─────────────────────────┘
│
┌──────────┴──────────┐
│ SQLite + Memory │
│ 4-layer memory │
│ FTS5 search │
└─────────────────────┘Mission Created
│
▼
┌─────────────┐ ┌──────────┐ ┌──────────┐ ┌──────────┐
│ Select │────▶│sequential│ │ parallel │ │hierarchic│
│ Pattern │────▶│ │ │ │ │ │
└─────────────┘────▶│ adversar.│ │ │ │ │
└────┬─────┘ └────┬─────┘ └────┬─────┘
└───────────────┴───────────────┘
│
┌────────────────────────────────────────┐
│ Phase Execution │
│ │
│ Agent ──▶ LLM Call ──▶ Result │
│ │ │
│ ┌───success──┴──failure──┐│
│ ▼ ▼│
│ Code phase? Retries? │
│ │ yes │ yes │
│ ▼ ▼ │
│ Sandbox Build Retry w/ │
│ Validation backoff │
│ │ │ no │
│ ▼ ▼ │
│ Quality Gate skip_on_fail?│
│ │ │ │yes │no │
│ pass fail │ │ │
│ │ │ │ ▼ │
│ ▼ ▼ │ PAUSED │
│ Checkpoint PAUSED ◀───────┘ │ │
└──────┬─────────────────────────────┘ │
│ │
More phases? ──yes──▶ next phase │
│ no │
▼ watchdog │
Mission Completed auto-resume ◀───────┘┌──────────────────────┐ ┌────────────────────────────────┐
│ OTEL Middleware │ │ Continuous Watchdog │
│ (every request) │ │ │
│ spans + metrics │ │ health check every 60s │
│ │ │ │ stall detection phases>60min │
│ ▼ │ │ auto-resume 5/batch 5min │
│ OTLP/HTTP export │ │ session recovery >30min │
│ │ │ │ failed cleanup zombies │
│ ▼ │ └────────────────────────────────┘
│ Jaeger :16686 │
└──────────────────────┘ ┌────────────────────────────────┐
│ Failure Analysis │
┌──────────────────────┐ │ │
│ Quality Engine │ │ error classification │
│ 10 dimensions │ │ phase heatmap │
│ quality gates │ │ recommendations │
│ radar chart │ │ resume-all button │
│ badge + scorecard │ └────────────────────────────────┘
└──────────────────────┘
┌────────────────────────────────┐
All data ─────────▶│ Dashboard /analytics │
│ tracing stats + latency chart │
│ error doughnut + phase bars │
│ quality radar + scorecard │
└────────────────────────────────┘Docker (empfohlen) → http://localhost:8090
Lokal (Entwicklung) → http://localhost:8090
Produktion → eigene InfrastrukturProjekte werden in projects/*.yaml definiert:
project:
name: my-project
root_path: /path/to/project
vision_doc: CLAUDE.md
agents:
- product_manager
- solution_architect
- backend_dev
- qa_engineer
patterns:
ideation: hierarchical
development: parallel
review: adversarial-pair
deployment:
strategy: blue-green
auto_prod: true
health_check_url: /health
monitoring:
prometheus: true
grafana_dashboard: project-metrics├── platform/ # Agenten-Plattform (152 Python-Dateien)
│ ├── server.py # FastAPI-App, Port 8090
│ ├── agents/ # Agenten-Schleife, Executor, Store
│ ├── a2a/ # Agent-zu-Agent-Nachrichtenbus
│ ├── patterns/ # 10 Orchestrierungsmuster
│ ├── missions/ # SAFe-Missionslebenszyklus
│ ├── sessions/ # Konversations-Runner + SSE
│ ├── web/ # Routen + Jinja2-Templates
│ ├── mcp_platform/ # MCP-Server (23 Tools)
│ └── tools/ # Agenten-Werkzeuge (Code, Git, Deploy)
│
├── cli/ # CLI 'sf' (6 Dateien, 2100+ LOC)
│ ├── sf.py # 22 Befehlsgruppen, 40+ Unterbefehle
│ ├── _api.py # httpx REST-Client
│ ├── _db.py # sqlite3 Offline-Backend
│ ├── _output.py # ANSI-Tabellen, Markdown-Rendering
│ └── _stream.py # SSE-Streaming mit Spinner
│
├── dashboard/ # Frontend HTMX
├── deploy/ # Helm Charts, Docker, K8s
├── tests/ # E2E Playwright-Tests
├── skills/ # Agenten-Faehigkeitsbibliothek
├── projects/ # Projekt-YAML-Konfigurationen
└── data/ # SQLite-Datenbank# Alle Tests ausfuehren
make test
# E2E-Tests (Playwright — erfordert vorherige Installation)
cd platform/tests/e2e
npm install
npx playwright install --with-deps chromium
npm test
# Unit-Tests
pytest tests/
# Chaos Engineering
python3 tests/test_chaos.py
# Ausdauertests
python3 tests/test_endurance.pyDas Docker-Image enthaelt: Node.js 20, Playwright + Chromium, bandit, semgrep, ripgrep. Agenten koennen Projekte bauen, E2E-Tests mit Screenshots ausfuehren und SAST-Sicherheitsscans sofort durchfuehren.
docker-compose up -dhelm install software-factory ./deploy/helm/Siehe .env.example fuer die vollstaendige Liste. Wichtige Variablen:
# LLM-Anbieter (erforderlich fuer echte Agenten)
PLATFORM_LLM_PROVIDER=minimax # minimax | azure-openai | azure-ai | nvidia | demo
MINIMAX_API_KEY=sk-... # MiniMax API-Key
# Authentifizierung (optional)
GITHUB_CLIENT_ID=... # GitHub OAuth
GITHUB_CLIENT_SECRET=...
AZURE_AD_CLIENT_ID=... # Azure AD OAuth
AZURE_AD_CLIENT_SECRET=...
AZURE_AD_TENANT_ID=...
# Integrationen (optional)
JIRA_URL=https://your-jira.atlassian.net
ATLASSIAN_TOKEN=your-token
SLACK_WEBHOOK_URL=https://hooks.slack.com/services/...Die Plattform optimiert sich selbst durch drei komplementäre KI-Engines.
Beta(wins+1, losses+1)pro(agent_id, pattern_id, technology, phase_type)Kontext- Feingranulares Fitness-Scoring — separater Score pro Kontext, kein kontextübergreifendes Bleeding
- Cold-Start-Fallback über Tech-Präfixkette (
angular_19→angular_*→generic) - Sanfte Ausmusterung:
weight_multiplier=0.1für schwache Teams, reversibel - Automatische A/B-Shadow-Runs; neutraler Evaluator wählt den Gewinner
- Darwin LLM: erweitert Thompson Sampling auf die LLM-Modellauswahl pro Kontext
- Genom = geordnete Liste von PhaseSpec (pattern, agents, gate)
- Population: 40 Genome, max. 30 Generationen, Elitismus=2, Mutationsrate=15%, Turnier k=3
- Fitness: Phasenerfolgsrate × Agenten-Fitness × (1 − Veto-Rate) × Lead-Time-Bonus
- Top-3-Vorschläge werden in
evolution_proposalszur menschlichen Prüfung gespeichert - Manueller Auslöser:
POST /api/evolution/run/{wf_id}— Ansicht unter Workflows → Evolution - Nächtlicher Scheduler; übersprungen bei < 5 Missionen
- Q-Learning-Policy (
platform/agents/rl_policy.py) - Aktionen: keep, switch_parallel, switch_sequential, switch_hierarchical, switch_debate, add_agent, remove_agent
- Zustand:
(wf_id, phase_position, rejection_pct, quality_score)gebucktet - Q-Update: α=0.1, γ=0.9, ε=0.1 — Offline-Batch auf Tabelle
rl_experience - Aktiviert nur bei Konfidenz ≥ 70% mit ≥ 3 Zustandsbesuchen; graceful degradation
- 8 Standard-Seeds: code/migration, security/audit, architecture/design, testing, docs
- OKR-Erfüllung fließt direkt in GA-Fitness und RL-Reward-Signal ein
- Inline-Bearbeitung unter
/teamsmit grün/gelb/rot-Status - Projektspezifische OKR-Überschreibungen über Einstellungen
- 10 deterministische Dimensionen — Komplexitaet, Abdeckung (UT/E2E), Sicherheit, Barrierefreiheit, Performance, Dokumentation, Architektur, Wartbarkeit, Adversarial
- Qualitaets-Gates auf Workflow-Phasen — PASS/FAIL-Badges pro Phase mit konfigurierbaren Schwellenwerten (always/no_veto/all_approved/quality_gate)
- Qualitaets-Dashboard unter
/quality— globale Scorecard, projektbezogene Bewertungen, Trend-Snapshots - Qualitaets-Badges ueberall — Missionsdetails, Projekt-Board, Workflow-Phasen, Haupt-Dashboard
- Kein LLM erforderlich — alle Metriken deterministisch berechnet mit Open-Source-Tools (radon, bandit, semgrep, coverage.py, pa11y, madge)
Jedes Projekt erhaelt automatisch 4 operative Missionen:
- MCO/TMA — kontinuierliche Wartung: Zustandsueberwachung, Vorfall-Triage (P0-P4), TDD-Fix, Nicht-Regressionsvalidierung
- Sicherheit — woechentliche SAST-Scans, Abhaengigkeitsaudit, CVE-Ueberwachung, Code-Review
- Technische Schulden — monatliche Schuldenreduktion: Komplexitaetsaudit, WSJF-Priorisierung, Refactoring-Sprints
- Selbstheilung — autonome Vorfall-Pipeline: 5xx-Erkennung → TMA-Missionserstellung → Agenten-Diagnose → Code-Fix → Validierung
- quality-improvement Workflow — Scan → schlechteste Dimensionen identifizieren → Verbesserungen planen & umsetzen
- retrospective-quality Workflow — Sprint-Retro mit ROTI, Vorfaellen, Qualitaetsmetriken → Massnahmen
- skill-evolution Workflow — Agenten-Performance analysieren → Prompts aktualisieren → Faehigkeiten weiterentwickeln
- Feedback-Schleife — Metriken → Analyse → Verbesserung → erneuter Scan → Fortschritt verfolgen
- 9 SAFe-Rollenperspektiven — adaptives Dashboard, Seitenleiste und KPIs pro Rolle
- Onboarding-Assistent — 3-stufiger Erstbenutzer-Flow mit Rollen- und Projektauswahl
- Perspektiven-Auswahl — SAFe-Rolle jederzeit ueber die Kopfleiste wechseln
- TMA-Heartbeat — kontinuierliches Zustandsmonitoring mit automatischer Vorfallserstellung
- Selbstreparatur-Agenten — autonome Diagnose und Behebung gaengiger Fehler
- Ticket-Eskalation — ungeloeste Vorfaelle erstellen nachverfolgte Tickets mit Benachrichtigungen
- Persistentes Wissen — Sitzungs-, Muster-, Projekt- und globale Speicherschichten mit FTS5
- RLM Deep Search — rekursive Explorationsschleife (bis zu 10 Iterationen) fuer komplexe Codebase-Analyse
- Automatisch geladener Projektkontext — CLAUDE.md, SPECS.md, VISION.md werden in jeden Agenten-Prompt injiziert
- L0 deterministisch — sofortige Erkennung von Slop, Mocks, Fake-Builds, Halluzinationen
- L1 semantisch — LLM-basierte Qualitaetspruefung fuer Ausfuehrungsausgaben
- Zwangsablehnung — Halluzinationen und Stack-Unstimmigkeiten werden immer blockiert
- Token-basierter Marktplatz mit Agenten-Angeboten, Transfers, Leihen und Free-Agent-Draft
- Marktbewertung — automatische Agentenpreisgestaltung basierend auf Faehigkeiten und Leistung
- Wallet-System — Token-Oekonomie pro Projekt mit Transaktionsverlauf
- JWT-basierte Authentifizierung mit Login/Registrierung/Refresh/Logout
- RBAC — Rollen: Admin, Project Manager, Developer, Viewer
- OAuth — GitHub und Azure AD SSO-Login
- Admin-Panel — Benutzerverwaltungsoberflaeche (
/admin/users) - Demo-Modus — Ein-Klick-"Skip"-Button fuer sofortigen Zugang
- Sprint-Retrospektiven — LLM-generierte Retro-Notizen mit Lernschleife
- Phasen-Zusammenfassungen — automatische Dokumentation der Missionsphasen-Ergebnisse
- Confluence-Sync — bidirektionale Wiki-Integration
- Multi-Provider mit automatischer Fallback-Kette
- MiniMax-M2.7, Azure OpenAI GPT-5-mini, Azure AI Foundry, NVIDIA NIM
- Demo-Modus zur Oberflaechenerkundung ohne API-Keys
- DORA-Metriken-Dashboard mit LLM-Kostenverfolgung
- Bidirektionale Jira-Synchronisation
- Playwright E2E-Testsuite (11 Spec-Dateien)
- Internationalisierung (EN/FR)
- Echtzeit-Benachrichtigungen (Slack, E-Mail, Webhook)
- Design-System-Pipeline in Workflows (UX → Dev → Review)
- 3D-Agentenwelt-Visualisierung
- Thompson-Sampling-Auswahl — probabilistische Agent+Pattern-Teamauswahl ueber
Beta(wins+1, losses+1)pro(agent_id, pattern_id, Technologie, Phasentyp) - Granulares Fitness-Tracking — separater Score pro Kontext: ein Team, das bei Angular-Migration gut ist, kann bei neuen Angular-Features schlecht sein
- Aehnlichkeits-Fallback — Kaltstart durch Tech-Praefix-Matching (
angular_19→angular_*→generic) - Sanfter Ruhestand — schwache Teams erhalten
weight_multiplier=0.1, deprioritisiert aber wiederherstellbar - OKR / KPI-System — Ziele und Kennzahlen pro Domain und Phasentyp; 8 Standard-Seeds
- A/B-Shadow-Tests — automatische parallele Runs bei nahen Fitness-Scores (Delta < 10) oder 10% Wahrscheinlichkeit
- Teams-Dashboard unter
/teams— Bestenliste mit Badges, OKR-Bearbeitung, Evolutionskurven, Auswahlverlauf, A/B-Ergebnisse - Non-breaking Opt-in —
agent_id: "skill:developer"aktiviert Darwin; explizite IDs bleiben unveraendert
- OTEL-Integration — OpenTelemetry SDK mit OTLP/HTTP-Exporter zu Jaeger
- ASGI-Tracing-Middleware — jede HTTP-Anfrage wird mit Spans, Latenz und Status getrackt
- Tracing-Dashboard unter
/analytics— Request-Statistiken, Latenz-Diagramme, Operationstabelle - Jaeger-UI — vollstaendige Distributed-Trace-Exploration auf Port 16686
- Fehlerklassifizierung — Python-basierte Fehlerkategorisierung (setup_failed, llm_provider, timeout, phase_error, etc.)
- Phasen-Fehler-Heatmap — identifiziert welche Pipeline-Phasen am haeufigsten fehlschlagen
- Empfehlungs-Engine — umsetzbare Vorschlaege basierend auf Fehlermustern
- Resume-All-Button — Ein-Klick-Massenwiederaufnahme pausierter Runs vom Dashboard
- Auto-Wiederaufnahme — pausierte Runs automatisch batchweise fortsetzen (5/Batch, alle 5 Min, max 10 gleichzeitig)
- Sitzungswiederherstellung — erkennt Sitzungen, die >30 Min inaktiv sind, markiert sie fuer Retry
- Bereinigung fehlgeschlagener Sitzungen — Zombie-Sitzungen bereinigen, die den Pipeline-Fortschritt blockieren
- Blockadeerkennung — Missionen, die >60 Min in einer Phase feststecken, werden automatisch neu gestartet
- Retry pro Phase — konfigurierbarer Retry-Zaehler (Standard 3x) mit exponentiellem Backoff pro Phase
- skip_on_failure — Phasen koennen als optional markiert werden, sodass die Pipeline fortfahren kann
- Checkpointing — abgeschlossene Phasen werden gespeichert, intelligente Wiederaufnahme ueberspringt erledigte Arbeit
- Phasen-Timeout — 10-Minuten-Limit verhindert endloses Haengen
- Post-Code-Build-Pruefung — nach Code-Generierungsphasen automatisch Build/Lint ausfuehren
- Automatische Build-System-Erkennung — npm, cargo, go, maven, python, docker
- Fehlereinspeisung — Build-Fehler werden in den Agentenkontext injiziert zur Selbstkorrektur
- Radar-Chart — Chart.js-Radar-Visualisierung der Qualitaetsdimensionen auf
/quality - Qualitaets-Badge — farbiger Score-Kreis fuer Projekt-Header (
/api/dashboard/quality-badge) - Missions-Scorecard — Qualitaetsmetriken in der Missionsdetail-Seitenleiste (
/api/dashboard/quality-mission)
- 3 spezialisierte Modelle —
gpt-5.2für schwere Reasoning-Aufgaben,gpt-5.1-codexfür Code/Tests,gpt-5-minifür leichte Aufgaben - Rollenbasiertes Routing — Agenten erhalten automatisch das richtige Modell nach Tags (
reasoner,architect,developer,tester,doc_writer…) - Live-konfigurierbar — Routing-Matrix in Einstellungen → LLM ohne Neustart editierbar
- Modell-A/B-Tests — gleiche Teams (Agent + Pattern) konkurrieren mit verschiedenen LLMs; das beste Modell setzt sich automatisch per Kontext durch
- Beta-Verteilung —
Beta(wins+1, losses+1)pro(agent_id, pattern_id, technology, phase_type, llm_model) - LLM-A/B-Tab auf
/teams— Fitness-Ranking per Modell und Testhistorie - Prioritätskette — Darwin LLM → DB-Konfiguration → Standardwerte (graceful degradation)
- Provider-Raster — Aktiv/Inaktiv-Status mit Hinweisen auf fehlende API-Keys
- Routing-Matrix — schwer/leicht pro Kategorie (Reasoning, Produktion/Code, Aufgaben, Redaktion)
- Darwin LLM A/B-Bereich — Live-Ansicht laufender Modellexperimente
- 4 neue Agenten —
knowledge-manager,knowledge-curator,knowledge-seeder,wiki-maintainer - ART-Knowledge-Team — dediziertes Agile Release Train fuer Wissensoperationen
- Naechlicher
knowledge-maintenance-Workflow — automatische Kuratierung, Deduplizierung, Frische-Scoring - Memory-Health-Dashboard — Wissens-Gesundheitsmetriken im Metriken-Tab
- Knowledge-Health-Badge — sichtbar auf der Einstellungsseite
- Relevanzbewertung —
Konfidenz × Aktualitaet × Zugriffs-Boost-Formel fuer gewichtetes Retrieval - Zugriffsverfolgung —
access_count- undlast_read_at-Felder fuer jeden Speichereintrag - Automatisches Bereinigen — veraltete Eintraege werden bei jedem naechlichen Lauf entfernt
- Kosten pro Mission — im Mission-Timeline-Tab-Header angezeigt
- Automatisch summiert — aus
llm_traces-Tabelle aggregiert
- Swimlane-Timeline-Tab — in Mission Control, zeigt Agentenphasen als horizontale Spuren
- Phasendauern — visuelle Darstellung der Zeit pro Phase
quality_score-Feld auf PhaseRun — vom adversarialen Guard nach jeder Phase befuellt
- ZIP-Archiv — enthaelt
project.json+ alle Missionen + Runs + Speicher
-
Pydantic-Modelle — alle POST/PATCH-Routen mit strikten Schemata validiert
-
Domain-Architekturrichtlinien — Confluence/Solaris pro Projektdomaene durchgesetzt
- Konfigurierbare Tool-Integrationen — Jira, Confluence, SonarQube fuer alle Agenten verfuegbar
- Web Push API (VAPID) — native Browser-Push-Benachrichtigungen fuer Missions-Ereignisse
- 192 Agenten katalogisiert — Volltext-Suche, Filter nach ART/Rolle/Skills unter
/marketplace - Agentenprofile — Detailansicht mit Werkzeugen, Skills und jüngster Sitzungshistorie
- Ein-Klick-Start — direkte Sitzung mit jedem Agenten von seiner Profilseite starten
- Schritt-für-Schritt-Replay — jeder Agenten-Turn und Werkzeugaufruf unter
/missions/{id}/replay - Kosten und Tokens je Schritt — granulare LLM-Kostenaufschlüsselung je Agent
- Exportierbare Historie — Replay als JSON herunterladen für Debugging und Audit
Scentralizowana konfiguracja platformy pod /settings:
- Współbieżność misji — dostosuj semafor wykonania na żywo (1–10 równoległych misji)
- Limit budżetu — ustaw maksymalne wydatki LLM na uruchomienie; uruchomienia przekraczające budżet są wstrzymywane
- Watchdog automatycznego wznawiania — automatycznie wznawia wstrzymane misje przy ponownym uruchomieniu
- Tryb YOLO — wyłącz walidację Human-in-the-loop dla w pełni autonomicznych uruchomień
- Trwały — wszystkie ustawienia przechowywane w DB, przeżywają restarty serwera
Centrum dowodzenia w czasie rzeczywistym pod /cockpit:
- Podgląd potoku na żywo — ideacja → misje → w toku → testy → wdrożone
- Status każdej misji — agent, bieżące wywołania narzędzi, dotychczasowy koszt LLM
- Wskaźnik semafora — widok wolnych vs zajętych slotów na pierwszy rzut oka
- Szybkie sterowanie — wstrzymaj, wznów, anuluj dowolną misję z kokpitu
Szczegółowa widoczność wydatków na uruchomienie:
llm_cost_usdna uruchomienie — każde wykonanie rejestruje dokładne wydatki LLM w USD- Alerty budżetowe — ostrzeżenie lub twarde zatrzymanie gdy misja osiągnie limit
- Porównanie dostawców — porównaj koszt tego samego zadania w minimax / azure / openai
- Zbiorcze pulpity — koszty agregowane według projektu, sprintu lub zakresu dat
Wbudowana warstwa adnotacji wizualnych, która zamienia każdą stronę SF w kolaboracyjne płótno do przeglądów:
- ✏️ Przycisk Adnotuj — kliknij, aby aktywować tryb adnotacji; pływający pasek narzędzi na każdej stronie
- Kliknij, aby adnotować — kliknij dowolny element: błąd 🐛, komentarz 💬, feature ✨, design 🎨 lub korekta tekstu 📝
- Pasek śledzenia SAFe — ikona persony w topbarze → Program → Epic → Cecha → Historie
- Tryb szkieletu — ikona siatki → widok szkieletu/shimmer do inspekcji UX
- Generowanie biletów — każda adnotacja może uruchomić misję naprawy
- Adaptacyjny motyw — używa zmiennych CSS, dostosowuje się do jasnego/ciemnego
- Echtzeit-Überwachung von Kosten/Latenz/Anbieter unter
/metrics - Ausgaben je Agent und Mission — teure Agenten identifizieren und optimieren
- Anbietervergleich — P50/P95-Latenz und Kosten verschiedener Anbieter nebeneinander
- Workspace-bezogenes RBAC — Rollenzuweisungen je Workspace, nicht nur plattformweit
- Nutzer-bezogenes Rate-Limiting — konfigurierbare Token-/Anfragequoten je Rolle
- Audit-Trail — alle RBAC-Änderungen mit Akteur, Zeitstempel und Details protokolliert
- LLM-als-Richter-Bewertung — automatische Auswertung gegen goldene Datensätze unter
/evals - Agenten-Benchmarks — Qualität im Zeitverlauf verfolgen und Regressionen erkennen
- Konfigurierbare Richter — beliebigen LLM-Anbieter als Bewertungsrichter verwenden
- No-Code-Werkzeugerstellung unter
/tool-builder— HTTP-, SQL- und Shell-Werkzeuge - Sofortige Aktivierung — Werkzeuge stehen Agenten unmittelbar nach dem Speichern zur Verfügung
- Parametertemplates — Eingabeschemata mit Typen und Validierung definieren
- Isolierte Namespaces unter
/workspaces— separate Daten, Agenten und Gedächtnis je Workspace - Pro-Client-Deployment — mehrere Kunden ohne gegenseitige Beeinflussung onboarden
- RBAC je Workspace — granulare Rollenzuweisungen je Namespace
- Live-Agenten-Updates — YAML-Dateien bearbeiten und ohne Neustart der Plattform nachladen
- Kein Ausfall — laufende Missionen nutzen weiterhin die vorherige Agentendefinition
- Topologia master/slave — IHM + SSE wyłącznie na masterze; wywołania API rozkładane na wszystkie węzły przez nginx
least_conn - Współdzielone PostgreSQL — 100% PostgreSQL, zero SQLite; wszystkie węzły korzystają z tej samej bazy danych; advisory lock zapobiega wyścigom schematu przy jednoczesnym uruchamianiu
- Pasywny failover — nginx oznacza węzeł jako niedostępny po 3 kolejnych błędach; ruch automatycznie kierowany do zdrowych węzłów, odzyskiwanie po 10 s
- Rejestr węzłów klastra — tabela
platform_nodesśledzi każdy węzeł: rola, tryb, URL, CPU%, MEM%, wersja, wiek heartbeat - Żywe plakietki w topbarze — każdy węzeł wyświetlany jako kolorowa kropka; zielony = online (< 60 s), czerwony = nieaktualne; odpytywanie co 30 s przez HTMX
- Szczegóły popover po kliknięciu — kliknij plakietkę węzła, aby zobaczyć pełną diagnostykę: rola/tryb, URL, CPU, MEM, ostatnie widzenie, wersja
- Narzędzie agenta
platform_cluster— Jarvis i wszyscy agenci mogą odpytywać kondycję klastra i rozkład obciążenia w języku naturalnym
- Piaskownica systemu plików Landlock — wykonywanie powłoki agenta ograniczone do katalogu workspace za pomocą Linux Landlock LSM (jądro 5.13+); zerowy wpływ na hosty inne niż Linux
- Zakładka ustawień bezpieczeństwa — włącz/wyłącz piaskownicę, sprawdź stan obsługi jądra Landlock w Ustawieniach → Bezpieczeństwo
- Narzędzia agenta Pentest — skanowanie portów nmap, wyliczanie subdomen subfinder, fingerprinting technologii whatweb, fuzzing API schemathesis, SQL injection, bypass uwierzytelnienia, wykrywanie SSRF
- Wzmocnienie jakości kodu LLM — SAST (bandit/semgrep) + analiza złożoności cyklomatycznej wstrzykiwana do kontekstu agenta przed każdą fazą przeglądu kodu
- Podsumowanie kontekstu DeerFlow — rekurencyjna kompresja kontekstu + automatyczna ekstrakcja pamięci (arXiv:2503.09516); zmniejsza zużycie tokenów w długotrwałych sesjach agentów
- Ulepszone routowanie wielomodelowe —
gpt-5.2dla wnioskowania/architektury,gpt-5.2-codexdla kodu/TDD,gpt-5-minidla dyskusji/dokumentacji; oparte na rolach, konfigurowane przezAZURE_CODEX_MODEL
- Terminologia SAFe — misje przemianowane na epic we wszystkich stronach UI; statystyki portfolio wyświetlają terminy SAFe (Epics / Features / Stories / Tasks)
- Eskalacja infra — gdy sprint nie może znaleźć wymaganych narzędzi budowania,
ft-infra-leadjest automatycznie uruchamiany, aby je zainstalować przed ponowną próbą - Narzędzia planu agenta — agenci tworzą ustrukturyzowane plany z kamieniami milowymi i podzadaniami, przechowywane w pamięci dla ciągłości między fazami
Wir freuen uns ueber Beitraege! Bitte lesen Sie CONTRIBUTING.md fuer Richtlinien.
Dieses Projekt ist unter der AGPL v3 Lizenz lizenziert — siehe die LICENSE-Datei fuer Details.



















