Agentix Dokumentation
Vollständige Referenz für die Agentix Desktop-App – KI-Agenten, LLM-Provider, Architektur und Konfiguration.
Überblick
Agentix ist eine Flutter Desktop-App (primär macOS) für agentenbasierte Softwareentwicklung. Vier spezialisierte KI-Agenten – Product Management, UX Design, Entwicklung und Quality Assurance – arbeiten gemeinsam an Projekten, kommunizieren in strukturierten Meetings und teilen eine gemeinsame Knowledge Base.
Die App verbindet sich wahlweise mit einem Agentix App-Server (Cloud oder On-Premise) für Team-Features oder läuft vollständig lokal ohne Server.
System-Architektur
Agentix besteht aus drei unabhängigen Ebenen:
1. Flutter Desktop-Client
Die macOS-App – der primäre Einstiegspunkt für Nutzer. Kommuniziert über REST/WebSocket mit dem App-Server und ruft LLMs direkt oder über Subprocess (Claude Code CLI) auf. State-Management via Riverpod 2.x, Navigation via GoRouter.
2. Agentix App-Server
Go-Backend (Chi-Router) für Multi-User-Betrieb: Authentifizierung (JWT), Projekte,
Aufgaben, Knowledge Base, Audit-Log. Läuft lokal oder in Docker. Wird in den
App-Einstellungen unter Server-URL konfiguriert.
3. Agentix Platform-Server
Lizenz- und Kundenverwaltung, Cloud-Bereitstellung, Download-Portal. Für Endnutzer in der Regel transparent – im Hintergrund aktiv bei Cloud-Lizenzen.
Kommunikationsfluss
:8080api.anthropic.com
claude CLI| Schicht | Technologie | Port / URL |
|---|---|---|
| Flutter Client | Dart / Flutter 3.x, Riverpod, GoRouter | Desktop-App |
| App-Server | Go, Chi, JWT, PostgreSQL | :8080 |
| Platform-Server | Go, Chi, PostgreSQL | Cloud-URL |
| LiteLLM-Proxy | Python, LiteLLM | :8000 (lokal) |
| Ollama | Go, GGUF-Models | :11434 (lokal) |
Die 6 Agenten
Jeder Agent hat eine fest definierte Rolle, eine Farbe (für die UI) und ein eigenes
Systempromptsystem (lib/core/constants/agent_prompts.dart). Die LLM-Konfiguration
ist pro Agent und pro Projekt individuell einstellbar.
Product Management PM
Priorisierung, Roadmap, User Stories. Verarbeitet Feedback und Ideas, legt Tickets an.
UX Design UX
User Research, Wireframes, Designreview. Bewertet Features aus Nutzerperspektive.
Entwicklung Dev
Code-Umsetzung, Architektur, technische Reviews. Einziger Agent mit Filesystem-Zugriff (Claude Code).
Quality Assurance QA
Testplanung, Bug-Triage, Qualitätssicherung. Gibt Tickets frei oder blockiert sie.
Agent-Konfiguration pro Projekt
In den Projekteinstellungen (Projekt-Hub → Einstellungen) lässt sich für jeden Agenten separat konfigurieren:
- Provider – Claude, Ollama, Claude Code CLI, LiteLLM, DeepSeek
- Modell – z.B.
claude-sonnet-4-6,gemma4:12b,deepseek-v4-pro - Systemprompt-Überschreibung – eigener Prompt statt Standard
- Workflow-Prompt – zusätzliche Arbeitsanweisungen
LLM-Provider
Agentix unterstützt fünf verschiedene LLM-Provider. Die Auswahl erfolgt pro Agent in den Projekteinstellungen. In den globalen App-Einstellungen werden API-Keys und Verbindungsdaten konfiguriert.
Claude (Anthropic)
Direkte HTTP-API. Benötigt Anthropic API Key.
Ollama (Lokal)
Lokale Modelle via Ollama. Kein API Key nötig.
Claude Code CLI
Claude-CLI als Subprocess. Voller Tool-Zugriff (Bash, Dateien etc.)
LiteLLM-Bridge
Übersetzt Claude-Format → Ollama. Claude Code + lokale Modelle.
DeepSeek (Cloud)
Cloud-API direkt, ohne LiteLLM. Nur API Key + Modell nötig.
Claude (Anthropic)
Direkter HTTP-Aufruf der Anthropic Messages API (api.anthropic.com/v1/messages).
Implementiert in lib/services/llm/claude_service.dart.
Konfiguration
- Settings → Claude API → API Key eintragen
- Pro Agent Modell wählen:
claude-opus-4-7,claude-sonnet-4-6,claude-haiku-4-5-20251001
Ollama (Lokal)
Nutzt die Ollama REST API (/api/chat), die lokal auf Port 11434 läuft.
Implementiert in lib/services/llm/ollama_service.dart.
Empfohlene Modelle (macOS, Apple Silicon)
| Modell | RAM | Stärke |
|---|---|---|
gemma4:12b | ~8 GB | Guter Allrounder, schnell |
gemma4:27b | ~16 GB | Stärker, ausgewogen |
llama3.3:70b | ~40 GB | Sehr stark, langsam |
deepseek-r1:14b | ~9 GB | Reasoning, Analysen |
deepseek-r1:32b | ~20 GB | Starkes Reasoning |
qwen2.5-coder:7b | ~4 GB | Code-Fokus |
Konfiguration
- Ollama installieren (Settings → System-Tools → Installieren)
- Modell herunterladen: Settings → Ollama → Modell auswählen
- Basis-URL prüfen (Standard:
http://localhost:11434) - Pro Agent Provider = Ollama (Lokal), Modellname eintragen
Claude Code CLI
Startet die claude CLI als Subprocess (Process.start) und
übergibt den Prompt via -p <prompt>. Implementiert in
lib/services/llm/claude_code_service.dart.
Ausgabeformat
Agentix nutzt --output-format stream-json --verbose für strukturierten Output, der live in der Terminal-Ansicht angezeigt wird:
- Textblöcke → Agenten-Antwort
- Tool-Use-Blöcke → ⚙ Tool-Name Argument (sichtbar in Terminal-Panel)
- Tool-Results → → Ergebnis (gekürzt)
Konfiguration
- Settings → System-Tools → Claude Code CLI installieren
claudemuss im PATH sein (/opt/homebrew/bin,/usr/local/bin)- Pro Agent Provider = Claude Code (CLI)
- Optionales Modell: leer lassen = Standard-Modell von Claude Code
LiteLLM-Bridge (Ollama + Claude Code)
LiteLLM ist ein Python-Proxy, der die Anthropic-API nach außen simuliert und intern
Anfragen zu Ollama (oder anderen Backends) übersetzt. Agentix startet LiteLLM als
lokalen Subprocess und setzt dann ANTHROPIC_BASE_URL=http://localhost:8000
für die Claude Code CLI.
Anthropic-Format
Lokales Modell
Setup
- Settings → LiteLLM → LiteLLM installieren (einmalig, via pipx)
- Ollama-Modell eintragen (Format:
ollama/gemma4:12b) - Port anpassen falls nötig (Standard:
8000) - LiteLLM starten → grüner Status
- Pro Agent Provider = LiteLLM (Ollama-Bridge)
DeepSeek (Cloud)
DeepSeek bietet einen Anthropic-kompatiblen API-Endpunkt unter
https://api.deepseek.com/anthropic. Claude Code CLI spricht diesen
direkt an – kein LiteLLM-Proxy nötig.
Anthropic-kompatibel
deepseek-v4-pro
Agentix setzt automatisch folgende Umgebungsvariablen bevor claude gestartet wird:
ANTHROPIC_BASE_URL=https://api.deepseek.com/anthropic
ANTHROPIC_AUTH_TOKEN=<dein DeepSeek API Key>
ANTHROPIC_MODEL=deepseek-v4-pro
ANTHROPIC_DEFAULT_OPUS_MODEL=deepseek-v4-pro
ANTHROPIC_DEFAULT_SONNET_MODEL=deepseek-v4-pro
ANTHROPIC_DEFAULT_HAIKU_MODEL=deepseek-v4-flash
CLAUDE_CODE_SUBAGENT_MODEL=deepseek-v4-flash
Setup
- API Key unter platform.deepseek.com erstellen
- Settings → DeepSeek (Cloud) → API Key eintragen
- Modell setzen (z.B.
deepseek-v4-pro) - Speichern
- Pro Agent Provider = DeepSeek (Cloud)
Modelle
| Modell | Stärke | Geschwindigkeit |
|---|---|---|
deepseek-v4-pro | Stärkstes Modell | Mittel |
deepseek-v4-flash | Leichteres Modell | Schnell |
App-Konfiguration
Globale Settings
Erreichbar über Sidebar → Einstellungen (⚙).
| Bereich | Einstellung | Beschreibung |
|---|---|---|
| Claude API | API Key | Anthropic API Key (SecureStorage) |
| Ollama | Base URL | Standard: http://localhost:11434 |
| Ollama | Standard-Modell | Vorausgewähltes Modell für neue Agenten |
| DeepSeek | API Key | DeepSeek API Key (SecureStorage) |
| DeepSeek | Modell | z.B. deepseek-v4-pro |
| LiteLLM | Ollama-Modell | Format: ollama/<modell> |
| LiteLLM | Port | Standard: 8000 |
| Server | Server-URL | URL des App-Servers, z.B. http://localhost:8080 |
Datenspeicherung
- SharedPreferences – App-Einstellungen (nicht-sensibel)
- FlutterSecureStorage – API Keys (Keychain auf macOS)
- Log-Datei –
~/Documents/agentix.log
Projekte
Agentix unterstützt verschiedene Projekttypen, die sich in den verfügbaren Metadaten-Feldern und dem Standard-Workflow unterscheiden:
- Softwareentwicklung – Vollständiger Dev-Workflow mit Board, QA, Deployment
- Research – Fokus auf Analyse, Reports, Knowledge Base
- Weitere Typen konfigurierbarer über Projekteinstellungen
Projekt-Hub
Zentraler Einstiegspunkt eines Projekts mit:
- Projektbeschreibung und Metadaten
- Agenten-Konfiguration (Provider + Modell pro Agent)
- Systempromt-Anpassung pro Agent
- Memory-Agent-Konfiguration
Board & Aufgaben
Agentix nutzt ein Kanban-Board mit konfigurierbaren Spalten (Standard: Backlog, In Progress, Review, Done). Aufgaben (Tasks) können manuell erstellt oder vom PM-Agenten automatisch aus Feedback und Ideas angelegt werden.
Aufgaben-Lebenszyklus
- Erstellt (Backlog) → Dem Agenten zugewiesen
- Agent wird gestartet (Provider-Auswahl greift) → In Progress
- Agent beendet Arbeit → wechselt Spalte via
update_task-Tool - Review durch anderen Agenten (z.B. QA reviewt Dev-Arbeit)
- Done
Task-Detail
Jeder Task besitzt:
- Brief (Aufgabenbeschreibung), Priorität, Typ (Feature, Bug, Task…)
- Zugewiesener Agent + LLM-Konfiguration
- Kommentare (Human und Agenten)
- Artefakte (Dateien, Code, Dokumente)
- Terminal-Output (bei Claude Code Ausführung)
Meetings
Meetings sind strukturierte Konversationen zwischen mehreren Agenten. Ein Moderator (frei wählbar) leitet das Meeting, alle Teilnehmer reagieren auf die Beiträge der anderen.
Meetings laufen sequenziell: Agent A spricht, dann B, dann C etc., bis zum konfigurierten Ende oder bis alle ihre Kernpunkte gemacht haben.
Meeting-Typen
- Sprint Planning – PM + Dev planen den nächsten Sprint
- Retrospektive – Alle Agenten reflektieren vergangene Arbeit
- Design Review – UX + Dev + PM reviewen Designs
- Freiformat – Eigenes Thema, eigene Teilnehmer
Knowledge Base
Die Knowledge Base ist eine gemeinsame Dokumentensammlung, auf die alle Agenten
zugreifen können. Dokumente können manuell erstellt oder von Agenten via
save_document-Tool angelegt werden.
Bei jedem Agenten-Aufruf werden relevante Dokumente als Kontext mitgegeben – die Auswahl erfolgt über Schlüsselwort-Matching im Brief und den Tags der Dokumente.
Gedächtnis-System
Agentix besitzt ein projektbezogenes Langzeitgedächtnis. Ein spezieller Memory-Agent (konfigurierbarer Provider) analysiert abgeschlossene Aufgaben und extrahiert Erkenntnisse, die zukünftigen Agenten als Kontext mitgegeben werden.
Memory-Formate in Agent-Outputs
MEMORY_SAVE: [{...}]– Agent speichert neues WissenMEMORY_USED: [...]– Agent zeigt an, welche Erinnerungen genutzt wurden
Memory Rebuild
Via Memory → Gedächtnis neu aufbauen kann das komplette Projekt-Gedächtnis neu generiert werden – der Memory-Agent analysiert alle Tasks und Knowledge-Dokumente von Grund auf.
Agenten-Tools
Agenten können Tools aufrufen – je nach Provider werden diese unterschiedlich implementiert:
| Tool | Provider | Beschreibung |
|---|---|---|
bash | Claude Code CLI | Shell-Befehl ausführen |
read_file | Claude Code CLI | Datei lesen |
write_file | Claude Code CLI | Datei schreiben |
create_task | Alle Provider | Neue Aufgabe im Board anlegen |
update_task | Alle Provider | Task-Status oder Felder ändern |
save_document | Alle Provider | Knowledge-Base-Dokument speichern |
ask_agent | Alle Provider | Anderen Agenten befragen |
memory_save | Alle Provider | Erinnerung im Projektgedächtnis speichern |
Für Ollama- und LiteLLM-Provider, die kein natives Tool-Calling unterstützen, parst Agentix
JSON-Objekte aus dem Freitext ({"name": "tool_name", "arguments": {...}}).
Client-Server-Architektur
Lokaler Modus (kein Server)
Ohne konfigurierte Server-URL arbeitet Agentix vollständig lokal. Daten werden im Arbeitsspeicher gehalten und gehen beim App-Neustart verloren. Für Einzelnutzer und Tests geeignet.
Server-Modus
Mit konfigurierter Server-URL (Settings → Server-URL) verbindet sich Agentix mit dem Go-Backend:
- Authentifizierung via JWT (Login-Bildschirm beim ersten Start)
- Projekte, Tasks, Knowledge Base und Meetings werden persistent gespeichert
- Mehrere Nutzer können auf dieselben Projekte zugreifen
- WebSocket-Verbindung für Echtzeit-Updates
App-Server selbst hosten
# Via Docker
docker compose up -d
# Oder direkt
cd server/app
go build ./cmd/server/
./server -port 8080 -db-url postgres://...
Server-URL in Agentix: http://<IP>:8080
Cloud-Betrieb (Platform-Server)
Im Cloud-Modus (Agentix-Lizenz) stellt der Platform-Server für jede Organisation
automatisch einen eigenen App-Server-Container bereit. Die Verbindung läuft über
einen Reverse Proxy (/c/{slug}/).
Troubleshooting
Claude Code CLI nicht gefunden
Settings → System-Tools → Claude Code CLI installieren.
Agentix sucht in: /opt/homebrew/bin, /usr/local/bin, /usr/bin.
Nach manueller Installation App neu starten.
Ollama nicht erreichbar
Prüfen ob Ollama läuft: ollama list im Terminal.
Settings → System-Tools → Ollama starten.
Basis-URL prüfen (Standard: http://localhost:11434).
LiteLLM startet nicht
LiteLLM benötigt Python und pipx. Settings → LiteLLM → LiteLLM installieren.
Nach Installation: pipx ensurepath im Terminal, App neu starten.
Port-Konflikt: anderen Port in den Settings eintragen (z.B. 8001).
DeepSeek API-Fehler
API Key prüfen (platform.deepseek.com).
Claude Code CLI muss installiert sein (DeepSeek nutzt claude als Subprocess).
Modellname prüfen: deepseek-v4-pro oder deepseek-v4-flash.
Agenten geben keine Tool-Calls zurück (Ollama)
Nicht alle Ollama-Modelle unterstützen natives Tool-Calling. Agentix hat einen
Fallback-Parser für JSON-im-Text. Modelle mit besserem Tool-Support: llama3.1,
qwen2.5, gemma4. Für maximale Tool-Zuverlässigkeit:
Claude Code CLI mit DeepSeek oder direkte Claude API.
Log-Datei
Detaillierte Logs: ~/Documents/agentix.log
Im Terminal: tail -f ~/Documents/agentix.log