Agentix Dokumentation

Vollständige Referenz für die Agentix Desktop-App – KI-Agenten, LLM-Provider, Architektur und Konfiguration.

Überblick

Agentix ist eine Flutter Desktop-App (primär macOS) für agentenbasierte Softwareentwicklung. Vier spezialisierte KI-Agenten – Product Management, UX Design, Entwicklung und Quality Assurance – arbeiten gemeinsam an Projekten, kommunizieren in strukturierten Meetings und teilen eine gemeinsame Knowledge Base.

Die App verbindet sich wahlweise mit einem Agentix App-Server (Cloud oder On-Premise) für Team-Features oder läuft vollständig lokal ohne Server.

Kernidee: Jeder Agent besitzt eine eigene LLM-Konfiguration. So kann z.B. der Dev-Agent Claude Code CLI mit DeepSeek nutzen, während der PM-Agent direkt die Anthropic-API aufruft – alles in einem Projekt.

System-Architektur

Agentix besteht aus drei unabhängigen Ebenen:

1. Flutter Desktop-Client

Die macOS-App – der primäre Einstiegspunkt für Nutzer. Kommuniziert über REST/WebSocket mit dem App-Server und ruft LLMs direkt oder über Subprocess (Claude Code CLI) auf. State-Management via Riverpod 2.x, Navigation via GoRouter.

2. Agentix App-Server

Go-Backend (Chi-Router) für Multi-User-Betrieb: Authentifizierung (JWT), Projekte, Aufgaben, Knowledge Base, Audit-Log. Läuft lokal oder in Docker. Wird in den App-Einstellungen unter Server-URL konfiguriert.

3. Agentix Platform-Server

Lizenz- und Kundenverwaltung, Cloud-Bereitstellung, Download-Portal. Für Endnutzer in der Regel transparent – im Hintergrund aktiv bei Cloud-Lizenzen.

Kommunikationsfluss

Flutter App
App-Server :8080
PostgreSQL
Flutter App
Claude API
api.anthropic.com
Flutter App
Subprocess: claude CLI
Anthropic / DeepSeek / Ollama
SchichtTechnologiePort / URL
Flutter ClientDart / Flutter 3.x, Riverpod, GoRouterDesktop-App
App-ServerGo, Chi, JWT, PostgreSQL:8080
Platform-ServerGo, Chi, PostgreSQLCloud-URL
LiteLLM-ProxyPython, LiteLLM:8000 (lokal)
OllamaGo, GGUF-Models:11434 (lokal)

Die 6 Agenten

Jeder Agent hat eine fest definierte Rolle, eine Farbe (für die UI) und ein eigenes Systempromptsystem (lib/core/constants/agent_prompts.dart). Die LLM-Konfiguration ist pro Agent und pro Projekt individuell einstellbar.

Product Management PM

Priorisierung, Roadmap, User Stories. Verarbeitet Feedback und Ideas, legt Tickets an.

UX Design UX

User Research, Wireframes, Designreview. Bewertet Features aus Nutzerperspektive.

Entwicklung Dev

Code-Umsetzung, Architektur, technische Reviews. Einziger Agent mit Filesystem-Zugriff (Claude Code).

Quality Assurance QA

Testplanung, Bug-Triage, Qualitätssicherung. Gibt Tickets frei oder blockiert sie.

Agent-Konfiguration pro Projekt

In den Projekteinstellungen (Projekt-Hub → Einstellungen) lässt sich für jeden Agenten separat konfigurieren:

LLM-Provider

Agentix unterstützt fünf verschiedene LLM-Provider. Die Auswahl erfolgt pro Agent in den Projekteinstellungen. In den globalen App-Einstellungen werden API-Keys und Verbindungsdaten konfiguriert.

☁️

Claude (Anthropic)

Direkte HTTP-API. Benötigt Anthropic API Key.

🖥️

Ollama (Lokal)

Lokale Modelle via Ollama. Kein API Key nötig.

Claude Code CLI

Claude-CLI als Subprocess. Voller Tool-Zugriff (Bash, Dateien etc.)

🔀

LiteLLM-Bridge

Übersetzt Claude-Format → Ollama. Claude Code + lokale Modelle.

🌊

DeepSeek (Cloud)

Cloud-API direkt, ohne LiteLLM. Nur API Key + Modell nötig.

Claude (Anthropic)

Direkter HTTP-Aufruf der Anthropic Messages API (api.anthropic.com/v1/messages). Implementiert in lib/services/llm/claude_service.dart.

Wann nutzen? Für alle Standard-Agenten-Tasks ohne Filesystem-Zugriff. Schnellste Antwortzeiten, beste Modellqualität. Erfordert Internetverbindung und API-Key.

Konfiguration

  1. Settings → Claude API → API Key eintragen
  2. Pro Agent Modell wählen: claude-opus-4-7, claude-sonnet-4-6, claude-haiku-4-5-20251001

Ollama (Lokal)

Nutzt die Ollama REST API (/api/chat), die lokal auf Port 11434 läuft. Implementiert in lib/services/llm/ollama_service.dart.

Wann nutzen? Datenschutzkritische Projekte, Offline-Betrieb oder als kostenlose Alternative. Benötigt ausreichend RAM (typisch: 8–64 GB je nach Modell).

Empfohlene Modelle (macOS, Apple Silicon)

ModellRAMStärke
gemma4:12b~8 GBGuter Allrounder, schnell
gemma4:27b~16 GBStärker, ausgewogen
llama3.3:70b~40 GBSehr stark, langsam
deepseek-r1:14b~9 GBReasoning, Analysen
deepseek-r1:32b~20 GBStarkes Reasoning
qwen2.5-coder:7b~4 GBCode-Fokus

Konfiguration

  1. Ollama installieren (Settings → System-Tools → Installieren)
  2. Modell herunterladen: Settings → Ollama → Modell auswählen
  3. Basis-URL prüfen (Standard: http://localhost:11434)
  4. Pro Agent Provider = Ollama (Lokal), Modellname eintragen

Claude Code CLI

Startet die claude CLI als Subprocess (Process.start) und übergibt den Prompt via -p <prompt>. Implementiert in lib/services/llm/claude_code_service.dart.

Besonderheit: Claude Code ist der einzige Provider mit echtem Tool-Zugriff – die CLI kann Bash-Befehle ausführen, Dateien lesen/schreiben und Code-Änderungen vornehmen. Ideal für den Dev-Agenten.

Ausgabeformat

Agentix nutzt --output-format stream-json --verbose für strukturierten Output, der live in der Terminal-Ansicht angezeigt wird:

Konfiguration

  1. Settings → System-Tools → Claude Code CLI installieren
  2. claude muss im PATH sein (/opt/homebrew/bin, /usr/local/bin)
  3. Pro Agent Provider = Claude Code (CLI)
  4. Optionales Modell: leer lassen = Standard-Modell von Claude Code

LiteLLM-Bridge (Ollama + Claude Code)

LiteLLM ist ein Python-Proxy, der die Anthropic-API nach außen simuliert und intern Anfragen zu Ollama (oder anderen Backends) übersetzt. Agentix startet LiteLLM als lokalen Subprocess und setzt dann ANTHROPIC_BASE_URL=http://localhost:8000 für die Claude Code CLI.

Claude Code CLI
LiteLLM :8000
Anthropic-Format
Ollama :11434
Lokales Modell
Wann nutzen? Wenn Claude Code mit lokalen Ollama-Modellen genutzt werden soll – also voller Tool-Zugriff (Filesystem, Bash) plus Datenschutz durch lokale Modelle.

Setup

  1. Settings → LiteLLM → LiteLLM installieren (einmalig, via pipx)
  2. Ollama-Modell eintragen (Format: ollama/gemma4:12b)
  3. Port anpassen falls nötig (Standard: 8000)
  4. LiteLLM starten → grüner Status
  5. Pro Agent Provider = LiteLLM (Ollama-Bridge)

DeepSeek (Cloud)

DeepSeek bietet einen Anthropic-kompatiblen API-Endpunkt unter https://api.deepseek.com/anthropic. Claude Code CLI spricht diesen direkt an – kein LiteLLM-Proxy nötig.

Claude Code CLI
api.deepseek.com/anthropic
Anthropic-kompatibel
DeepSeek-Modell
deepseek-v4-pro

Agentix setzt automatisch folgende Umgebungsvariablen bevor claude gestartet wird:

ANTHROPIC_BASE_URL=https://api.deepseek.com/anthropic
ANTHROPIC_AUTH_TOKEN=<dein DeepSeek API Key>
ANTHROPIC_MODEL=deepseek-v4-pro
ANTHROPIC_DEFAULT_OPUS_MODEL=deepseek-v4-pro
ANTHROPIC_DEFAULT_SONNET_MODEL=deepseek-v4-pro
ANTHROPIC_DEFAULT_HAIKU_MODEL=deepseek-v4-flash
CLAUDE_CODE_SUBAGENT_MODEL=deepseek-v4-flash

Setup

  1. API Key unter platform.deepseek.com erstellen
  2. Settings → DeepSeek (Cloud) → API Key eintragen
  3. Modell setzen (z.B. deepseek-v4-pro)
  4. Speichern
  5. Pro Agent Provider = DeepSeek (Cloud)
Vorteil: Volle Claude Code Tool-Nutzung (Filesystem, Bash) kombiniert mit DeepSeeks Modellen. Günstiger als Anthropic, keine lokale Hardware nötig.

Modelle

ModellStärkeGeschwindigkeit
deepseek-v4-proStärkstes ModellMittel
deepseek-v4-flashLeichteres ModellSchnell

App-Konfiguration

Globale Settings

Erreichbar über Sidebar → Einstellungen (⚙).

BereichEinstellungBeschreibung
Claude APIAPI KeyAnthropic API Key (SecureStorage)
OllamaBase URLStandard: http://localhost:11434
OllamaStandard-ModellVorausgewähltes Modell für neue Agenten
DeepSeekAPI KeyDeepSeek API Key (SecureStorage)
DeepSeekModellz.B. deepseek-v4-pro
LiteLLMOllama-ModellFormat: ollama/<modell>
LiteLLMPortStandard: 8000
ServerServer-URLURL des App-Servers, z.B. http://localhost:8080

Datenspeicherung

Projekte

Agentix unterstützt verschiedene Projekttypen, die sich in den verfügbaren Metadaten-Feldern und dem Standard-Workflow unterscheiden:

Projekt-Hub

Zentraler Einstiegspunkt eines Projekts mit:

Board & Aufgaben

Agentix nutzt ein Kanban-Board mit konfigurierbaren Spalten (Standard: Backlog, In Progress, Review, Done). Aufgaben (Tasks) können manuell erstellt oder vom PM-Agenten automatisch aus Feedback und Ideas angelegt werden.

Aufgaben-Lebenszyklus

  1. Erstellt (Backlog) → Dem Agenten zugewiesen
  2. Agent wird gestartet (Provider-Auswahl greift) → In Progress
  3. Agent beendet Arbeit → wechselt Spalte via update_task-Tool
  4. Review durch anderen Agenten (z.B. QA reviewt Dev-Arbeit)
  5. Done

Task-Detail

Jeder Task besitzt:

Meetings

Meetings sind strukturierte Konversationen zwischen mehreren Agenten. Ein Moderator (frei wählbar) leitet das Meeting, alle Teilnehmer reagieren auf die Beiträge der anderen.

Meetings laufen sequenziell: Agent A spricht, dann B, dann C etc., bis zum konfigurierten Ende oder bis alle ihre Kernpunkte gemacht haben.

Meeting-Typen

Knowledge Base

Die Knowledge Base ist eine gemeinsame Dokumentensammlung, auf die alle Agenten zugreifen können. Dokumente können manuell erstellt oder von Agenten via save_document-Tool angelegt werden.

Bei jedem Agenten-Aufruf werden relevante Dokumente als Kontext mitgegeben – die Auswahl erfolgt über Schlüsselwort-Matching im Brief und den Tags der Dokumente.

Gedächtnis-System

Agentix besitzt ein projektbezogenes Langzeitgedächtnis. Ein spezieller Memory-Agent (konfigurierbarer Provider) analysiert abgeschlossene Aufgaben und extrahiert Erkenntnisse, die zukünftigen Agenten als Kontext mitgegeben werden.

Memory-Formate in Agent-Outputs

Memory Rebuild

Via Memory → Gedächtnis neu aufbauen kann das komplette Projekt-Gedächtnis neu generiert werden – der Memory-Agent analysiert alle Tasks und Knowledge-Dokumente von Grund auf.

Agenten-Tools

Agenten können Tools aufrufen – je nach Provider werden diese unterschiedlich implementiert:

ToolProviderBeschreibung
bashClaude Code CLIShell-Befehl ausführen
read_fileClaude Code CLIDatei lesen
write_fileClaude Code CLIDatei schreiben
create_taskAlle ProviderNeue Aufgabe im Board anlegen
update_taskAlle ProviderTask-Status oder Felder ändern
save_documentAlle ProviderKnowledge-Base-Dokument speichern
ask_agentAlle ProviderAnderen Agenten befragen
memory_saveAlle ProviderErinnerung im Projektgedächtnis speichern

Für Ollama- und LiteLLM-Provider, die kein natives Tool-Calling unterstützen, parst Agentix JSON-Objekte aus dem Freitext ({"name": "tool_name", "arguments": {...}}).

Client-Server-Architektur

Lokaler Modus (kein Server)

Ohne konfigurierte Server-URL arbeitet Agentix vollständig lokal. Daten werden im Arbeitsspeicher gehalten und gehen beim App-Neustart verloren. Für Einzelnutzer und Tests geeignet.

Server-Modus

Mit konfigurierter Server-URL (Settings → Server-URL) verbindet sich Agentix mit dem Go-Backend:

App-Server selbst hosten

# Via Docker
docker compose up -d

# Oder direkt
cd server/app
go build ./cmd/server/
./server -port 8080 -db-url postgres://...

Server-URL in Agentix: http://<IP>:8080

Cloud-Betrieb (Platform-Server)

Im Cloud-Modus (Agentix-Lizenz) stellt der Platform-Server für jede Organisation automatisch einen eigenen App-Server-Container bereit. Die Verbindung läuft über einen Reverse Proxy (/c/{slug}/).

Troubleshooting

Claude Code CLI nicht gefunden

Settings → System-Tools → Claude Code CLI installieren.
Agentix sucht in: /opt/homebrew/bin, /usr/local/bin, /usr/bin. Nach manueller Installation App neu starten.

Ollama nicht erreichbar

Prüfen ob Ollama läuft: ollama list im Terminal.
Settings → System-Tools → Ollama starten.
Basis-URL prüfen (Standard: http://localhost:11434).

LiteLLM startet nicht

LiteLLM benötigt Python und pipx. Settings → LiteLLM → LiteLLM installieren.
Nach Installation: pipx ensurepath im Terminal, App neu starten.
Port-Konflikt: anderen Port in den Settings eintragen (z.B. 8001).

DeepSeek API-Fehler

API Key prüfen (platform.deepseek.com).
Claude Code CLI muss installiert sein (DeepSeek nutzt claude als Subprocess).
Modellname prüfen: deepseek-v4-pro oder deepseek-v4-flash.

Agenten geben keine Tool-Calls zurück (Ollama)

Nicht alle Ollama-Modelle unterstützen natives Tool-Calling. Agentix hat einen Fallback-Parser für JSON-im-Text. Modelle mit besserem Tool-Support: llama3.1, qwen2.5, gemma4. Für maximale Tool-Zuverlässigkeit: Claude Code CLI mit DeepSeek oder direkte Claude API.

Log-Datei

Detaillierte Logs: ~/Documents/agentix.log
Im Terminal: tail -f ~/Documents/agentix.log