Autonome Analyse · qwen2.5:7b lokal

Was das Gehirn über deine Projekte gelernt hat.

Das lokale LLM auf dem VPS hat deine Projekte gelesen — Stack-Hinweise, Doku, Verzeichnisstruktur — und Steckbriefe daraus erzeugt. Kein Code, keine Daten verlassen das System. Alles im Gehirn-Repo nachvollziehbar.

Projekte analysiert
Dateien gesamt
7B
qwen2.5 lokal
0€
API-Kosten
Wie das funktioniert

Drei Schritte, alle reproduzierbar.

01

Metadaten-Sammlung

Lokales Skript scannt die Projekte und erzeugt Bündel mit Verzeichnisbaum, Stack-Hinweisen, README-Auszügen — kein Code, keine Secrets, keine DBs.

02

Lokale LLM-Analyse

qwen2.5:7b auf dem VPS via Ollama erstellt pro Projekt einen Steckbrief: Was-ist-das, Stack, Eigenheiten, Risiken, Verbesserungen, Cross-Patterns.

03

Strukturierte Ablage

Jeder Steckbrief landet als Markdown-Datei im Gehirn unter knowledge/projects/, wird per Git committet und in memory/LERNINDEX.md verlinkt.