https://docs.n8n.io/hosting/starter-kits/ai-starter-kit/
Das Selbstgehostete AI Starter Kit ist eine offene Docker-Compose-Vorlage, die eine vollständig ausgestattete lokale AI- und Low-Code-Entwicklungsumgebung bereitstellt. Kuratiert von n8n, kombiniert es die selbstgehostete n8n-Plattform mit einer Liste kompatibler AI-Produkte und -Komponenten, um den Einstieg in den Aufbau von auf der eigenen Hardware laufenden AI-Workflows zu erleichtern.
Was ist im Starter-Kit enthalten
- Selbstgehostetes n8n: Low-Code-Plattform mit über 400 Integrationen und fortschrittlichen AI-Komponenten.
- Ollama: Plattformübergreifende LLM-Plattform zum Installieren und Ausführen der neuesten lokalen LLMs.
- Qdrant: Open-Source, leistungsstarker Vektorspeicher mit einer umfassenden API.
- PostgreSQL: Datenbank, die große Datenmengen sicher verarbeitet.
Mögliche Anwendungsfälle
Hier sind ein paar Anwedungsfälle für das Starter-Kit. Es gibt sicherlich noch tausend andere.
- AI-Agenten, die Termine vereinbaren können.
- Zusammenfassungen von PDFs ohne die Daten nach außen teilen zu müssen.
- Intelligentere Bot (z.B. in Slack oder Telegram) für die Unternehmenskommunikation und IT-Operationen.
- Private, kostengünstige Analysen von Finanzdokumenten.
Erste Schritte
Klont das GitHub-Repository und startet das Setup mit docker-compose. Für Nvidia Grafikkarten muss noch eine Kleinigkeit beachtet werden.
git clone https://github.com/n8n-io/self-hosted-ai-starter-kit.git
cd self-hosted-ai-starter-kit
docker compose up
# mit Nvidia GPU
docker compose --profile gpu-nvidia up
Generell kann ich den Betrieb eines LLM auf lokaler Hardware nur mit eine (nicht ganz zu kleinen) GPU empfehlen.
Hinweis: Dieses Kit ist für Testzwecke gedacht. Es ist nicht vollständig für Produktionsumgebungen optimiert, kombiniert jedoch robuste Komponenten, die gut für Proof-of-Concept-Projekte zusammenarbeiten. Passen Sie es an Ihre Bedürfnisse an und stellen Sie sicher, es vor dem Einsatz in Produktionsumgebungen zu sichern und zu härten.