How-to

Der richtige Tech-Stack für KI-Automatisierung

Die falsche Frage stellen

Ich sitze mit einem CTO zusammen und er fragt: "Sollen wir n8n oder Make nehmen?" Das ist die falsche Frage. Die richtige Frage ist: "Welche Anforderungen habe ich, und welche Tools erfüllen sie am besten?"

Der richtige Tech-Stack für KI-Automatisierung ist nicht eine Meinung. Er ist ein Engineering-Decision, basierend auf Anforderungen, Team-Kapazität und Kosten. In diesem Post gebe ich dir die Frameworks, um den Stack für dein Projekt zu wählen.

Automatisierungs-Plattformen: n8n vs Make vs Zapier

Zapier: Der Low-Code Standard

Zapier ist das sichere Spiel. Es funktioniert, es hat einen riesigen Connector-Marktplatz, und es braucht fast keine technische Expertise. Ein Product-Manager kann Workflows aufbauen. Die Anbindung an 7000+ Apps ist out-of-the-box.

Wann Zapier die richtige Wahl ist:

  • Dein Tech-Team ist klein oder non-existent
  • Du brauchst Standard-Integrationen (Salesforce, HubSpot, Slack, etc.)
  • Der Workflow ist relativ linear und nicht hochkomplex
  • Du zahlst pro Task/Ausführung und hast vorhersehbare Volumina

Wann Zapier die falsche Wahl ist:

  • Du brauchst benutzerdefinierte Logic oder API-Anfragen
  • Die Latenz muss unter 2 Sekunden sein
  • Du hast hochvariable Volumina und brauchst Kostenoptimierung
  • Dein Workflow braucht Kontexten oder State-Management über mehrere Schritte

Make (früher Integromat): Der Mittelweg

Make bietet mehr Flexibilität als Zapier, ist aber immer noch No-Code/Low-Code. Du kannst komplexere Workflows mit Bedingungen, Loops und Error-Handling bauen. Die Preisstruktur ist fairer für hohe Volumina (Pay-for-Operations, nicht Executions).

Wann Make die richtige Wahl ist:

  • Du brauchst mehr Kontrollfluss als Zapier anbietet
  • Du hast hohe Transaktionsvolumina und brauchst bessere Kosteneffizienz
  • Dein Team kann basales Low-Code-Scripting, aber hat keine Backend-Developers
  • Du willst Webhooks, Datenbereinigung und etwas komplexere Logik

Wann Make die falsche Wahl ist:

  • Du brauchst wirklich benutzerdefinierte Business-Logic oder Algorithms
  • Dein Workflow braucht Machine-Learning-Integration oder Advanced-Analytics
  • Deine Infrastruktur ist Self-Hosted und Compliance-Anforderungen sind hoch

n8n: Der vollständig programmierbare Stack

n8n ist Open-Source und selbst-gehostet. Du hast vollständige Kontrolle. Du kannst JavaScript schreiben. Du kannst komplexe Logik bauen. Die Community ist aktiv und die API ist exzellent dokumentiert.

Wann n8n die richtige Wahl ist:

  • Du hast Backend-Engineers, die Node.js/JavaScript kennen
  • Du brauchst Self-Hosting aus Compliance- oder Datenschutzgründen
  • Deine Workflows sind hochkomplex und brauchen benutzerdefinierte Code
  • Du willst keine Vendor-Lock-in und brauchst Portabilität
  • Dein Volumen ist so hoch, dass Make/Zapier Kosten prohibitiv werden

Wann n8n die falsche Wahl ist:

  • Du hast kein Engineering-Team, das Deployments und Upgrades verwalten kann
  • Du brauchst schnelle Connector-Updates und willst die Maintenance nicht tragen
  • Dein Projekt ist klein und eine SaaS-Lösung ist einfacher

LLM-Anbieter: OpenAI vs Anthropic vs Open Source

OpenAI: Der Produktionsstandard

OpenAI (GPT-4) hat die höchste all-around Competence. Das Modell ist gut bei Reasoning, Code-Generation, und General-Purpose-Tasks. Die API ist stabil und hat massive Scale.

Wann OpenAI die richtige Wahl ist:

  • Du brauchst General-Purpose-NLP (Text-Zusammenfassung, Kategorisierung, QA)
  • Dein Use-Case braucht Versatilität über verschiedene Tasks
  • Du hast Budget und willst die sicherste Wahl
  • Du brauchst Vision-Capabilities (Bildverarbeitung)

Kosten: Ca. 0,03 USD pro 1000 Input-Tokens, 0,06 USD per 1000 Output-Tokens (GPT-4).

Anthropic Claude: Die spezialisierte Alternative

Anthropic Claude ist in spezifischen Bereichen besser als GPT-4: Langer-Text-Understanding, logisches Reasoning, und expliziter Sicherheits-Alignment. Das Modell hat ein 200k-Context-Fenster nativ, was bedeutet, du kannst ganze Dokumente in einem Prompt einbinden.

Wann Claude die richtige Wahl ist:

  • Du brauchst Long-Context-Processing (ganze Verträge, lange Artikel analysieren)
  • Dein Use-Case braucht konsistentes, strukturiertes Output
  • Du brauchst hohe Qualität bei Reasoning-Tasks und wenig Halluzination
  • Du willst explizit bessere Sicherheit und Bias-Vermeidung

Kosten: Ca. 0,003 USD pro 1000 Input-Tokens, 0,015 USD per 1000 Output-Tokens (Claude 3 Sonnet).

Open-Source-Modelle: Der kostengünstige Weg

Modelle wie Llama 2 (Meta), Mistral 7B, oder Phi (Microsoft) können selbst-gehostet werden. Du zahlst für Compute, nicht für API-Aufrufe. Wenn dein Volumen massiv ist (100M+ Tokens täglich), kann das günstiger sein.

Wann Open-Source die richtige Wahl ist:

  • Dein Volumen ist extrem hoch und API-Kosten wären prohibitiv
  • Du brauchst Data-Privacy und kannst nicht mit externen APIs arbeiten
  • Du hast ein spezialisiertes Use-Case und willst Fine-Tuning
  • Du hast die Infrastruktur und Engineers, um selbst-gehostete Modelle zu betreiben

Achtung: Open-Source-Modelle sind heute 10-20% schlechter in Qualität als proprietäre Modelle, haben mehr Halluzination und brauchen mehr Tuning.

Vector Databases: Supabase vs Pinecone vs PostgreSQL pgvector

Wenn du Retrieval-Augmented-Generation (RAG) brauchst, brauchst du eine Vector-DB.

Pinecone: Der vollständig verwaltete Service

Pinecone ist einfach. Du uploadst Embeddings, machst Similarity-Searches. Keine Selbst-Verwaltung. Aber teuer bei großen Mengen.

Wann Pinecone:

  • Kleine bis mittlere Mengen (unter 10M Embeddings)
  • Du brauchst nicht viel DevOps-Überhead

Supabase (PostgreSQL mit pgvector): Der Mittelweg

Supabase ist PostgreSQL mit pgvector-Extension. Das ist günstig, skalierbar und relativ einfach zu verwalten. Du kriegst auch normale SQL-Funktionalität.

Wann Supabase:

  • Du brauchst Hybrid-Suche (Vector + SQL)
  • Mittlere bis große Mengen (10M+ Embeddings)
  • Du willst gutes Preis-Leistungs-Verhältnis

Self-Hosted PostgreSQL pgvector: Der günstige Weg

Wenn du die Infrastruktur selbst hostest, ist pgvector kostenlos. Du kontrollierst alles. Aber DevOps-Verantwortung liegt bei dir.

Das gesamte Bild: Ein Entscheidungsfluss

Hier ist die konkrete Decision-Tree:

Für Automatisierungs-Plattformen:

Hast du Backend-Engineers? JA -> n8n. NEIN -> Ist dein Workflow komplex? JA -> Make. NEIN -> Zapier.

Für LLMs:

Brauchst du Long-Context oder Spezial-Reasoning? JA -> Claude. NEIN -> Brauchst du Volumen-Kostenoptimierung? JA -> Open Source (mit DevOps). NEIN -> OpenAI.

Für Vector Databases:

Self-Hosted Infrastructure? JA -> pgvector. NEIN -> Brauchst du Hybrid-Search? JA -> Supabase. NEIN -> Kleine Mengen? -> Pinecone.

Die Realität

Die meisten produktiven Setups sind Hybride. Du kannst Zapier für Standard-Integrationen haben, n8n für komplexe Workflows, und Claude API für LLM-Tasks. Das ist nicht Overkill, das ist Pragmatismus.

Die teuerste Wahl ist die falsche Wahl. Wähle basierend auf deinen Anforderungen, nicht auf Hype.