
Ein KI-Chatbot auf der Website. Klingt erstmal simpel. Bis man sich die Angebote anschaut. Dann steht man vor einem Dschungel aus SaaS-Plattformen, API-Anbietern, Agentur-Angeboten und Open-Source-Projekten. Preise zwischen 0 und 10.000 Euro im Monat. Features, die sich auf den ersten Blick kaum unterscheiden.
Wir haben bei Exasync in den letzten Monaten mehrere Chatbot-Ansaetze gebaut, produktiv getestet und wieder verworfen. Custom GPTs, n8n-Workflow-Chatbots, direkte API-Integrationen. Das Ergebnis: 80 Prozent der Firmen brauchen keinen teuren Enterprise-Chatbot. Ein n8n-Workflow mit GPT-4-API reicht fuer die meisten Anwendungsfaelle. Setup in zwei Stunden. Kosten unter 50 Euro im Monat.
Dieser Artikel zeigt, welcher Chatbot-Typ zu welchem Unternehmen passt. Mit echten Zahlen, konkreten Architekturempfehlungen und einer Entscheidungsmatrix, die Ihnen die Recherche erspart.
Bevor wir ueber Preise reden, muessen wir die Landschaft sortieren. Es gibt grob vier Kategorien:
1. SaaS-Chatbot-Plattformen wie Intercom (Fin AI), Drift (Salesloft), Tidio oder Zendesk AI. Fertige Loesung, gehostet, oft mit CRM-Integration. Man zahlt pro Nutzer oder pro geloester Anfrage. Vorteil: Schnell einsatzbereit. Nachteil: Teuer, wenig Kontrolle ueber das Modell, Vendor-Lock-in.
2. API-Integrationen mit OpenAI (GPT-4o, GPT-4), Anthropic (Claude) oder Google (Gemini). Man baut den Chatbot selbst, nutzt die Sprachmodelle als Backend. Volle Kontrolle, geringste laufende Kosten, aber Entwicklungsaufwand.
3. Workflow-basierte Chatbots ueber Plattformen wie n8n, Make.com oder Zapier. Kein Code im eigentlichen Sinne, stattdessen visuelle Workflows, die API-Calls, Datenbank-Abfragen und Antwortlogik verbinden. Der Sweet Spot fuer die meisten mittelstaendischen Unternehmen.
4. Custom GPTs und Assistants direkt ueber OpenAI. Seit 2024 kann man eigene GPTs mit Wissensbasis bauen. Funktioniert gut fuer interne Use Cases, ist aber fuer kundengerichtete Chatbots auf der eigenen Website nur eingeschraenkt tauglich, weil man in der OpenAI-Oberflaeche bleibt.
Das ist die entscheidende Frage. Die Antwort haengt davon ab, wie viele Anfragen Ihr Chatbot pro Monat bearbeitet und wie komplex die Antworten ausfallen. Hier eine ehrliche Rechnung:
Szenario: 1.000 Kundenanfragen pro Monat, durchschnittlich 200 Woerter Input + 300 Woerter Output pro Gespraech.
OpenAI GPT-4o API: ca. 8-15 EUR/Monat. Pay-per-Token, kein Abo. Versteckte Kosten: Hosting fuer Frontend (5-20 EUR), Entwicklungszeit.
n8n Cloud + GPT-4o: ca. 35-75 EUR/Monat. n8n Starter (24 EUR) + API-Kosten. Versteckte Kosten: Webhook-Hosting, Supabase fuer Chat-Verlauf (gratis bis 50k Rows).
n8n Self-Hosted + GPT-4o: ca. 15-30 EUR/Monat. Server (10-20 EUR) + API-Kosten. Versteckte Kosten: Wartung, Updates, SSL-Zertifikat.
Intercom (Essential + Fin AI): ab 620 EUR/Monat. 1 Seat (29 EUR) + ca. 600 Fin-Resolutions a 0,99 EUR. Versteckte Kosten: Copilot-Upgrade (35 EUR/Seat), Proactive Support (99 EUR).
Drift (Premium): ab 2.500 EUR/Monat. Chatbot + Meeting-Buchung + Lead-Routing. Enterprise-Features nur im teuersten Plan.
Tidio (Lyro AI): ca. 40-80 EUR/Monat. Chatbot + Live-Chat + 50-200 Konversationen.
Voiceflow + GPT-4: ca. 50-100 EUR/Monat. Visueller Bot-Builder + API-Kosten. Enterprise-Features ab 625 EUR.
Die Tabelle macht klar: Zwischen der API-Loesung und einer Enterprise-Plattform wie Drift liegt ein Faktor von 100 bis 200. Die Frage ist also nicht "Was ist das beste Tool?", sondern: Welches Problem loesen Sie eigentlich?
Unsere Erfahrung bei Exasync: Die meisten Unternehmen ueberschaetzen, was sie brauchen. Typische Anforderungen, die wir hoeren:
All das funktioniert mit einem n8n-Workflow und der GPT-4-API. Kein Intercom noetig. Kein Drift.
Enterprise-Chatbots rechtfertigen sich erst, wenn Sie:
Solo / Freelancer (unter 100 Anfragen/Monat): Custom GPT oder Tidio Free. OpenAI Assistants API + einfaches Widget. 5-20 EUR/Monat.
Startup 2-10 MA (100-500 Anfragen): Workflow-Chatbot. n8n Cloud + GPT-4o + Supabase. 30-60 EUR/Monat.
KMU 10-50 MA (500-2.000 Anfragen): Workflow-Chatbot oder Tidio/Voiceflow. n8n Self-Hosted + GPT-4o + Supabase. 30-150 EUR/Monat.
Mittelstand 50-250 MA (2.000-10.000 Anfragen): Hybrid: Workflow + Intercom Essential. 200-800 EUR/Monat.
Enterprise 250+ MA (ueber 10.000 Anfragen): Enterprise-Plattform. Intercom Advanced/Expert oder Drift. 1.000-10.000+ EUR/Monat.
Wir nutzen bei Exasync sowohl n8n Cloud als auch eine Self-Hosted-Instanz. Der Standard-Stack fuer einen Kunden-Chatbot:
Architektur:
Das sind in n8n sieben Nodes, die man in zwei Stunden aufbaut. Wir nutzen Supabase als Backend, weil die Realtime-Funktion Gespraeche sofort synchronisiert.
Kosten bei 1.000 Anfragen/Monat: n8n Cloud Starter: 24 EUR + OpenAI API (GPT-4o): ca. 8-12 EUR + Supabase Free Tier: 0 EUR. Gesamt: ca. 32-36 EUR/Monat. Zum Vergleich: Intercom wuerde fuer das gleiche Volumen mindestens 620 EUR kosten. Faktor 17.
Fehler 1: Mit dem teuersten Tool starten. Viele Firmen unterschreiben einen Intercom- oder Drift-Vertrag, bevor sie wissen, wie viele Anfragen ihr Bot erhaelt. Tipp: API-Loesung starten, drei Monate messen, dann entscheiden.
Fehler 2: Den Bot ohne Wissensbasis einrichten. GPT-4 ist clever, aber ohne konkretes Firmenwissen halluziniert das Modell. 20 gut formulierte Frage-Antwort-Paare machen mehr aus als jedes Feature einer teuren Plattform.
Fehler 3: Kein Fallback auf menschlichen Support. Jeder Chatbot braucht eine Eskalationslogik. In n8n: Condition-Node mit Confidence unter 70 Prozent → Ticket erstellen.
Fehler 4: Chat-Verlauf nicht speichern. Ohne gespeicherte Gespraeche kann man nicht analysieren, was Kunden fragen. Wir werten monatlich die Top-20-Fragen aus.
Fehler 5: DSGVO ignorieren. Wer OpenAI nutzt, verarbeitet Daten ausserhalb der EU. DPA mit OpenAI abschliessen. Bei sensiblen Branchen: europaeischer Anbieter oder Self-Hosted LLM.
Wer heute einen Chatbot baut, sollte in Modulen denken:
Schicht 1 — Frontend (austauschbar): Chat-Widget per REST-API oder WebSocket. Kein Lock-in.
Schicht 2 — Orchestrierung (n8n oder Make): Geschaeftslogik im Workflow-Tool. Routing, Kontext, Eskalation, CRM-Integration.
Schicht 3 — LLM-Backend (austauschbar): OpenAI, Anthropic, Mistral oder Self-Hosted. Anbieterwechsel in 10 Minuten.
Schicht 4 — Datenhaltung (Supabase): Gespraeche, Feedback, Analytics. PostgreSQL, Realtime, Row-Level-Security.
GPT-4o: Der Allrounder. Gut bei Konversation, schnell, guenstig ($2,50/Mio. Input-Tokens). Fuer die meisten Chatbot-Szenarien die erste Wahl.
Claude 3.5 Sonnet: Glaenzt bei laengeren, nuancierteren Antworten. Kosten aehnlich. Gute Wahl fuer komplexe Erklaerungen.
GPT-4o mini / Claude Haiku: Fuer High-Volume FAQ. Faktor 5-10 guenstiger bei leicht reduzierter Qualitaet.
Self-Hosted (Llama, Mistral): Maximale Datenkontrolle. GPU-Server noetig (16+ GB VRAM). Sinnvoll ab 50.000+ Anfragen/Monat.
Drei konkrete Erkenntnisse aus unserer Praxis, die in keinem Vergleichsartikel stehen:
Erkenntnis 1: Der System-Prompt ist wichtiger als das Modell. Wir haben denselben Chatbot-Workflow mit GPT-4o, Claude 3.5 Sonnet und GPT-4o mini getestet. Der Qualitaetsunterschied in den Antworten war minimal — solange der System-Prompt praezise formuliert war. Ein mittelmaessiges Modell mit einem exzellenten Prompt schlaegt ein Top-Modell mit einem generischen Prompt. Investieren Sie 80 Prozent Ihrer Zeit in den Prompt, nicht in die Modellauswahl.
Erkenntnis 2: Die ersten 50 Gespraeche sind Gold wert. Nach dem Launch haben wir jede einzelne Chat-Konversation gelesen. Nicht automatisiert analysiert — manuell gelesen. Dabei haben wir drei Frage-Muster entdeckt, die wir nicht auf dem Schirm hatten. Diese Muster haben wir in den System-Prompt aufgenommen. Die Antwortqualitaet ist danach sichtbar gestiegen. Automatisches Monitoring ist wichtig, aber die ersten Wochen brauchen menschliche Aufmerksamkeit.
Erkenntnis 3: Weniger Features, mehr Zuverlaessigkeit. Unser erster Chatbot-Prototyp konnte Termine buchen, Dokumente zusammenfassen und Produktfragen beantworten. Er war fehleranfaellig und die Antwortzeiten schwankten. Die aktuelle Version kann nur Produktfragen beantworten und an den menschlichen Support eskalieren. Sie laeuft seit Wochen fehlerfrei. Ein Chatbot, der eine Sache zuverlaessig macht, ist wertvoller als einer, der fuenf Sachen halb kann. KI im Arbeitsalltag einsetzen
Unser Tipp fuer den Start: Definieren Sie exakt drei Fragen, die Ihr Bot beantworten soll. Nicht zehn, nicht zwanzig — drei. Bauen Sie dafuer den besten Bot, den Sie koennen. Wenn diese drei Fragen zu 95 Prozent korrekt beantwortet werden, erweitern Sie auf fuenf. Dieses schrittweise Vorgehen spart Zeit, Geld und Nerven.
Konkret:
In den meisten Faellen reicht der schlanke Stack. Der haeufigste Fehler, den wir bei Kunden sehen: Sie vergleichen Enterprise-Plattformen, bevor sie ueberhaupt wissen, wie viele Anfragen ihr Chatbot bearbeiten wird. Tun Sie das nicht. Bauen Sie erst den einfachsten funktionierenden Bot, messen Sie reale Nutzungsdaten und upgraden Sie gezielt dort, wo die Daten es erfordern. Das spart nicht nur Geld — es spart vor allem Zeit und vermeidet Vendor-Lock-in bei Anbietern, deren Features Sie vielleicht nie brauchen werden.
Weiterlesen: Geschaeftsprozesse automatisieren | n8n vs. Zapier vs. Make | KI fuer Unternehmen: Der komplette Leitfaden
Sie wollen einen KI-Chatbot aufsetzen? Sprechen Sie mit uns — kostenfreie Erstberatung. Wir schauen uns Ihren Use Case an und empfehlen den passenden Ansatz — ohne Verkaufsdruck und ohne Plattform-Bindung.