Din Telegram-inkorg fylls snabbt. Samma fem frågor upprepas, dina svar varierar i ton, och ”jag svarar senare” blir i tysthet till missade leads eller frustrerade studenter.
Den här Gemini FAQ-automationen är en livräddare för en supportansvarig som vill hålla svarstiderna på en rimlig nivå. En kurskreatör kan använda den för att hantera klassens DM utan att behöva bo i Telegram, och en byråägare kan standardisera kundnära svar över flera bottar.
Du får se hur det här arbetsflödet tar ett inkommande Telegram-meddelande, genererar ett konsekvent AI-svar (valfritt förankrat i dokumentation eller ett API) och skickar tillbaka det automatiskt – utan att förvandla chatten till en spamkanon.
Så fungerar den här automationen
Se hur det här löser problemet:
n8n Workflow Template: Telegram + Google Gemini: FAQ-svar på autopilot
flowchart LR
subgraph sg0["Telegram Flow"]
direction LR
n0@{ icon: "mdi:robot", form: "rounded", label: "Message a model", pos: "b", h: 48 }
n1["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/telegram.svg' width='40' height='40' /></div><br/>Send a text message"]
n2@{ icon: "mdi:cog", form: "rounded", label: "Get a document in Google Docs", pos: "b", h: 48 }
n3["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/telegram.svg' width='40' height='40' /></div><br/>Telegram Trigger"]
n4@{ icon: "mdi:cog", form: "rounded", label: "Wait 1s", pos: "b", h: 48 }
n5@{ icon: "mdi:wrench", form: "rounded", label: "Message a model in Google Ge..", pos: "b", h: 48 }
n6@{ icon: "mdi:web", form: "rounded", label: "HTTP Request", pos: "b", h: 48 }
n7@{ icon: "mdi:swap-vertical", form: "rounded", label: "Loop Over Items1", pos: "b", h: 48 }
n8@{ icon: "mdi:robot", form: "rounded", label: "Message a model1", pos: "b", h: 48 }
n9@{ icon: "mdi:cog", form: "rounded", label: "Extract text in Mistral AI", pos: "b", h: 48 }
n4 --> n7
n6 -.-> n0
n6 -.-> n8
n0 --> n1
n7 --> n0
n3 --> n7
n1 --> n4
n9 -.-> n8
n2 -.-> n0
n2 -.-> n8
n5 -.-> n0
end
%% Styling
classDef trigger fill:#e8f5e9,stroke:#388e3c,stroke-width:2px
classDef ai fill:#e3f2fd,stroke:#1976d2,stroke-width:2px
classDef aiModel fill:#e8eaf6,stroke:#3f51b5,stroke-width:2px
classDef decision fill:#fff8e1,stroke:#f9a825,stroke-width:2px
classDef database fill:#fce4ec,stroke:#c2185b,stroke-width:2px
classDef api fill:#fff3e0,stroke:#e65100,stroke-width:2px
classDef code fill:#f3e5f5,stroke:#7b1fa2,stroke-width:2px
classDef disabled stroke-dasharray: 5 5,opacity: 0.5
class n3 trigger
class n0,n8 ai
class n5 ai
class n6 api
classDef customIcon fill:none,stroke:none
class n1,n3 customIcon
Utmaningen: snabba svar utan att låta som en robot
Support i Telegram ser enkelt ut tills det är du som gör jobbet. Folk ställer samma prisfråga, onboarding-fråga, ”var är länken”-fråga, och de ställer den vid sämsta möjliga tillfällen. Antingen kopierar och klistrar du in gamla svar (och glömmer att uppdatera dem), eller så skriver du nya svar och bränner en timme på sådant som borde ta fem minuter. Under tiden smyger inkonsekvensen in: tonen ändras, detaljerna ändras, och plötsligt sitter du och reder ut missförstånd som du själv råkade skapa.
Det bygger upp snabbt. Här är var det oftast fallerar i riktiga team.
- Någon måste vara ”på Telegram” hela dagen, vilket garanterat dödar fokus.
- Kopiera-och-klistra-svar glider över tid, så kunder får lite olika policyer och instruktioner.
- När du är offline staplas meddelanden på hög och första svaret blir skademinimering i stället för hjälp.
- Manuella svar skalar inte, och att lägga till ytterligare en person skapar ofta ännu mer inkonsekvens.
Lösningen: Telegram-svar genererade av Gemini (med valfri kontext)
Det här arbetsflödet förvandlar din Telegram-bot till en alltid-på FAQ-svarare med Google Gemini (via PaLM/Gemini API) och n8n. Ett meddelande kommer in till din bot, arbetsflödet fångar texten och användardetaljer, och sedan genererar Gemini ett svar baserat på din prompt och eventuell extra kontext du ger. Om du vill kan det också hämta stödjande information från Google Docs eller ett externt API innan Gemini skriver det slutliga svaret. Därefter svarar boten direkt till samma Telegram-användare, och arbetsflödet använder batchning plus en kort paus för att undvika att belasta API:er eller skicka tillbaka meddelanden för snabbt.
Arbetsflödet startar med Telegram Trigger, som lyssnar efter inkommande meddelanden till din bot. Därefter bearbetar det meddelanden i kontrollerade batchar, genererar ett svar med Gemini Response Generator (valfritt berikat via Google Docs eller ett HTTP API-anrop) och skickar svaret genom Telegram Reply Sender. En kort Wait-nod skapar tempo så att hög volym inte leder till rate limit-fel.
Vad som ändras: före vs. efter
| Det här tar bort | Effekten du ser |
|---|---|
|
|
Effekt i verkligheten
Säg att din bot får 40 FAQ-liknande meddelanden per dag, och en människa tar kanske 2 minuter för att läsa, svara och dubbelkolla en länk. Det är cirka 80 minuter dagligen, och det är utspritt över dagen så det känns värre än det ser ut. Med det här arbetsflödet hanteras det i princip direkt, plus en kort fördröjning och batchning, så att du bara lägger tid på specialfall (kanske 5 meddelanden per dag). Realistiskt köper du tillbaka ungefär en timme de flesta dagar, utan att anställa någon bara för att kopiera och klistra in.
Krav
- n8n-instans (testa n8n Cloud gratis)
- Alternativ för egen drift om du föredrar det (Hostinger fungerar bra)
- Telegram för att ta emot meddelanden och skicka svar.
- Google Gemini (PaLM/Gemini API) för AI-genererade FAQ-svar.
- API-nycklar (Telegram-bottoken från @BotFather; Gemini-nyckel från Google AI Studio/konsolen; OpenAI-nyckel om du låter OpenAI-noden vara aktiverad).
Svårighetsnivå: Nybörjare. Du kopplar konton, klistrar in API-nycklar och redigerar en prompt, men du behöver inte skriva kod.
Behöver du hjälp att implementera detta? Prata med en automationsexpert (gratis 15-minuters konsultation).
Flödet i arbetsflödet
Ett Telegram-meddelande når din bot. Telegram Trigger lyssnar efter nya meddelanden och fångar texten plus grundläggande användardetaljer, så att arbetsflödet kan svara rätt person.
Meddelanden tempas och grupperas. Split-in-batches plus en kort Wait håller ordning när flera meddelanden kommer in nära varandra. Det minskar också risken för rate limiting hos Telegram eller AI-leverantören.
Kontext hämtas när du vill. Arbetsflödet kan hämta stödjande information från Google Docs (för ett FAQ-blad, policydokument eller kursplan) och kan anropa ett externt API via HTTP Request när ett svar behöver färsk data.
Gemini skriver svaret och Telegram skickar det. Gemini-noden genererar det slutliga svaret baserat på din prompt och eventuell hämtad kontext, och sedan publicerar Telegram-noden det tillbaka i originalchatten.
Du kan enkelt justera prompten och routningslogiken för att hantera olika FAQ-kategorier, språk eller eskaleringsregler utifrån dina behov. Se den fullständiga implementationsguiden nedan för anpassningsalternativ.
Steg-för-steg-guide för implementering
Steg 1: Konfigurera Telegram-triggern
Det här arbetsflödet startar när Telegram-meddelanden kommer in, via trigger-noden.
- Lägg till noden Incoming Telegram Hook på er canvas.
- I Incoming Telegram Hook ställer ni in Updates till
message. - Inloggningsuppgifter krävs: Anslut era Telegram Bot-inloggningsuppgifter.
- Verifiera att Incoming Telegram Hook skickar utdata till Batch Items Loop som visas i exekveringsflödet.
Steg 2: Anslut styrning för Telegram-bearbetning
Arbetsflödet loopar inkommande objekt och stryper svar med hjälp av en batch-loop och en väntnod.
- Lägg till Batch Items Loop och anslut den från Incoming Telegram Hook.
- Lägg till Brief Pause och anslut den från Telegram Reply Sender.
- Ställ in Brief Pause Amount till
1. - Bekräfta exekveringsflödet: Telegram Reply Sender → Brief Pause → Batch Items Loop.
Steg 3: Konfigurera generering av AI-svar
AI-svaret genereras av Gemini-noden, med anslutna AI-verktyg för stödjande kontext.
- Lägg till Gemini Response Generator och anslut den från Batch Items Loop (andra utgången).
- Ställ in Gemini Response Generator Model till
models/gemini-2.5-pro. - Ställ in Messages-innehållet till
Replay test write user-friendly.. - Koppla AI-verktyg till Gemini Response Generator: Fetch Docs File, Gemini Flash Tool och External API Call.
- För Fetch Docs File ställer ni in Operation till
getoch Document URL tillhttps://docs.google.com/document/d/[YOUR_ID]. - För Gemini Flash Tool ställer ni in Model till
models/gemini-2.0-flash-expoch Messages-innehållet tillReplay test write user-friendly.. - För External API Call ställer ni in URL till
https://example.comoch Tool Description tillReplay test write user-friendly..
Steg 4: Konfigurera inloggningsuppgifter för AI-verktyg
Säkerställ att AI-modeller och verktyg är korrekt autentiserade för att anropen ska lyckas.
- Inloggningsuppgifter krävs: Anslut era Google Gemini-inloggningsuppgifter till Gemini Response Generator.
- Inloggningsuppgifter krävs: Anslut era Google Gemini-inloggningsuppgifter till Gemini Flash Tool via Gemini Response Generator.
- Inloggningsuppgifter krävs: Anslut era Google Docs-inloggningsuppgifter till Fetch Docs File via Gemini Response Generator.
- Inloggningsuppgifter krävs: Anslut era HTTP Request-inloggningsuppgifter (om mål-API:et kräver det) till External API Call via Gemini Response Generator.
- OpenAI Prompt Handler har openAiApi-inloggningsuppgifter konfigurerade. Behåll dem eller uppdatera vid behov.
- Mistral Text Extractor har mistralCloudApi-inloggningsuppgifter konfigurerade. Behåll dem eller uppdatera vid behov.
Steg 5: Konfigurera utgående svar till Telegram
Det genererade svaret skickas tillbaka till Telegram-användaren.
- Lägg till Telegram Reply Sender och anslut den från Gemini Response Generator.
- Ställ in Text till
{{ $json.content.parts[0].text }}. - Ställ in Chat ID till
{{ $('Incoming Telegram Hook').item.json.message.from.id }}. - Ställ in Reply Markup till
replyKeyboard. - Inloggningsuppgifter krävs: Anslut era Telegram Bot-inloggningsuppgifter.
Steg 6: Testa och aktivera ert arbetsflöde
Validera flödet end-to-end och aktivera det för skarp drift.
- Klicka på Execute Workflow och skicka ett testmeddelande till er Telegram-bot.
- Bekräfta att Incoming Telegram Hook tar emot meddelandet och att Gemini Response Generator genererar ett svar.
- Verifiera att Telegram Reply Sender publicerar AI-svaret tillbaka till samma Telegram-användare.
- När ni är nöjda, växla arbetsflödet till Active för produktionsbruk.
Se upp för
- Telegram-credentials kan se ”anslutna” ut men ändå fallera om bottoken har återskapats. Om svaren slutar komma, kontrollera först credentials för Telegram-noden i n8n och verifiera sedan token i @BotFather.
- Om du använder Wait-noder eller extern rendering varierar bearbetningstiderna. Öka väntetiden om efterföljande noder fallerar på tomma svar.
- Standardprompter i AI-noder är generiska. Lägg in er tonalitet tidigt, annars kommer du redigera utdata i all oändlighet.
Vanliga frågor
Vanligtvis på cirka 30 minuter om dina API-nycklar är klara.
Ja. Du kommer främst att koppla Telegram och klistra in API-nycklar i n8n-credentials.
Ja. n8n har ett gratis alternativ för egen drift och en gratis provperiod på n8n Cloud. Cloud-planer startar på 20 USD/månad för högre volymer. Du behöver också räkna med användningskostnader för Gemini/OpenAI, som beror på meddelandevolym och modellval.
Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller egen drift på en VPS. För egen drift är Hostinger VPS prisvärd och hanterar n8n bra. Egen drift ger dig obegränsat antal körningar men kräver grundläggande serverhantering.
Börja med att redigera prompten som används i Gemini Response Generator så att den matchar era policyer, er tonalitet och vad ni inte kommer att svara på. Om du vill att boten ska vara förankrad i ert eget innehåll, aktivera noden Fetch Docs File (Google Docs) eller byt till din egen datakälla via noden External API Call. Många team lägger också till en If-/Switch-regel för att upptäcka meddelanden där ”människa behövs” (återbetalningar, arga klagomål, kontoproblem) och routa dem till en manuell inkorg i stället för att låta AI gissa.
Oftast beror det på en ogiltig eller utbytt bottoken. Uppdatera Telegram-credentials i n8n och skicka sedan ett nytt testmeddelande till boten. Bekräfta också att din Telegram Trigger lyssnar på rätt bot och att du inte slår i rate limits när flera meddelanden kommer samtidigt.
Med en liten n8n Cloud-plan kan du hantera typiska volymer för småföretag utan problem, och batchning jämnar ut toppar. Om du kör egen drift finns inget körningstak från n8n i sig, så kapaciteten beror mest på din server och AI-API:ernas rate limits. I praktiken kör team ofta hundratals meddelanden per dag genom ett sådant här flöde utan krångel, så länge de behåller Wait-tempo och undviker stora dokumentuppslag per meddelande.
Ofta ja, särskilt när du vill ha förgreningslogik, batchning och mer kontroll över hur kontext hämtas och slås samman. n8n ger dig också möjlighet till egen drift, vilket kan betyda mycket när meddelandevolymen växer. Zapier och Make kan vara enklare för väldigt små upplägg, men de blir klumpiga när du vill ha beteende som ”om detta, gör det – annars eskalera”. En annan faktor är kostnad: chattbotar kan trigga många körningar och exekveringsbaserad prissättning drar snabbt iväg. Om du är osäker, prata med en automationsexpert och beskriv din volym och dina datakällor.
Sätt upp det en gång, och låt sedan din bot hantera återkommande frågor medan du fokuserar på samtalen som faktiskt behöver en människa.
Kontakta oss
Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.