Behöver ert företag hjälp med att implementera AI? Kontakta oss och få prisoffert här →
AI Skolan
januari 22, 2026

Telegram + Google Docs: snabba supportsvar direkt

Rickard Andersson Partner, Nodenordic.se

Din supportchatt fylls snabbt upp. Svaren finns någon annanstans. Och du slutar med att skriva om samma “officiella” svar igen – och sedan tveka om det fortfarande stämmer.

Supportansvariga känner av det här mest, helt ärligt. En produktspecialist dras också in i samma frågor. Och om du driver en byrå som hanterar kundsupport är Telegram-supportautomation skillnaden mellan “hanterbart” och “vi behöver anställa en till”.

Det här arbetsflödet gör Google Docs till en Telegram-klar kunskapsassistent med OpenAI, och förbättrar sedan svaren över tid baserat på enkel godkännandefeedback. Du får lära dig vad det gör, vad du behöver och hur du får igång det i n8n.

Så fungerar den här automationen

Här är det kompletta arbetsflödet du kommer att sätta upp:

n8n Workflow Template: Telegram + Google Docs: snabba supportsvar direkt

Varför det här spelar roll: långsamma, inkonsekventa supportsvar

De flesta team har inget “supportproblem”. De har ett kunskapsproblem. Rätt svar finns, men det är fast i Google Docs, gamla ärenden, i en produktchefs huvud eller i en halvt uppdaterad intern wiki. Så varje Telegram-fråga blir en liten skattjakt. En person svarar utifrån minnet, en annan klistrar in ett utdaterat stycke, och kunden ser motsägelser. Den verkliga kostnaden är inte bara tid. Det är eskaleringar, tappat förtroende och den där konstanta mentala belastningen av “snälla, säg inte fel”.

Det växer snabbt. Här är var det brukar brista i den dagliga supporten.

  • Att hitta rätt stycke i Google Docs kan ta 5–10 minuter per fråga när dokumentet är långt eller rörigt.
  • Små skillnader i formulering blir till policyskillnader, vilket betyder mer fram och tillbaka och fler “jag måste kolla med teamet”.
  • Nyanställda lutar sig mot seniora kollegor eftersom de “riktiga svaren” inte går att söka fram i stunden.
  • Du får återkommande frågor eftersom kunder inte får samma tydliga, kompletta svar varje gång.

Vad du bygger: en Telegram-bot som svarar utifrån Google Docs

Det här arbetsflödet ger dig två sammankopplade automationer: en som importerar din officiella dokumentation från Google Docs och en som svarar på Telegram-meddelanden med dokumenten som “single source of truth”. Först kör du ett manuellt inläsningsflöde som hämtar ett Google-dokument, delar upp det i läsbara chunkar och skapar embeddings (tänk: sökbara betydelse-fingeravtryck) med OpenAI. Chunkarna sparas i en MongoDB Atlas-vector search-kollektion så att assistenten kan hämta de mest relevanta styckena senare. När någon sedan ställer en fråga i Telegram letar boten upp relaterade dokumentchunkar, genererar ett förankrat svar med OpenAI och skickar ett strukturerat svar. Till sist ber den om enkel feedback, sparar den i MongoDB och använder den för att förbättra framtida svar.

Arbetsflödet startar antingen med en manuell körning “indexera detta dokument” eller en Telegram-trigger. I mitten hämtar MongoDB vector search de bäst matchande avsnitten och AI-agenten skriver svaret med din dokumentation plus tidigare feedback. Resultatet blir ett Telegram-svar som är konsekvent, snabbare och enklare att granska.

Vad du bygger

Förväntade resultat

Säg att ditt team hanterar cirka 30 Telegram-frågor per dag. Om varje svar tar runt 7 minuter att hitta, verifiera och klistra in från Google Docs blir det ungefär 3–4 timmar supporttid som bränns varje dag. Med det här arbetsflödet kommer frågan in i Telegram, hämtning + generering blir oftast klar på under en minut, och din handläggare kliver bara in när det blir fel eller är känsligt. Även om ni fortfarande granskar knepiga svar får de flesta team tillbaka cirka 2–3 timmar per dag.

Innan du börjar

  • n8n-instans (testa n8n Cloud gratis)
  • Alternativ för egen drift om du föredrar det (Hostinger fungerar bra)
  • Telegram för boten och som ingång till supportchatten.
  • Google Docs för att lagra och underhålla officiell dokumentation.
  • MongoDB Atlas för vector search, feedback och chatthistorik.
  • OpenAI API-nyckel (hämta den i din OpenAI API-dashboard)

Kunskapsnivå: Medel. Du kopplar mest ihop konton, skapar MongoDB-kollektioner/index och justerar prompts, men du bör vara bekväm med att följa installationssteg noggrant.

Vill du att någon bygger detta åt dig? Prata med en automationsexpert (gratis 15-minuters konsultation).

Steg för steg

Dokument indexeras när du kör inläsningsflödet. En manuell trigger hämtar ditt innehåll från Google Docs, och sedan delar arbetsflödet upp det i chunkar så att sökningen fungerar tillförlitligt i stället för att returnera slumpmässiga textväggar.

Dessa chunkar blir semantiska sökposter. OpenAI-embeddings omvandlar varje chunk till en vektor, och MongoDB Atlas lagrar dem i en kollektion som är konfigurerad för vector similarity search (ditt “data_index” måste matcha det arbetsflödet förväntar sig).

Telegram-meddelanden startar svarsflödet. När någon skriver till din bot slår AI-agenten upp relevanta dokumentchunkar i MongoDB och skriver ett svar med OpenAI-chatmodellen (GPT-4o-mini i mallen), så att svaren fortsätter vara i linje med dina källdokument.

Feedback blir en träningssignal. Boten skickar svaret och ber om godkännande eller underkännande. Utfallet mappas, sparas i MongoDB (tillsammans med embeddings) och används senare för att hämta “bra” och “dåliga” exempel som påverkar framtida svar.

Du kan enkelt modifiera Google Docs-källan för att indexera flera dokument, eller byta Telegram mot en annan chattkanal senare. Se den fullständiga implementeringsguiden nedan för anpassningsalternativ.

Steg-för-steg-guide för implementering

Steg 1: konfigurera triggern för manuell körning

Använd den manuella triggern för att starta inläsning av dokumentation till er kunskapsbas.

  1. Lägg till noden Manual Execution Start som din trigger.
  2. Anslut Manual Execution Start till Google Docs Fetcher för att starta flödet för dokumentinläsning.

Kör den här triggern när ni behöver indexera om eller uppdatera dokumentations-embeddings.

Steg 2: anslut Google Docs

Hämta dokumentationsinnehåll och konvertera det till vektor-embeddings för hämtning.

  1. Öppna Google Docs Fetcher och ställ in Operationget.
  2. Ställ in Document URL[YOUR_DOC_URL].
  3. Inloggningsuppgifter krävs: anslut era googleDocsOAuth2Api-inloggningsuppgifter i Google Docs Fetcher.
  4. I Markdown Text Splitter ställer ni in Chunk Size3000, Chunk Overlap200, och aktiverar markdown-splittning.
  5. I Section Data Loader ställer ni in JSON Data{{ $json.content }} och mappar metadata doc_id till {{ $json.documentId }}.
  6. Doc Embedding Builder är ansluten som embedding-modell för Insert Documentation Vectorsinloggningsuppgifter krävs: anslut era openAiApi-inloggningsuppgifter i Doc Embedding Builder.
  7. I Insert Documentation Vectors ställer ni in Modeinsert och Vector Index Namedata_index.
  8. Inloggningsuppgifter krävs: anslut era mongoDb-inloggningsuppgifter i Insert Documentation Vectors.

⚠️ Vanlig fallgrop: ersätt [YOUR_DOC_URL] med en giltig Google Docs-URL, annars kommer inläsningsflödet att returnera tomt innehåll.

Steg 3: konfigurera Telegram-triggern

Aktivera chatintag i realtid från Telegram-användare.

  1. Lägg till Telegram Message Trigger och lämna Updates inställt på message.
  2. Inloggningsuppgifter krävs: anslut era telegramApi-inloggningsuppgifter i Telegram Message Trigger.
  3. Verifiera att triggern är ansluten till Knowledge Assistant Core i huvudflödet.

Steg 4: sätt upp Knowledge Assistant Core

Konfigurera AI-agenten, dess språkmodell och konversationsminne.

  1. I Knowledge Assistant Core ställer ni in Text{{ $json.message.text }} och behåller Prompt Type som define.
  2. OpenAI Chat Engine är ansluten som språkmodell för Knowledge Assistant Coreinloggningsuppgifter krävs: anslut era openAiApi-inloggningsuppgifter i OpenAI Chat Engine och välj modellen gpt-4o-mini.
  3. MongoDB Conversation Memory är kopplat som minne för Knowledge Assistant Core—ställ in Session Key{{ $('Telegram Message Trigger').item.json.message.chat.id }} och Collection Namen8n-template-chat-history.
  4. Inloggningsuppgifter krävs: anslut era mongoDb-inloggningsuppgifter i MongoDB Conversation Memory.

Steg 5: konfigurera verktyg för hämtning av dokumentation och feedback

Koppla vektorbaserade hämtningsverktyg för att berika AI-svaren med produktdokumentation och historisk feedback.

  1. I Lookup Product Docs ställer ni in Moderetrieve-as-tool, Tool NameproductDocs och Vector Index Namedata_index.
  2. I Find Positive Examples ställer ni in Moderetrieve-as-tool, Tool NamefeedbackPositive och Vector Index Nametemplate-feedback-search (med metadata feedback satt till positive).
  3. I Find Negative Examples ställer ni in Moderetrieve-as-tool, Tool NamefeedbackNegative och Vector Index Nametemplate-feedback-search (med metadata feedback satt till negative).
  4. Inloggningsuppgifter krävs: anslut era mongoDb-inloggningsuppgifter i Lookup Product Docs, Find Positive Examples och Find Negative Examples.
  5. OpenAI Vector Encoder, Positive Feedback Encoder och Negative Feedback Encoder tillhandahåller embeddings för dessa verktyg—inloggningsuppgifter krävs: anslut era openAiApi-inloggningsuppgifter i varje encoder-nod.

Steg 6: konfigurera Telegram-svar & godkännande samt insamling av feedback

Skicka svar till Telegram, samla in godkännanden och lagra feedback-vektorer för framtida förbättringar.

  1. I Telegram Reply & Approval ställer ni in Chat ID{{ $('Telegram Message Trigger').item.json.message.chat.id }}, Message{{ $json.output }} och OperationsendAndWait med godkänningstyp double.
  2. Inloggningsuppgifter krävs: anslut era telegramApi-inloggningsuppgifter i Telegram Reply & Approval.
  3. I Map Approval Outcome behåller ni den medföljande JavaScript-koden för att mappa godkännande till positive eller negative.
  4. I Prepare Feedback Fields aktiverar ni Keep Only Set och ställer in fält: prompt till {{ $('Telegram Message Trigger').item.json.message.text }}, response till {{ $('Knowledge Assistant Core').item.json.output }}, text till Prompt: {{ $('Telegram Message Trigger').item.json.message.text }}. Completion: {{ $('Knowledge Assistant Core').item.json.output }}, och feedback till {{ $json.feedback }}.
  5. I Feedback Text Splitter ställer ni in Chunk Size4000, och skickar sedan vidare till Feedback Data Loader med JSON Data inställt på {{ $json.text }}.
  6. Feedback Embedding Builder är kopplad till Store Feedback Vectorsinloggningsuppgifter krävs: anslut era openAiApi-inloggningsuppgifter i Feedback Embedding Builder.
  7. I Store Feedback Vectors ställer ni in Modeinsert, Vector Index Nametemplate-feedback-search och Embedding Batch Size1.
  8. Inloggningsuppgifter krävs: anslut era mongoDb-inloggningsuppgifter i Store Feedback Vectors.
  9. Se till att Prepare Feedback Fields endast behåller de inställda fälten för att undvika att lagra onödig data i ert feedback-index.

    Steg 7: testa och aktivera ert workflow

    Validera både flödet för inläsning av dokumentation och flödet för live-support via Telegram.

    1. Kör Manual Execution Start för att läsa in innehåll från Google Docs och bekräfta att Insert Documentation Vectors slutförs utan fel.
    2. Skicka ett testmeddelande till er Telegram-bot för att trigga Telegram Message Trigger och verifiera att Knowledge Assistant Core producerar ett svar.
    3. Godkänn eller avvisa svaret i Telegram och bekräfta att Map Approval Outcome och Prepare Feedback Fields skickar data till Store Feedback Vectors.
    4. Kontrollera MongoDB-kollektionerna n8n-template och n8n-template-feedback för nya vektorer.
    5. Aktivera workflowet så att Telegram Message Trigger kör kontinuerligt i produktion.
🔒

Lås upp fullständig steg-för-steg-guide

Få den kompletta implementeringsguiden + nedladdningsbar mall

Tips för felsökning

  • Telegram-inloggningen kan fallera om webhook-URL:en är fel eller om bot-token har återskapats. Kontrollera först inställningarna i din Telegram Trigger-nod och din botkonfiguration i Telegram.
  • Om du använder Wait-noder eller extern bearbetning varierar svarstiderna. Öka väntetiden om nedströmsnoder fallerar på tomma svar.
  • MongoDB Atlas vector search är petig med indexnamn och fält. Om hämtningen inte returnerar något, bekräfta att kollektionens sökindex matchar arbetsflödets konfigurerade indexnamn (som data_index) och att embedding-dimensionerna är korrekta.
  • Standardprompterna i AI-noder är generiska. Lägg in er tonalitet tidigt, annars kommer du redigera output för alltid.

Snabba svar

Hur lång tid tar det att sätta upp den här Telegram-supportautomationen?

Räkna med cirka 60–90 minuter om MongoDB Atlas är nytt för dig.

Krävs det kodning för den här automationen av supportsvar?

Nej. Du kopplar ihop Telegram, Google, OpenAI och MongoDB och justerar sedan några prompts och inställningar. Det inkluderade kodsteget finns redan; vanligtvis justerar du bara fältnamn om du anpassar vilken data du sparar.

Är n8n gratis att använda för det här arbetsflödet för Telegram-supportautomation?

Ja. n8n har ett gratis alternativ för egen drift och en gratis provperiod på n8n Cloud. Cloud-planer börjar på $20/månad för högre volym. Du behöver också räkna med OpenAI API-användning (ofta några cent per dag vid låg supportvolym) och kostnader för MongoDB Atlas beroende på ditt kluster.

Var kan jag hosta n8n för att köra den här automationen?

Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller egen drift på en VPS. För egen drift är Hostinger VPS prisvärt och hanterar n8n bra. Egen drift ger dig obegränsade körningar men kräver grundläggande serverhantering.

Kan jag anpassa det här arbetsflödet för Telegram-supportautomation för andra användningsfall?

Ja, och det bör du förmodligen. Du kan indexera mer än ett dokument genom att bygga ut Google Docs Fetcher-delen i inläsningsflödet, och du kan byta hämtningskällor genom att justera noderna för MongoDB vector store (som “Lookup Product Docs”). Vanliga anpassningar är att lägga till “svara bara om säkerheten är hög”, routa vissa nyckelord till en människa och spara källhänvisningar tillbaka till din chatthistorik-kollektion så att svaren blir enklare att granska i efterhand.

Varför misslyckas min Telegram-anslutning i det här arbetsflödet?

Oftast är det ett webhook- eller tokenproblem. Bekräfta att bot-token i n8n matchar den du skapade i @botFather, och kontrollera sedan Telegram Trigger-webhook-URL:en och att n8n går att nå från internet. Om den ansluter men inte triggar beror det ofta på att en annan tjänst redan är registrerad mot botens webhook. Rensa den gamla webhooken och försök igen.

Vilken volym kan det här arbetsflödet för Telegram-supportautomation hantera?

De flesta små team kan köra det utan problem för daglig supportvolym, och skalning handlar främst om din n8n-plan och storleken på ditt MongoDB-kluster.

Är den här Telegram-supportautomationen bättre än att använda Zapier eller Make?

För RAG-baserade supportbotar: oftast ja. n8n hanterar flersteglogik, förgreningar och databearbetning utan att du behöver kämpa med verktyget, och det är mycket mer realistiskt att köra egen drift när antalet körningar växer. Du får också tajtare kontroll över loopen “hämta dokument → generera svar → spara minne → fånga feedback”, vilket är hela poängen med det här arbetsflödet. Zapier eller Make kan fungera för enkla flöden som “skicka ett standardiserat svar”, men det här ligger närmare ett internt system än en tvåstegsintegration. Om du vill ha hjälp att välja, prata med en automationsexpert.

När detta väl är igång slutar dina Google Docs att vara “dokumentation” och blir i stället omedelbara svar direkt i Telegram. Arbetsflödet tar hand om det repetitiva, och ditt team kan fokusera på undantagsfallen som faktiskt kräver människor.

Kontakta oss

Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.

×

Använd mall

Få direkt tillgång till denna n8n-arbetsflödes JSON-fil

Launch login modal Launch register modal