Ditt team fortsätter ställa samma frågor eftersom svaret är ”någonstans i Confluence”, vilket oftast betyder fem flikar, två döda länkar och en massa scrollande.
Ops-chefer känner av det vid överlämningar. Marknadschefer märker det när nya personer börjar. Och grundare, ärligt talat, tröttnar på att vara företagets mänskliga sökfält. Den här automatiseringen för Confluence Telegram answers gör Telegram till ett snabbt och tillförlitligt sätt att hämta wiki-sanningen utan fram och tillbaka.
Du sätter upp ett chattflöde i n8n som hämtar en Confluence-sida, konverterar den till AI-vänlig text och svarar i Telegram med ett tydligt svar (plus kontext) på några sekunder.
Så här fungerar automatiseringen
Här är det kompletta flödet du kommer att sätta upp:
n8n Workflow Template: Confluence + Telegram för snabba wikisvar
flowchart LR
subgraph sg0["When chat message received Flow"]
direction LR
n0["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/httprequest.dark.svg' width='40' height='40' /></div><br/>Confluence Page Storage View"]
n1["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/markdown.dark.svg' width='40' height='40' /></div><br/>HTML to Markdown"]
n2@{ icon: "mdi:brain", form: "rounded", label: "gpt-4o-mini", pos: "b", h: 48 }
n3@{ icon: "mdi:play-circle", form: "rounded", label: "When chat message received", pos: "b", h: 48 }
n4@{ icon: "mdi:memory", form: "rounded", label: "Window Buffer Memory", pos: "b", h: 48 }
n5@{ icon: "mdi:swap-vertical", form: "rounded", label: "Chat Response", pos: "b", h: 48 }
n6@{ icon: "mdi:swap-vertical", form: "rounded", label: "Globals", pos: "b", h: 48 }
n7["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/httprequest.dark.svg' width='40' height='40' /></div><br/>Search By ID"]
n8@{ icon: "mdi:swap-vertical", form: "rounded", label: "Page Schema", pos: "b", h: 48 }
n9@{ icon: "mdi:robot", form: "rounded", label: "AI Agent", pos: "b", h: 48 }
n10["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/telegram.svg' width='40' height='40' /></div><br/>Send Telegram Message"]
n11@{ icon: "mdi:swap-vertical", form: "rounded", label: "Split Out", pos: "b", h: 48 }
n6 --> n7
n9 --> n5
n9 --> n10
n11 --> n8
n8 --> n0
n2 -.-> n9
n7 --> n11
n1 --> n9
n4 -.-> n9
n3 --> n6
n0 --> n1
end
%% Styling
classDef trigger fill:#e8f5e9,stroke:#388e3c,stroke-width:2px
classDef ai fill:#e3f2fd,stroke:#1976d2,stroke-width:2px
classDef aiModel fill:#e8eaf6,stroke:#3f51b5,stroke-width:2px
classDef decision fill:#fff8e1,stroke:#f9a825,stroke-width:2px
classDef database fill:#fce4ec,stroke:#c2185b,stroke-width:2px
classDef api fill:#fff3e0,stroke:#e65100,stroke-width:2px
classDef code fill:#f3e5f5,stroke:#7b1fa2,stroke-width:2px
classDef disabled stroke-dasharray: 5 5,opacity: 0.5
class n3 trigger
class n9 ai
class n2 aiModel
class n4 ai
class n0,n7 api
classDef customIcon fill:none,stroke:none
class n0,n1,n7,n10 customIcon
Varför det här spelar roll: att svara på ”enkla” frågor äter upp din dag
De flesta interna frågor är inte svåra. De är bara gömda. Någon behöver onboarding-checklistan, senaste positioneringen, en prisregel eller stycket om ”hur vi hanterar återbetalningar”. Så de frågar i chatten. Sedan gissar någon, någon länkar en gammal sida och någon annan öppnar Confluence för att bekräfta. Den där lilla loopen kostar ungefär 10 minuter varje gång, och den händer hela dagen. Än värre: svaren glider när folk återger dokument ur minnet, vilket skapar ny förvirring nästa gång frågan dyker upp.
Det blir snabbt mycket. Så här brukar det fallera i riktiga team.
- Folk avbryter samma ämnesexpert eftersom ”de vet”, även när wikin redan har svaret.
- Confluence-sökningen är okej, men du tvingas ändå öppna sidor och leta efter det enda stycket du behöver.
- Svar skrivs om i Telegram, vilket gör att detaljer försvinner och nästa person frågar igen i morgon.
- Under lanseringar eller incidenter har ingen tålamod att gräva i dokumentation medan beslut väntar.
Vad du bygger: Telegram Q&A som läser Confluence åt dig
Det här flödet förvandlar ett Telegram-meddelande till ett kontextmedvetet svar hämtat direkt från Confluence. En användare skickar en fråga i chatten och n8n startar en konversationssession som kommer ihåg de senaste meddelandena så att följdfrågor blir begripliga. Därefter använder flödet Confluence REST API för att slå upp en sida via ID (så du inte är beroende av luddig sökning), och hämtar sedan hela sidans innehåll i formatet ”storage”. Den HTML:en konverteras till Markdown, vilket är mycket enklare för en AI-modell att läsa utan att distraheras av layoutbrus. Till sist kombinerar en AI-agent din fråga med sidans innehåll och returnerar ett korrekt formaterat svar tillbaka till Telegram. Enkelt i stunden. Kraftfullt över tid.
Flödet börjar med en chatt-trigger från Telegram. Därifrån hämtar det rätt Confluence-sida, omvandlar innehållet till ett användbart format och låter en AI-agent svara med sidan som källa. Sista steget skickar tillbaka svaret till Telegram så att teamet kan fortsätta framåt.
Vad du bygger
| Vad som automatiseras | Vad du uppnår |
|---|---|
|
|
Förväntade resultat
Säg att ditt team ställer 15 ”var finns / vad är” frågor per dag i Telegram. Manuell hantering tar ofta cirka 10 minuter: öppna Confluence, hitta rätt sida, skanna och sedan svara, vilket blir ungefär 2,5 timmar utspridd uppmärksamhet per dag. Med det här flödet tar själva frågan kanske 10 sekunder, och att få ett svar är normalt under en minut beroende på modellens hastighet. Det är ungefär 2 timmar tillbaka per dag, och du slutar dessutom träna folk att förlita sig på den som låter mest i chatten.
Innan du börjar
- n8n-instans (testa n8n Cloud gratis)
- Alternativ för egen hosting om du föredrar det (Hostinger fungerar bra)
- Telegram för att ta emot frågor och skicka svar.
- Confluence (Atlassian) som källa för wiki-sidan.
- OpenAI API-nyckel (hämta den från din OpenAI-dashboard).
Svårighetsgrad: Medel. Du kopierar API-uppgifter, anger ett sid-ID och testar ett par chattfrågor.
Vill du att någon bygger detta åt dig? Prata med en automationsexpert (gratis 15-minuters konsultation).
Steg för steg
Ett Telegram-chattmeddelande triggar körningen. Flödet startar med en chatt-trigger, så i samma ögonblick som någon ställer en fråga får du en exekvering med meddelandets innehåll och chattens kontext.
Flödet låser vilken Confluence-sida som ska användas. Ett steg för att ”sätta fält” definierar sididentifierare (vanligtvis ett Confluence sid-ID) så att du alltid frågar rätt källa, inte gissar utifrån nyckelord.
Confluence-innehållet hämtas och rensas. n8n anropar Confluence REST API för att hämta sidans detaljer och hämtar sedan sidans innehåll i storage-HTML. Den HTML:en konverteras till Markdown så att AI-agenten kan läsa den som vanlig, strukturerad text.
En AI-agent svarar och postar tillbaka till Telegram. En kompakt OpenAI-chattmodell driver en Q&A-agent med kontext, stödd av ett kort ”minnesfönster” så att följdfrågor fortfarande blir begripliga. Svaret formateras och skickas sedan till Telegram som ett tydligt, chattklart svar.
Du kan enkelt justera logiken för val av sida för att stödja flera sidor, spaces eller ett ”sidväljare”-kommando utifrån dina behov. Se hela implementationsguiden nedan för anpassningsalternativ.
Steg-för-steg-guide för implementation
Steg 1: Konfigurera den manuella chattriggern
Det här arbetsflödet startar när ett chattmeddelande tas emot av den manuella chattriggern.
- Lägg till och öppna Chat Intake Trigger som er triggernod.
- Behåll standardinställningarna och koppla sedan Chat Intake Trigger till Set Page Identifiers.
Steg 2: Anslut uppslagning och hämtning av Confluence-sida
Konfigurera val av Confluence-ID, sökning, uppdelning av resultat och hämtning av sidor via HTTP-förfrågningar.
- I Set Page Identifiers lägger ni till sid-ID:n som strängtilldelningar: page_id_tekla =
688157, page_id_n8n =491546, page_id_more_n8n =983041, page_id_tekla_clash_checking =753691. - Öppna Lookup Page By ID och ställ in URL till
=https://example.atlassian.net/wiki/rest/api/search?limit=1&cql=id={{ $json.page_id_n8n }}. - Inloggningsuppgifter krävs: Anslut era httpHeaderAuth-uppgifter i Lookup Page By ID.
- I Separate Results ställer ni in Field To Split Out till
resultsför att bearbeta objekten i söksvaret. - I Map Page Fields mappar ni varje fält till uttryck som
={{ $json.content._links.webui }},={{ $json.title }}och={{ $json.content.id }}. - Öppna Fetch Page Storage och ställ in URL till
=https://example.atlassian.net/wiki/api/v2/pages/{{ $json.id }}med Query Parameterbody-format=storage. - Inloggningsuppgifter krävs: Anslut era httpHeaderAuth-uppgifter i Fetch Page Storage.
Steg 3: Sätt upp innehållstransformation
Konvertera Confluence HTML-lagringsinnehåll till markdown för agentens kontext.
- I Convert HTML to MD ställer ni in HTML till
={{ $json.body.storage.value }}. - Säkerställ att exekveringskedjan följer Map Page Fields → Fetch Page Storage → Convert HTML to MD.
Steg 4: Sätt upp AI-agenten
Konfigurera språkmodellen, sessionsminnet och prompten för den konverserande agenten.
- Öppna Compact GPT Model och anslut den som språkmodell till Context Q&A Agent.
- Inloggningsuppgifter krävs: Anslut era openAiApi-uppgifter i Compact GPT Model.
- I Session Window Memory ställer ni in Session Key till
={{ $('Chat Intake Trigger').item.json.sessionId }}och Session ID Type tillcustomKey. - I Context Q&A Agent ställer ni in Text till
=Answer questions from user with the context provided. Only respond using the context. If you do not know the answer simply respond with "I don't know."följt avUser question: {{ $('Chat Intake Trigger').item.json.chatInput }}ochContext: {{ $json.data }}. - Säkerställ att Session Window Memory är ansluten som minnesverktyg till Context Q&A Agent. Lägg till eventuella nödvändiga inloggningsuppgifter på den överordnade Context Q&A Agent, inte på undernoden.
Steg 5: Konfigurera åtgärder för utdata
När agenten har svarat formateras svaren och skickas till Telegram. Context Q&A Agent skickar utdata parallellt till både Prepare Chat Output och Telegram Message Dispatch.
- I Prepare Chat Output lägger ni till en tilldelning för output med värdet
={{ $json.output }}. - Öppna Telegram Message Dispatch och ställ in Text till
={{ $json.output }}. - Ställ in Chat ID till
={{ $env.TELEGRAM_CHAT_ID }}. - Inloggningsuppgifter krävs: Anslut era telegramApi-uppgifter i Telegram Message Dispatch.
TELEGRAM_CHAT_ID är definierad i er n8n-instans, annars kommer Telegram Message Dispatch att misslyckas.Steg 6: Testa och aktivera ert arbetsflöde
Validera chattflödet end-to-end och aktivera sedan arbetsflödet för användning i produktion.
- Klicka på Execute Workflow och ange en testinmatning i Chat Intake Trigger.
- Bekräfta att Lookup Page By ID returnerar ett resultat, att Convert HTML to MD matar ut markdown och att Context Q&A Agent genererar ett svar.
- Verifiera att Prepare Chat Output innehåller det slutliga svaret och att Telegram Message Dispatch publicerar det i er Telegram-chatt.
- När allt fungerar växlar ni arbetsflödet till Active för att möjliggöra användning i produktion.
Felsökningstips
- Confluence-autentisering kan löpa ut eller kräva specifika behörigheter. Om det skapar fel, börja med att kontrollera status för din Atlassian API-token och sidans åtkomstbehörigheter.
- Om du använder Wait-noder eller extern rendering varierar processtiderna. Öka väntetiden om noder längre fram fallerar på tomma svar.
- Standardprompter i AI-noder är generiska. Lägg in er tonalitet tidigt, annars kommer du redigera output för alltid.
Snabba svar
Cirka 30 minuter om du redan har din Confluence-token och Telegram-bot redo.
Nej. Du kommer främst att koppla konton och klistra in det Confluence sid-ID du vill använda.
Ja. n8n har ett gratis alternativ för egen hosting och en gratis provperiod på n8n Cloud. Cloud-planer startar på 20 USD/månad för högre volym. Du behöver också räkna med OpenAI API-kostnader, som vanligtvis är några cent per dag vid lätt intern användning.
Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller egen hosting på en VPS. För egen hosting är Hostinger VPS prisvärd och hanterar n8n bra. Egen hosting ger dig obegränsade körningar men kräver grundläggande serveradministration.
Ja, och det bör du. Du kan ersätta steget ”Set Page Identifiers” med ett enkelt kommandoformat (som ”/page 12345”) eller en uppslagstabell, och sedan behålla samma anrop för ”Lookup Page By ID” och ”Fetch Page Storage”. Vanliga anpassningar är att routa frågor till olika Confluence-sidor baserat på ett nyckelord, svara från flera sidor samtidigt och lägga till en rad för ”ange källor” som länkar tillbaka till den sidsektion som svaret kom från.
Oftast handlar det om en utgången eller felaktig Atlassian API-token. Uppdatera token i n8n och bekräfta sedan att Confluence-användaren har behörighet att se det sid-ID du begär. Om det fungerar i din webbläsare men inte i n8n, kontrollera bas-URL:en och formatet på auth-headern i HTTP Request-noderna. Rate limiting är ovanligt vid intern användning, men kan dyka upp om du testar i en tight loop.
På n8n Cloud beror det på din plans månadsvisa exekveringar, och varje fråga räknas normalt som en körning.
Ofta, ja. Den här typen av flöde tjänar på hantering i flera steg: hämta sidmetadata, hämta full storage-HTML, konvertera till Markdown, köra en agent med minne, och sedan formatera och skicka ett chatsvar. n8n trivs helt enkelt bättre med den komplexiteten, och du kan hosta själv om du vill ha obegränsade körningar. Zapier eller Make kan fortfarande fungera för en enklare variant som ”hämta och sammanfatta”, men när du vill ha följdfrågor och snyggare output blir det snabbt rörigt. Vill du ha hjälp att välja, prata med en automationsexpert.
När detta väl är igång blir din wiki något folk faktiskt använder, direkt från Telegram. Sätt upp det en gång, och låt sedan flödet hantera återkommande frågor.
Kontakta oss
Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.