Din chatbot ”svarar”, men du slutar ändå med att skriva om svaren. Än värre: ibland låter den självsäker trots att den har fel, vilket skapar en tyst sorts kaos: fler ärenden, obekväma uppföljningar och en varumärkesröst som varierar beroende på dag.
Den här GraphRAG-svarsautomationen träffar supportansvariga först, eftersom det är de som städar upp svaren. Men marknadschefer som håller ihop budskapskonsistens och driftsansvariga som försöker minska återkommande frågor känner också av det.
Det här flödet skickar varje Telegram-fråga via InfraNodus för resonemangsbaserad promptförstärkning och hämtar sedan ett mer högkvalitativt svar med GraphRAG. Du får se hur det fungerar, vad du behöver och vilken tids- och kvalitetsvinst du kan förvänta dig.
Så fungerar den här automationen
Hela n8n-flödet, från trigger till slutligt resultat:
n8n Workflow Template: Infranodus + Telegram: smartare GraphRAG-svar
flowchart LR
subgraph sg0["When chat message received Flow"]
direction LR
n0@{ icon: "mdi:play-circle", form: "rounded", label: "When chat message received", pos: "b", h: 48 }
n1["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/httprequest.dark.svg' width='40' height='40' /></div><br/>Prompt Augmented with Reason.."]
n2["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/httprequest.dark.svg' width='40' height='40' /></div><br/>Ask the Knowledge Base"]
n0 --> n1
n1 --> n2
end
%% Styling
classDef trigger fill:#e8f5e9,stroke:#388e3c,stroke-width:2px
classDef ai fill:#e3f2fd,stroke:#1976d2,stroke-width:2px
classDef aiModel fill:#e8eaf6,stroke:#3f51b5,stroke-width:2px
classDef decision fill:#fff8e1,stroke:#f9a825,stroke-width:2px
classDef database fill:#fce4ec,stroke:#c2185b,stroke-width:2px
classDef api fill:#fff3e0,stroke:#e65100,stroke-width:2px
classDef code fill:#f3e5f5,stroke:#7b1fa2,stroke-width:2px
classDef disabled stroke-dasharray: 5 5,opacity: 0.5
class n0 trigger
class n1,n2 api
classDef customIcon fill:none,stroke:none
class n1,n2 customIcon
Problemet: chatbotsvar som inte håller
Om du har testat en enkel ”chatta med mina dokument”-bot känner du igen mönstret. De första svaren ser toppen ut, sedan dyker kantfallen upp: blandad terminologi, saknad kontext och svar som känns som en gissning inlindad i artig formulering. Du kan lappa det med längre prompar, men det blir rörigt snabbt. Och varje gång du ändrar en process är du tillbaka och justerar instruktioner, i hopp om att boten ska ”fatta” igen. Det är ärligt talat dränerande, eftersom du gör tänkandet som systemet var tänkt att hantera.
Friktionen byggs på. Här är var det faller isär.
- Bra svar kräver långa prompar, och de är svåra att hålla konsekventa mellan teammedlemmar.
- När boten saknar en resonemangsstruktur kan den hitta rätt textstycken och ändå koppla ihop dem på fel sätt.
- Hallucinationer ser inte alltid ut som hallucinationer, vilket gör att du upptäcker fel först efter att de redan har skickats.
- Support och marknad slutar med att ”fixa boten” manuellt, och det är tid du aldrig får tillbaka.
Lösningen: resonemang först med GraphRAG-svar i Telegram
Det här n8n-flödet tar ett Telegram-meddelande från en användare och förbättrar det innan AI:n ens försöker svara. Först skickar flödet frågan till InfraNodus, där din valda kunskapsgraf ger en ”resonemangsontologi” (en strukturerad karta över begrepp och relationer som du vill att boten ska följa). InfraNodus omformulerar den ursprungliga frågan så att den blir mer specifik, mer i linje med din logik och mindre benägen att sväva iväg. Sedan frågar flödet InfraNodus igen (antingen samma graf eller en annan) för att hämta ett GraphRAG-informerat svar. Till sist svarar boten i chatten med ett svar som är förankrat i din grafkontext, inte bara i generiska språkmodellinstinkter.
Flödet startar med en chattmeddelande-trigger i n8n. InfraNodus förstärker prompten med din ontologigraf, och därefter genererar GraphRAG-hämtning svaret baserat på överlappande begrepp och kopplade relationer. Resultatet landar tillbaka i konversationen som ett strukturerat, skickklart svar.
Det du får: automation vs. resultat
| Det här flödet automatiserar | Resultat du får |
|---|---|
|
|
Exempel: så här ser det ut
Säg att teamet får cirka 30 Telegram-frågor per dag som kräver noggrann formulering. Utan automation är ett typiskt flöde: kopiera frågan, klistra in i ett AI-verktyg, skriva om prompten, fråga igen och sedan redigera det slutliga svaret (kanske 5 minuter per fråga). Det blir ungefär 2–3 timmar per dag. Med det här flödet ställer du frågan en gång i Telegram och det förstärkta GraphRAG-svaret kommer tillbaka automatiskt efter bearbetningstid. För de flesta team blir ”konstant omskrivning” till snabb granskning och skicka.
Det här behöver du
- n8n-instans (testa n8n Cloud gratis)
- Alternativ för egen drift om du föredrar det (Hostinger fungerar bra)
- Telegram för att ta emot och skicka chattmeddelanden.
- InfraNodus för promptförstärkning med kunskapsgraf och GraphRAG-hämtning.
- InfraNodus API-nyckel (hämtas i inställningarna för ditt InfraNodus-konto).
Svårighetsgrad: Nybörjare. Du kopplar konton, klistrar in en API-nyckel och anger dina grafnamn.
Vill du inte sätta upp det själv? Prata med en automationsexpert (gratis 15-minuters konsultation).
Så fungerar det
Ett Telegram-meddelande startar allt. Flödet lyssnar efter ett nytt chattmeddelande (via n8n:s chatttrigger) och fångar användarens fråga så fort den kommer in.
Prompten blir ”smartare” innan svar genereras. n8n skickar den råa frågan till InfraNodus, som använder din valda kunskapsgraf för att lägga till resonemangslogik och göra prompten mer beskrivande och i linje med ert interna sätt att tänka.
GraphRAG-hämtning genererar själva svaret. Den förbättrade prompten skickas tillbaka till InfraNodus för en GraphRAG-liknande fråga, där den överlappar promptgrafen med din kunskapsgraf, traverserar relevanta relationer och hämtar tillbaka bästa kontexten för ett svar.
Svaret skickas tillbaka till konversationen. Det slutliga svaret skickas tillbaka till Telegram så att användaren får ett tydligt svar utan att teamet behöver hoppa mellan flikar.
Du kan enkelt ändra vilken graf som används för förstärkning och sedan fråga en annan graf för hämtning utifrån dina behov. Se hela implementationsguiden nedan för anpassningsalternativ.
Steg-för-steg-guide för implementering
Steg 1: konfigurera chattriggern
Konfigurera den inkommande chattriggern som startar arbetsflödet varje gång ett offentligt chattmeddelande tas emot.
- Lägg till noden Chat Message Trigger på arbetsflödets canvas.
- Ställ in Public på
trueför att tillåta extern åtkomst. - Behåll standardinställningen för Options om ni inte behöver begränsa åtkomst senare.
Steg 2: anslut Infranodus API-åtkomst
Båda HTTP-förfrågningarna använder samma bearer-autentisering för att anropa Infranodus API.
- Öppna Enhance Prompt Logic och välj autentiseringstypen Generic Credential Type.
- Credential Required: anslut era httpBearerAuth-uppgifter.
- Upprepa samma val av credentials för Query Knowledge Source.
Steg 3: konfigurera Enhance Prompt Logic
Den här noden omformulerar den inkommande chattprompten med hjälp av extern kunskapsgraf-logik.
- Koppla Chat Message Trigger till Enhance Prompt Logic.
- Ställ in URL till
https://infranodus.com/api/v1/graphAndAdvice?doNotSave=true&addStats=true&optimize=develop&includeStatements=true&includeGraphSummary=true&includeGraph=false. - Ställ in Method till
POSToch aktivera Send Body. - Under Body Parameters, lägg till name =
eightos_system, requestMode =repromptoch aiTopics =true. - Ställ in prompt till
{{ $json.chatInput }}och systemPrompt tillYour task is to reformulate the original query of a user using the context provided.
Steg 4: konfigurera Query Knowledge Source
Den här noden använder de förbättrade råden för att generera det slutliga svaret baserat på kunskapsgrafens kontext.
- Koppla Enhance Prompt Logic till Query Knowledge Source (sekventiellt flöde).
- Ställ in URL till
https://infranodus.com/api/v1/graphAndAdvice?doNotSave=true&addStats=true&optimize=develop&includeStatements=true&includeGraphSummary=true&includeGraph=false. - Ställ in Method till
POSToch aktivera Send Body. - Under Body Parameters, lägg till name =
eightos_system, requestMode =responseoch aiTopics =true. - Ställ in prompt till
{{ $json.aiAdvice[0].text }}. - Ställ in systemPrompt till
Use the context you are provided as a logic to use when providing a response to the user query, not as the content you should be providing. IT IS IMPERATIVE THAT YOU DO NOT EXTRACT THE CONTENT FROM THE CONTEXT PROVIDED FOR YOUR ANSWER BUT USE IT AS A REASONING LOGIC TO PROVIDE YOUR ANSWER..
Steg 5: testa och aktivera ert arbetsflöde
Verifiera hela flödet från chatt till svar innan ni aktiverar det för produktionsanvändning.
- Klicka på Execute Workflow och skicka ett exempelmeddelande till Chat Message Trigger.
- Bekräfta att Enhance Prompt Logic returnerar en omformulerad prompt i sin response payload.
- Verifiera att Query Knowledge Source skickar ut ett svar baserat på
{{ $json.aiAdvice[0].text }}. - När resultaten ser korrekta ut, växla arbetsflödet till Active för att aktivera produktionsanvändning.
Vanliga fallgropar
- InfraNodus-uppgifter kan gå ut eller kräva specifika behörigheter. Om det uppstår fel, kontrollera först status för din API-nyckel i inställningarna för ditt InfraNodus-konto.
- Om du använder Wait-noder eller extern rendering varierar bearbetningstiderna. Öka väntetiden om efterföljande noder misslyckas på grund av tomma svar.
- Standardprompar i AI-noder är generiska. Lägg in er varumärkeston tidigt, annars kommer du att redigera utdata i all evighet.
Vanliga frågor
Cirka 30 minuter om din InfraNodus-graf är redo.
Nej. Du klistrar mestadels in en API-nyckel och väljer dina grafnamn. Kan du följa en checklista klarar du det.
Ja. n8n har ett gratis alternativ för egen drift och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna in kostnader för InfraNodus och OpenAI API-användning.
Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller egen drift på en VPS. För egen drift är Hostinger VPS prisvärd och hanterar n8n bra. Egen drift ger obegränsat antal körningar men kräver grundläggande serverhantering.
Ja, och det är en av de bästa anledningarna att använda det. Ha din ”resonemangsontologi” i en InfraNodus-graf (den du använder i HTTP-förfrågan Enhance Prompt Logic), och peka sedan HTTP-förfrågan Query Knowledge Source mot en annan graf för hämtning. Vanliga anpassningar är att köra en ”policy och ton”-ontologi ovanpå en produktdokumentationsgraf, byta in en domängraf för tvärdisciplinär research och skapa separata grafer per kund eller affärsenhet. När du har gjort det en gång går det snabbt att duplicera.
Oftast beror det på en utgången eller felaktig API-nyckel i någon av InfraNodus HTTP Request-noderna. Uppdatera nyckeln i både förfrågan för promptförstärkning och förfrågan för hämtning, och bekräfta sedan att grafnamnet matchar exakt det som finns i ditt InfraNodus-konto. Om det fortfarande misslyckas, kontrollera behörighetsbegränsningar på nyckeln eller tillfällig rate limiting när du skickar många frågor samtidigt.
Väldigt många, så länge dina API-gränser och din hosting hänger med. På n8n Cloud Starter begränsas du av månatliga körningar; vid egen drift finns inget tak för körningar, men serverresurserna och InfraNodus/OpenAI-genomströmningen blir den verkliga flaskhalsen.
Ofta, ja, eftersom det här inte är en enkel tvåstegszap. n8n hanterar mer komplex logik, förgreningar och mönster som ”anropa ett API, transformera data, anropa ett annat API” utan att bli en skör röra. Egen drift ändrar också kalkylen om du kör det här ofta. Zapier eller Make kan fortfarande fungera för en lätt prototyp, men de flesta team växer ur dem när GraphRAG och flöden med flera API-anrop är med i bilden. Prata med en automationsexpert om du vill ha hjälp att välja.
När det här är igång slutar din Telegram-bot att ”chansa” och börjar svara utifrån en struktur du kontrollerar. Sätt upp det, finjustera graferna och njut av lugnet.
Kontakta oss
Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.