Behöver ert företag hjälp med att implementera AI? Kontakta oss och få prisoffert här →
AI Skolan
januari 22, 2026

Infranodus + Telegram: smartare GraphRAG-svar

Rickard Andersson Partner, Nodenordic.se

Din chatbot ”svarar”, men du slutar ändå med att skriva om svaren. Än värre: ibland låter den självsäker trots att den har fel, vilket skapar en tyst sorts kaos: fler ärenden, obekväma uppföljningar och en varumärkesröst som varierar beroende på dag.

Den här GraphRAG-svarsautomationen träffar supportansvariga först, eftersom det är de som städar upp svaren. Men marknadschefer som håller ihop budskapskonsistens och driftsansvariga som försöker minska återkommande frågor känner också av det.

Det här flödet skickar varje Telegram-fråga via InfraNodus för resonemangsbaserad promptförstärkning och hämtar sedan ett mer högkvalitativt svar med GraphRAG. Du får se hur det fungerar, vad du behöver och vilken tids- och kvalitetsvinst du kan förvänta dig.

Så fungerar den här automationen

Hela n8n-flödet, från trigger till slutligt resultat:

n8n Workflow Template: Infranodus + Telegram: smartare GraphRAG-svar

Problemet: chatbotsvar som inte håller

Om du har testat en enkel ”chatta med mina dokument”-bot känner du igen mönstret. De första svaren ser toppen ut, sedan dyker kantfallen upp: blandad terminologi, saknad kontext och svar som känns som en gissning inlindad i artig formulering. Du kan lappa det med längre prompar, men det blir rörigt snabbt. Och varje gång du ändrar en process är du tillbaka och justerar instruktioner, i hopp om att boten ska ”fatta” igen. Det är ärligt talat dränerande, eftersom du gör tänkandet som systemet var tänkt att hantera.

Friktionen byggs på. Här är var det faller isär.

  • Bra svar kräver långa prompar, och de är svåra att hålla konsekventa mellan teammedlemmar.
  • När boten saknar en resonemangsstruktur kan den hitta rätt textstycken och ändå koppla ihop dem på fel sätt.
  • Hallucinationer ser inte alltid ut som hallucinationer, vilket gör att du upptäcker fel först efter att de redan har skickats.
  • Support och marknad slutar med att ”fixa boten” manuellt, och det är tid du aldrig får tillbaka.

Lösningen: resonemang först med GraphRAG-svar i Telegram

Det här n8n-flödet tar ett Telegram-meddelande från en användare och förbättrar det innan AI:n ens försöker svara. Först skickar flödet frågan till InfraNodus, där din valda kunskapsgraf ger en ”resonemangsontologi” (en strukturerad karta över begrepp och relationer som du vill att boten ska följa). InfraNodus omformulerar den ursprungliga frågan så att den blir mer specifik, mer i linje med din logik och mindre benägen att sväva iväg. Sedan frågar flödet InfraNodus igen (antingen samma graf eller en annan) för att hämta ett GraphRAG-informerat svar. Till sist svarar boten i chatten med ett svar som är förankrat i din grafkontext, inte bara i generiska språkmodellinstinkter.

Flödet startar med en chattmeddelande-trigger i n8n. InfraNodus förstärker prompten med din ontologigraf, och därefter genererar GraphRAG-hämtning svaret baserat på överlappande begrepp och kopplade relationer. Resultatet landar tillbaka i konversationen som ett strukturerat, skickklart svar.

Det du får: automation vs. resultat

Exempel: så här ser det ut

Säg att teamet får cirka 30 Telegram-frågor per dag som kräver noggrann formulering. Utan automation är ett typiskt flöde: kopiera frågan, klistra in i ett AI-verktyg, skriva om prompten, fråga igen och sedan redigera det slutliga svaret (kanske 5 minuter per fråga). Det blir ungefär 2–3 timmar per dag. Med det här flödet ställer du frågan en gång i Telegram och det förstärkta GraphRAG-svaret kommer tillbaka automatiskt efter bearbetningstid. För de flesta team blir ”konstant omskrivning” till snabb granskning och skicka.

Det här behöver du

  • n8n-instans (testa n8n Cloud gratis)
  • Alternativ för egen drift om du föredrar det (Hostinger fungerar bra)
  • Telegram för att ta emot och skicka chattmeddelanden.
  • InfraNodus för promptförstärkning med kunskapsgraf och GraphRAG-hämtning.
  • InfraNodus API-nyckel (hämtas i inställningarna för ditt InfraNodus-konto).

Svårighetsgrad: Nybörjare. Du kopplar konton, klistrar in en API-nyckel och anger dina grafnamn.

Vill du inte sätta upp det själv? Prata med en automationsexpert (gratis 15-minuters konsultation).

Så fungerar det

Ett Telegram-meddelande startar allt. Flödet lyssnar efter ett nytt chattmeddelande (via n8n:s chatttrigger) och fångar användarens fråga så fort den kommer in.

Prompten blir ”smartare” innan svar genereras. n8n skickar den råa frågan till InfraNodus, som använder din valda kunskapsgraf för att lägga till resonemangslogik och göra prompten mer beskrivande och i linje med ert interna sätt att tänka.

GraphRAG-hämtning genererar själva svaret. Den förbättrade prompten skickas tillbaka till InfraNodus för en GraphRAG-liknande fråga, där den överlappar promptgrafen med din kunskapsgraf, traverserar relevanta relationer och hämtar tillbaka bästa kontexten för ett svar.

Svaret skickas tillbaka till konversationen. Det slutliga svaret skickas tillbaka till Telegram så att användaren får ett tydligt svar utan att teamet behöver hoppa mellan flikar.

Du kan enkelt ändra vilken graf som används för förstärkning och sedan fråga en annan graf för hämtning utifrån dina behov. Se hela implementationsguiden nedan för anpassningsalternativ.

Steg-för-steg-guide för implementering

Steg 1: konfigurera chattriggern

Konfigurera den inkommande chattriggern som startar arbetsflödet varje gång ett offentligt chattmeddelande tas emot.

  1. Lägg till noden Chat Message Trigger på arbetsflödets canvas.
  2. Ställ in Publictrue för att tillåta extern åtkomst.
  3. Behåll standardinställningen för Options om ni inte behöver begränsa åtkomst senare.

Steg 2: anslut Infranodus API-åtkomst

Båda HTTP-förfrågningarna använder samma bearer-autentisering för att anropa Infranodus API.

  1. Öppna Enhance Prompt Logic och välj autentiseringstypen Generic Credential Type.
  2. Credential Required: anslut era httpBearerAuth-uppgifter.
  3. Upprepa samma val av credentials för Query Knowledge Source.

Steg 3: konfigurera Enhance Prompt Logic

Den här noden omformulerar den inkommande chattprompten med hjälp av extern kunskapsgraf-logik.

  1. Koppla Chat Message Trigger till Enhance Prompt Logic.
  2. Ställ in URL till https://infranodus.com/api/v1/graphAndAdvice?doNotSave=true&addStats=true&optimize=develop&includeStatements=true&includeGraphSummary=true&includeGraph=false.
  3. Ställ in Method till POST och aktivera Send Body.
  4. Under Body Parameters, lägg till name = eightos_system, requestMode = reprompt och aiTopics = true.
  5. Ställ in prompt till {{ $json.chatInput }} och systemPrompt till Your task is to reformulate the original query of a user using the context provided.

Steg 4: konfigurera Query Knowledge Source

Den här noden använder de förbättrade råden för att generera det slutliga svaret baserat på kunskapsgrafens kontext.

  1. Koppla Enhance Prompt Logic till Query Knowledge Source (sekventiellt flöde).
  2. Ställ in URL till https://infranodus.com/api/v1/graphAndAdvice?doNotSave=true&addStats=true&optimize=develop&includeStatements=true&includeGraphSummary=true&includeGraph=false.
  3. Ställ in Method till POST och aktivera Send Body.
  4. Under Body Parameters, lägg till name = eightos_system, requestMode = response och aiTopics = true.
  5. Ställ in prompt till {{ $json.aiAdvice[0].text }}.
  6. Ställ in systemPrompt till Use the context you are provided as a logic to use when providing a response to the user query, not as the content you should be providing. IT IS IMPERATIVE THAT YOU DO NOT EXTRACT THE CONTENT FROM THE CONTEXT PROVIDED FOR YOUR ANSWER BUT USE IT AS A REASONING LOGIC TO PROVIDE YOUR ANSWER..

Steg 5: testa och aktivera ert arbetsflöde

Verifiera hela flödet från chatt till svar innan ni aktiverar det för produktionsanvändning.

  1. Klicka på Execute Workflow och skicka ett exempelmeddelande till Chat Message Trigger.
  2. Bekräfta att Enhance Prompt Logic returnerar en omformulerad prompt i sin response payload.
  3. Verifiera att Query Knowledge Source skickar ut ett svar baserat på {{ $json.aiAdvice[0].text }}.
  4. När resultaten ser korrekta ut, växla arbetsflödet till Active för att aktivera produktionsanvändning.
🔒

Lås upp fullständig steg-för-steg-guide

Få den kompletta implementeringsguiden + nedladdningsbar mall

Vanliga fallgropar

  • InfraNodus-uppgifter kan gå ut eller kräva specifika behörigheter. Om det uppstår fel, kontrollera först status för din API-nyckel i inställningarna för ditt InfraNodus-konto.
  • Om du använder Wait-noder eller extern rendering varierar bearbetningstiderna. Öka väntetiden om efterföljande noder misslyckas på grund av tomma svar.
  • Standardprompar i AI-noder är generiska. Lägg in er varumärkeston tidigt, annars kommer du att redigera utdata i all evighet.

Vanliga frågor

Hur lång tid tar det att sätta upp den här GraphRAG-svarsautomationen?

Cirka 30 minuter om din InfraNodus-graf är redo.

Behöver jag kunna koda för att automatisera GraphRAG-svarsautomation?

Nej. Du klistrar mestadels in en API-nyckel och väljer dina grafnamn. Kan du följa en checklista klarar du det.

Är n8n gratis att använda för det här GraphRAG-svarsautomationsflödet?

Ja. n8n har ett gratis alternativ för egen drift och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna in kostnader för InfraNodus och OpenAI API-användning.

Var kan jag hosta n8n för att köra den här automationen?

Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller egen drift på en VPS. För egen drift är Hostinger VPS prisvärd och hanterar n8n bra. Egen drift ger obegränsat antal körningar men kräver grundläggande serverhantering.

Kan jag anpassa det här GraphRAG-svarsautomationsflödet för att använda två olika grafer (en för resonemang, en för hämtning)?

Ja, och det är en av de bästa anledningarna att använda det. Ha din ”resonemangsontologi” i en InfraNodus-graf (den du använder i HTTP-förfrågan Enhance Prompt Logic), och peka sedan HTTP-förfrågan Query Knowledge Source mot en annan graf för hämtning. Vanliga anpassningar är att köra en ”policy och ton”-ontologi ovanpå en produktdokumentationsgraf, byta in en domängraf för tvärdisciplinär research och skapa separata grafer per kund eller affärsenhet. När du har gjort det en gång går det snabbt att duplicera.

Varför misslyckas min InfraNodus-anslutning i det här flödet?

Oftast beror det på en utgången eller felaktig API-nyckel i någon av InfraNodus HTTP Request-noderna. Uppdatera nyckeln i både förfrågan för promptförstärkning och förfrågan för hämtning, och bekräfta sedan att grafnamnet matchar exakt det som finns i ditt InfraNodus-konto. Om det fortfarande misslyckas, kontrollera behörighetsbegränsningar på nyckeln eller tillfällig rate limiting när du skickar många frågor samtidigt.

Hur många chattmeddelanden kan den här GraphRAG-svarsautomationen hantera?

Väldigt många, så länge dina API-gränser och din hosting hänger med. På n8n Cloud Starter begränsas du av månatliga körningar; vid egen drift finns inget tak för körningar, men serverresurserna och InfraNodus/OpenAI-genomströmningen blir den verkliga flaskhalsen.

Är den här GraphRAG-svarsautomationen bättre än att använda Zapier eller Make?

Ofta, ja, eftersom det här inte är en enkel tvåstegszap. n8n hanterar mer komplex logik, förgreningar och mönster som ”anropa ett API, transformera data, anropa ett annat API” utan att bli en skör röra. Egen drift ändrar också kalkylen om du kör det här ofta. Zapier eller Make kan fortfarande fungera för en lätt prototyp, men de flesta team växer ur dem när GraphRAG och flöden med flera API-anrop är med i bilden. Prata med en automationsexpert om du vill ha hjälp att välja.

När det här är igång slutar din Telegram-bot att ”chansa” och börjar svara utifrån en struktur du kontrollerar. Sätt upp det, finjustera graferna och njut av lugnet.

Kontakta oss

Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.

×

Använd mall

Få direkt tillgång till denna n8n-arbetsflödes JSON-fil

Launch login modal Launch register modal