Din supportinkorg fylls hela tiden med samma frågor. Priser, återbetalningar, ”hur återställer jag mitt lösenord?”, ”integrerar det här med X?”, ”var är fakturan?” Det är inte svårt arbete, men det tar aldrig slut – och svaren börjar variera beroende på vem som råkar svara den dagen.
Supportansvariga märker det först. Marknadschefer dras in för att skriva om hjälpdokument. Och grundare slutar med att svara på ärenden på kvällarna. Den här OpenAI Pinecone-chatbotautomationen gör ditt webbplatsinnehåll till en sökbar ”hjärna” så att kunder får korrekta svar utan att behöva vänta på en människa.
Du får se exakt hur workflowet hämtar innehåll från din webbplats, rensar upp det, lagrar det i Pinecone och driver en chattagent som även kan kontrollera faktureringsdetaljer från Airtable vid behov.
Så fungerar den här automationen
Här är hela workflowet som du kommer att sätta upp:
n8n Workflow Template: OpenAI + Pinecone: webbplatsen svarar kunder åt dig
flowchart LR
subgraph sg0["Chat Message Flow"]
direction LR
n9@{ icon: "mdi:play-circle", form: "rounded", label: "Chat Message Trigger", pos: "b", h: 48 }
n10@{ icon: "mdi:robot", form: "rounded", label: "Conversational Agent", pos: "b", h: 48 }
n11@{ icon: "mdi:brain", form: "rounded", label: "OpenAI Chat Engine", pos: "b", h: 48 }
n12@{ icon: "mdi:memory", form: "rounded", label: "Conversation Memory", pos: "b", h: 48 }
n13@{ icon: "mdi:wrench", form: "rounded", label: "Knowledge Retrieval Tool", pos: "b", h: 48 }
n14@{ icon: "mdi:cube-outline", form: "rounded", label: "Pinecone Q&A Store", pos: "b", h: 48 }
n15@{ icon: "mdi:vector-polygon", form: "rounded", label: "OpenAI Embedding Model", pos: "b", h: 48 }
n16@{ icon: "mdi:wrench", form: "rounded", label: "Billing Query Tool", pos: "b", h: 48 }
n17@{ icon: "mdi:database", form: "rounded", label: "Airtable Billing Lookup", pos: "b", h: 48 }
n18@{ icon: "mdi:brain", form: "rounded", label: "OpenRouter Chat Engine", pos: "b", h: 48 }
n16 -.-> n10
n12 -.-> n10
n13 -.-> n10
n17 -.-> n16
n15 -.-> n14
n11 -.-> n10
n11 -.-> n13
n14 -.-> n13
n18 -.-> n16
n9 --> n10
end
subgraph sg1["Manual Run Flow"]
direction LR
n0@{ icon: "mdi:play-circle", form: "rounded", label: "Manual Run Trigger", pos: "b", h: 48 }
n1["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/httprequest.dark.svg' width='40' height='40' /></div><br/>External API Call"]
n2@{ icon: "mdi:swap-vertical", form: "rounded", label: "Extract Page Body", pos: "b", h: 48 }
n3["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/markdown.dark.svg' width='40' height='40' /></div><br/>HTML to Markdown"]
n4["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/code.svg' width='40' height='40' /></div><br/>Normalize Content"]
n5@{ icon: "mdi:cube-outline", form: "rounded", label: "Pinecone Insert", pos: "b", h: 48 }
n6@{ icon: "mdi:robot", form: "rounded", label: "Character Chunker", pos: "b", h: 48 }
n7@{ icon: "mdi:robot", form: "rounded", label: "Base Document Loader", pos: "b", h: 48 }
n8@{ icon: "mdi:vector-polygon", form: "rounded", label: "Create Embeddings", pos: "b", h: 48 }
n3 --> n4
n1 --> n2
n4 --> n5
n2 --> n3
n7 -.-> n5
n8 -.-> n5
n6 -.-> n7
n0 --> n1
end
%% Styling
classDef trigger fill:#e8f5e9,stroke:#388e3c,stroke-width:2px
classDef ai fill:#e3f2fd,stroke:#1976d2,stroke-width:2px
classDef aiModel fill:#e8eaf6,stroke:#3f51b5,stroke-width:2px
classDef decision fill:#fff8e1,stroke:#f9a825,stroke-width:2px
classDef database fill:#fce4ec,stroke:#c2185b,stroke-width:2px
classDef api fill:#fff3e0,stroke:#e65100,stroke-width:2px
classDef code fill:#f3e5f5,stroke:#7b1fa2,stroke-width:2px
classDef disabled stroke-dasharray: 5 5,opacity: 0.5
class n9,n0 trigger
class n10,n6,n7 ai
class n11,n18 aiModel
class n13,n16 ai
class n12 ai
class n14,n5 ai
class n15,n8 ai
class n17 database
class n1 api
class n4 code
classDef customIcon fill:none,stroke:none
class n1,n3,n4 customIcon
Varför det här spelar roll: repetitiva supportfrågor dränerar teamet
Det mesta supporttrycket handlar inte om ”komplex problemlösning”. Det är återkommande frågor som borde vara självhjälp. Problemet är att din webbplats inte är sökbar på det sätt som kunder behöver, och även när du har hjälpdokument så läser många dem inte. Då fortsätter ärendena att komma in, teamet fortsätter att skriva samma förklaringar om och om igen, och misstag smyger sig in när någon svarar ur minnet i stället för utifrån den aktuella policyn. Dessutom är det mentalt utmattande att växla kontext från riktigt arbete till att skriva samma svar igen.
Det blir snabbt mycket. Så här fallerar det i den dagliga driften.
- Agenter lägger flera minuter per ärende på att leta upp det ”officiella” svaret, eftersom sanningskällan är utspridd över sidor och dokument.
- Svaren blir inkonsekventa, vilket gör att kunder ifrågasätter oftare och att eskaleringar smyger sig uppåt.
- Uppdateringar på webbplatsen blir inte automatiskt till supportmakron, så innehållet och svaren glider långsamt isär.
- Frågor om fakturering och abonnemang blockerar kön trots att informationen redan finns i era system.
Det du bygger: en webbplats-tränad supportagent med Pinecone-sökning
Det här workflowet gör din webbplats till strukturerad kunskap som din AI faktiskt kan använda. Det börjar med att hämta en sida (eller flera) från din webbplats via HTTP, sedan extraherar det det relevanta innehållet och konverterar rörig HTML till mer strukturerad Markdown. Den Markdownen normaliseras för att ta bort brus, delas upp i läsbara chunkar och omvandlas till embeddings med OpenAI. Dessa chunkar och embeddings lagras i Pinecone, separerade via namespace så att dina projekt inte blandas ihop. När en kund ställer en fråga (via chatt-triggern) hämtar en AI-agent de bäst matchande chunkarna från Pinecone och skriver ett faktabaserat svar med din tonalitet. Om frågan gäller fakturering kan agenten också fråga Airtable för att hämta rätt policy eller kontospecifik detalj.
Workflowet startar med en manuell körning för indexering (perfekt vid första uppsättningen), och en trigger för chattmeddelanden för live-frågor och svar. Däremellan rensar det innehåll, skapar embeddings och lagrar allt i Pinecone. Till sist svarar den konversationella agenten med kontext, plus kort minne så att flerstegschattar känns naturliga.
Det du bygger
| Det som automatiseras | Det du uppnår |
|---|---|
|
|
Förväntade resultat
Säg att din webbplats genererar ungefär 30 återkommande supportfrågor per dag. Ett manuellt svar tar ofta runt 6 minuter när du väl har hittat rätt dokument, skrivit om det och dubbelkollat detaljer. Det blir cirka 3 timmar per dag. Med det här workflowet får kunder svar direkt när chatt-triggern för meddelanden aktiveras, och du lägger främst tid på undantag (kanske 15 minuter per dag för att granska udda fall). För de flesta team betyder det ungefär 2 timmar tillbaka per dag, utan att anställa.
Innan du börjar
- n8n-instans (testa n8n Cloud gratis)
- Alternativ för egen hosting om du föredrar det (Hostinger fungerar bra)
- OpenAI för embeddings och chatsvar.
- Pinecone för att lagra och söka i dina kunskapsvektorer.
- Airtable API-nyckel (hämta den i inställningarna för ditt Airtable-konto).
Svårighetsnivå: Medel. Du kopplar API:er, justerar prompts och testar med riktiga frågor.
Vill du att någon bygger detta åt dig? Prata med en automationsexpert (kostnadsfri 15-minuters konsultation).
Steg för steg
Indexeringen startar med en manuell körning (eller din egen trigger). Du startar workflowet för att hämta en mål-URL med HTTP Request, vilket är perfekt när du bygger första versionen av din kunskapsbas.
Ditt sidinnehåll rensas till något som AI kan använda. n8n extraherar HTML-body, konverterar den till Markdown och kör sedan ett normaliseringssteg som tar bort navigationsskräp, cookie-banners och annat brus som försämrar sökningen.
Kunskapen delas upp och skapas som embeddings. En teckenbaserad textdelare bryter Markdownen i chunkar (cirka 500 tecken med lite överlapp), OpenAI genererar embeddings för varje chunk och Pinecone lagrar dem under en namespace som du styr.
Kundfrågor triggar svarsagenten. Triggern för chattmeddelanden skickar användarens fråga till en AI-agent, som hämtar relevanta chunkar från Pinecone och även kan fråga Airtable om fakturerings- och abonnemangsdetaljer när frågan kräver det.
Du kan enkelt ändra innehållskällan (en URL vs. många sidor) efter dina behov. Se hela implementeringsguiden nedan för anpassningsalternativ.
Steg-för-steg-guide för implementering
Steg 1: Konfigurera den manuella triggern
Konfigurera den manuella ingångspunkten som startar flödet för innehållsinläsning.
- Lägg till noden Manual Run Trigger på er canvas.
- Koppla Manual Run Trigger till External API Call för att matcha körflödet.
Steg 2: Anslut den externa innehållskällan
Hämta den råa HTML:en som ska konverteras till en kunskapsbas för hämtning.
- I External API Call, ställ in URL till
https://content.eirevo.ie/billing-change-faqs. - Koppla External API Call till Extract Page Body.
- I Extract Page Body, behåll Include inställt på
selectedoch aktivera Include Other Fields. - Ställ in fältvärdet för data till
{{ $json?.data.match(/]*>([\\s\\S]*?)<\\/body>/i)[1] }} för att extrahera HTML-body.⚠️ Vanlig fallgrop: Om källsidan inte innehåller en-tagg kommer regex-uttrycket i Extract Page Body att misslyckas. Validera sidans HTML innan ni kör workflowet.Steg 3: Konvertera och normalisera innehåll
Transformera HTML till ren text och ta bort formateringsbrus innan indexering.
- Koppla Extract Page Body till HTML to Markdown.
- I HTML to Markdown, ställ in HTML till
{{ $json.data }}. - Koppla HTML to Markdown till Normalize Content.
- I Normalize Content, behåll Mode som
runOnceForEachItemoch klistra in den tillhandahållna JavaScript-koden som tar bort sidmarkörer och normaliserar whitespace.
Steg 4: Förbered dokumentchunkning och embeddings
Dela upp innehållet i chunks och generera embeddings för att lagra i Pinecone.
- Konfigurera Character Chunker med Chunk Size
500, Chunk Overlap50och Separator######. - I Base Document Loader, ställ in Text Splitting Mode till
customoch koppla den till Character Chunker via AI-text-splitter-porten. - I Create Embeddings, säkerställ att embedding-alternativen inkluderar
dimensions: 1536. - Credential Required: Anslut era openAiApi-credentials i Create Embeddings.
AI-subnoder som Create Embeddings ska ha credentials konfigurerade direkt i den noden innan de kan användas av Pinecone Insert.Steg 5: Lagra innehåll i Pinecone
Infoga det normaliserade, embeddade innehållet i ett vektorlager för hämtning.
- Koppla Normalize Content till Pinecone Insert.
- I Pinecone Insert, ställ in Mode till
insert. - Ställ in Pinecone Index till
eirevooch Pinecone Namespace tilleirevo. - Credential Required: Anslut era pineconeApi-credentials i Pinecone Insert.
- Säkerställ att Base Document Loader är kopplad till Pinecone Insert via AI-dokumentporten, och att Create Embeddings är kopplad via AI-embedding-porten.
Steg 6: Konfigurera Chat RAG-agenten
Konfigurera ingångspunkten för konversationen, språkmodeller, minne och kunskapshämtning.
- Lägg till noden Chat Message Trigger och ställ in Public till
truemed Initial Messages inställt påHi how I can help you.. - Koppla Chat Message Trigger till Conversational Agent.
- I Conversational Agent, behåll det tillhandahållna System Message som beskriver användning av kunskap och faktureringsverktyg.
- Koppla OpenAI Chat Engine till Conversational Agent som AI-språkmodell, och även till Knowledge Retrieval Tool.
- Credential Required: Anslut era openAiApi-credentials i OpenAI Chat Engine.
- Koppla Conversation Memory till Conversational Agent som AI-minne och ställ in Context Window Length till
10.
För AI-verktyg som Conversation Memory och Knowledge Retrieval Tool, konfigurera credentials på deras överordnade språkmodellnoder (t.ex. OpenAI Chat Engine), inte på själva verktygsnoderna.Steg 7: Aktivera verktyg för kunskapshämtning och fakturauppslag
Koppla vektorlager för hämtning och lägg till Airtable-faktureringsverktyget i agenten.
- Konfigurera Pinecone Q&A Store med Pinecone Index
eirevooch Pinecone Namespaceeirevo. - Credential Required: Anslut era pineconeApi-credentials i Pinecone Q&A Store.
- Koppla OpenAI Embedding Model till Pinecone Q&A Store via AI-embedding-porten och ställ in dimensioner till
1536. - Credential Required: Anslut era openAiApi-credentials i OpenAI Embedding Model.
- Koppla Pinecone Q&A Store till Knowledge Retrieval Tool som AI-vektorlager, och länka sedan Knowledge Retrieval Tool till Conversational Agent som ett AI-verktyg.
- I Billing Query Tool, behåll Tool Description som
Call this tool for billing and payment related queryoch Text som{{ /*n8n-auto-generated-fromAI-override*/ $fromAI('Prompt__User_Message_', ``, 'string') }}. - Koppla OpenRouter Chat Engine till Billing Query Tool som AI-språkmodell och ställ in Model till
openai/o4-mini. - Credential Required: Anslut era openRouterApi-credentials i OpenRouter Chat Engine.
- I Airtable Billing Lookup, ställ in Operation till
search, Return All tillfalseoch Filter By Formula till{{ /*n8n-auto-generated-fromAI-override*/ $fromAI('Filter_By_Formula', ``, 'string') }}. - Credential Required: Anslut era airtableTokenApi-credentials i Airtable Billing Lookup.
- Koppla Airtable Billing Lookup till Billing Query Tool som ett AI-verktyg, och säkerställ att Billing Query Tool är kopplad till Conversational Agent.
⚠️ Vanlig fallgrop: AI-verktygsnoder som Billing Query Tool innehåller inte credentials själva—säkerställ att den överordnade språkmodellen OpenRouter Chat Engine är autentiserad.Steg 8: Testa och aktivera ert workflow
Verifiera både pipelinen för innehållsinläsning och chattupplevelsen innan ni går live.
- Klicka på Execute Workflow på Manual Run Trigger och bekräfta att Pinecone Insert tar emot normaliserat innehåll utan fel.
- Öppna testchatten för Chat Message Trigger och skicka in en faktureringsrelaterad fråga; bekräfta att agenten svarar med antingen kunskapsbasen eller Airtable-faktureringsverktyget.
- Lyckad körning ska visa att items passerar från External API Call → Extract Page Body → HTML to Markdown → Normalize Content → Pinecone Insert, samt att ett svar returneras från Conversational Agent.
- När testningen är klar, slå om workflowet till Active så att chatttriggern är tillgänglig för produktion.
Tips för felsökning
- Pinecone-inloggning kan löpa ut eller kräva specifika behörigheter. Om det skapar fel, kontrollera först din Pinecone API-nyckel samt inställningarna för index/namespace i Pinecone-konsolen.
- Om du använder Wait-noder eller extern rendering varierar processtiderna. Öka väntetiden om efterföljande noder fallerar på tomma svar.
- Standardprompts i AI-noder är generiska. Lägg in er varumärkeston tidigt, annars kommer du att redigera utdata i all evighet.
Snabba svar
Hur lång tid tar det att sätta upp den här OpenAI Pinecone-chatbotautomationen?Cirka 1–2 timmar om dina konton är redo och du indexerar en mindre webbplats först.
Krävs det kodning för den här OpenAI Pinecone-chatbotautomationen?Nej. Du kopplar konton och redigerar ett par noder, inklusive steget för normalisering av webbplatsinnehåll.
Är n8n gratis att använda för det här workflowet för OpenAI Pinecone-chatbotautomation?Ja. n8n har ett gratis alternativ för egen hosting och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna in OpenAI API-kostnader (ofta några dollar i månaden för små webbplatser, mer om ni chattar mycket) plus Pinecone-kostnader för lagring och frågor.
Var kan jag hosta n8n för att köra den här automationen?Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller egen hosting på en VPS. För egen hosting är Hostinger VPS prisvärd och hanterar n8n bra. Egen hosting ger dig obegränsade körningar men kräver grundläggande serverhantering.
Kan jag anpassa det här workflowet för OpenAI Pinecone-chatbotautomation för andra användningsfall?Ja, och det bör du troligen göra. Du kan byta HTTP Request-källan för att indexera andra sidor och sedan justera koden för ”Normalize Content” och chunkstorleken i Character Text Splitter så att den matchar din formatering. Vanliga anpassningar är separata Pinecone-namespaces per produktlinje, striktare systemprompts för reglerade branscher och att lägga till fler verktyg (som en CRM-uppslagning) utöver Airtable för fakturering.
Varför misslyckas min Pinecone-anslutning i det här workflowet?Oftast är det ett problem med API-nyckeln eller att index/namespace inte finns. Skapa en ny Pinecone-nyckel, bekräfta miljön/regionen och dubbelkolla sedan indexnamnet som används i noderna för Pinecone Insert och i verktygsnoden för hämtning. Om det bara fallerar under belastning kan du även slå i rate limits när många chunkar embedas samtidigt, så batching eller att sakta ner körningar hjälper.
Vilken volym kan det här workflowet för OpenAI Pinecone-chatbotautomation hantera?I n8n Cloud beror volymen på din plans månatliga körningar; vid egen hosting begränsas det mest av din server. I praktiken indexerar de flesta mindre webbplatser fint i en körning, och löpande chatt klarar stabil daglig trafik så länge du inte skapar embeddings för stora batcher hela tiden.
Är den här OpenAI Pinecone-chatbotautomationen bättre än att använda Zapier eller Make?Ofta ja, eftersom RAG behöver förgreningar, retrieval-verktyg, minne och mer kontroll över hur data transformeras. n8n hanterar det utan att bli en skör kedja av små automationer. Du får också möjligheten till egen hosting, vilket spelar roll när chattvolymen växer och du inte vill att prissättning per uppgift ska skena. Zapier eller Make kan fortfarande fungera för enkla flöden som ”kontaktformulär till Slack”, men det här är ett riktigt kunskapssystem. Om du vill ha hjälp att välja, prata med en automationsexpert och mappa det mot din ärendevolym.
När ditt webbplatsinnehåll är indexerat hanterar workflowet de repetitiva frågorna automatiskt, och ditt team kan fokusera på det som är svårt. Ärligt talat är det ett av de snabbaste sätten att få supporten att kännas ”större” utan att lägga till fler personer.
Kontakta oss
Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.