Behöver ert företag hjälp med att implementera AI? Kontakta oss och få prisoffert här →
AI Skolan
januari 22, 2026

OpenAI + Pinecone: webbplatsen svarar kunder åt dig

Rickard Andersson Partner, Nodenordic.se

Din supportinkorg fylls hela tiden med samma frågor. Priser, återbetalningar, ”hur återställer jag mitt lösenord?”, ”integrerar det här med X?”, ”var är fakturan?” Det är inte svårt arbete, men det tar aldrig slut – och svaren börjar variera beroende på vem som råkar svara den dagen.

Supportansvariga märker det först. Marknadschefer dras in för att skriva om hjälpdokument. Och grundare slutar med att svara på ärenden på kvällarna. Den här OpenAI Pinecone-chatbotautomationen gör ditt webbplatsinnehåll till en sökbar ”hjärna” så att kunder får korrekta svar utan att behöva vänta på en människa.

Du får se exakt hur workflowet hämtar innehåll från din webbplats, rensar upp det, lagrar det i Pinecone och driver en chattagent som även kan kontrollera faktureringsdetaljer från Airtable vid behov.

Så fungerar den här automationen

Här är hela workflowet som du kommer att sätta upp:

n8n Workflow Template: OpenAI + Pinecone: webbplatsen svarar kunder åt dig

Varför det här spelar roll: repetitiva supportfrågor dränerar teamet

Det mesta supporttrycket handlar inte om ”komplex problemlösning”. Det är återkommande frågor som borde vara självhjälp. Problemet är att din webbplats inte är sökbar på det sätt som kunder behöver, och även när du har hjälpdokument så läser många dem inte. Då fortsätter ärendena att komma in, teamet fortsätter att skriva samma förklaringar om och om igen, och misstag smyger sig in när någon svarar ur minnet i stället för utifrån den aktuella policyn. Dessutom är det mentalt utmattande att växla kontext från riktigt arbete till att skriva samma svar igen.

Det blir snabbt mycket. Så här fallerar det i den dagliga driften.

  • Agenter lägger flera minuter per ärende på att leta upp det ”officiella” svaret, eftersom sanningskällan är utspridd över sidor och dokument.
  • Svaren blir inkonsekventa, vilket gör att kunder ifrågasätter oftare och att eskaleringar smyger sig uppåt.
  • Uppdateringar på webbplatsen blir inte automatiskt till supportmakron, så innehållet och svaren glider långsamt isär.
  • Frågor om fakturering och abonnemang blockerar kön trots att informationen redan finns i era system.

Det du bygger: en webbplats-tränad supportagent med Pinecone-sökning

Det här workflowet gör din webbplats till strukturerad kunskap som din AI faktiskt kan använda. Det börjar med att hämta en sida (eller flera) från din webbplats via HTTP, sedan extraherar det det relevanta innehållet och konverterar rörig HTML till mer strukturerad Markdown. Den Markdownen normaliseras för att ta bort brus, delas upp i läsbara chunkar och omvandlas till embeddings med OpenAI. Dessa chunkar och embeddings lagras i Pinecone, separerade via namespace så att dina projekt inte blandas ihop. När en kund ställer en fråga (via chatt-triggern) hämtar en AI-agent de bäst matchande chunkarna från Pinecone och skriver ett faktabaserat svar med din tonalitet. Om frågan gäller fakturering kan agenten också fråga Airtable för att hämta rätt policy eller kontospecifik detalj.

Workflowet startar med en manuell körning för indexering (perfekt vid första uppsättningen), och en trigger för chattmeddelanden för live-frågor och svar. Däremellan rensar det innehåll, skapar embeddings och lagrar allt i Pinecone. Till sist svarar den konversationella agenten med kontext, plus kort minne så att flerstegschattar känns naturliga.

Det du bygger

Förväntade resultat

Säg att din webbplats genererar ungefär 30 återkommande supportfrågor per dag. Ett manuellt svar tar ofta runt 6 minuter när du väl har hittat rätt dokument, skrivit om det och dubbelkollat detaljer. Det blir cirka 3 timmar per dag. Med det här workflowet får kunder svar direkt när chatt-triggern för meddelanden aktiveras, och du lägger främst tid på undantag (kanske 15 minuter per dag för att granska udda fall). För de flesta team betyder det ungefär 2 timmar tillbaka per dag, utan att anställa.

Innan du börjar

  • n8n-instans (testa n8n Cloud gratis)
  • Alternativ för egen hosting om du föredrar det (Hostinger fungerar bra)
  • OpenAI för embeddings och chatsvar.
  • Pinecone för att lagra och söka i dina kunskapsvektorer.
  • Airtable API-nyckel (hämta den i inställningarna för ditt Airtable-konto).

Svårighetsnivå: Medel. Du kopplar API:er, justerar prompts och testar med riktiga frågor.

Vill du att någon bygger detta åt dig? Prata med en automationsexpert (kostnadsfri 15-minuters konsultation).

Steg för steg

Indexeringen startar med en manuell körning (eller din egen trigger). Du startar workflowet för att hämta en mål-URL med HTTP Request, vilket är perfekt när du bygger första versionen av din kunskapsbas.

Ditt sidinnehåll rensas till något som AI kan använda. n8n extraherar HTML-body, konverterar den till Markdown och kör sedan ett normaliseringssteg som tar bort navigationsskräp, cookie-banners och annat brus som försämrar sökningen.

Kunskapen delas upp och skapas som embeddings. En teckenbaserad textdelare bryter Markdownen i chunkar (cirka 500 tecken med lite överlapp), OpenAI genererar embeddings för varje chunk och Pinecone lagrar dem under en namespace som du styr.

Kundfrågor triggar svarsagenten. Triggern för chattmeddelanden skickar användarens fråga till en AI-agent, som hämtar relevanta chunkar från Pinecone och även kan fråga Airtable om fakturerings- och abonnemangsdetaljer när frågan kräver det.

Du kan enkelt ändra innehållskällan (en URL vs. många sidor) efter dina behov. Se hela implementeringsguiden nedan för anpassningsalternativ.

Steg-för-steg-guide för implementering

Steg 1: Konfigurera den manuella triggern

Konfigurera den manuella ingångspunkten som startar flödet för innehållsinläsning.

  1. Lägg till noden Manual Run Trigger på er canvas.
  2. Koppla Manual Run Trigger till External API Call för att matcha körflödet.

Använd Manual Run Trigger när ni bygger workflowet för att undvika att upprepade gånger anropa den externa webbplatsen medan ni testar vidare bearbetning.

Steg 2: Anslut den externa innehållskällan

Hämta den råa HTML:en som ska konverteras till en kunskapsbas för hämtning.

  1. I External API Call, ställ in URL till https://content.eirevo.ie/billing-change-faqs.
  2. Koppla External API Call till Extract Page Body.
  3. I Extract Page Body, behåll Include inställt på selected och aktivera Include Other Fields.
  4. Ställ in fältvärdet för data till {{ $json?.data.match(/]*>([\\s\\S]*?)<\\/body>/i)[1] }} för att extrahera HTML-body.

    ⚠️ Vanlig fallgrop: Om källsidan inte innehåller en -tagg kommer regex-uttrycket i Extract Page Body att misslyckas. Validera sidans HTML innan ni kör workflowet.

    Steg 3: Konvertera och normalisera innehåll

    Transformera HTML till ren text och ta bort formateringsbrus innan indexering.

    1. Koppla Extract Page Body till HTML to Markdown.
    2. I HTML to Markdown, ställ in HTML till {{ $json.data }}.
    3. Koppla HTML to Markdown till Normalize Content.
    4. I Normalize Content, behåll Mode som runOnceForEachItem och klistra in den tillhandahållna JavaScript-koden som tar bort sidmarkörer och normaliserar whitespace.

    Steg 4: Förbered dokumentchunkning och embeddings

    Dela upp innehållet i chunks och generera embeddings för att lagra i Pinecone.

    1. Konfigurera Character Chunker med Chunk Size 500, Chunk Overlap 50 och Separator ######.
    2. I Base Document Loader, ställ in Text Splitting Mode till custom och koppla den till Character Chunker via AI-text-splitter-porten.
    3. I Create Embeddings, säkerställ att embedding-alternativen inkluderar dimensions: 1536.
    4. Credential Required: Anslut era openAiApi-credentials i Create Embeddings.

    AI-subnoder som Create Embeddings ska ha credentials konfigurerade direkt i den noden innan de kan användas av Pinecone Insert.

    Steg 5: Lagra innehåll i Pinecone

    Infoga det normaliserade, embeddade innehållet i ett vektorlager för hämtning.

    1. Koppla Normalize Content till Pinecone Insert.
    2. I Pinecone Insert, ställ in Mode till insert.
    3. Ställ in Pinecone Index till eirevo och Pinecone Namespace till eirevo.
    4. Credential Required: Anslut era pineconeApi-credentials i Pinecone Insert.
    5. Säkerställ att Base Document Loader är kopplad till Pinecone Insert via AI-dokumentporten, och att Create Embeddings är kopplad via AI-embedding-porten.

    Steg 6: Konfigurera Chat RAG-agenten

    Konfigurera ingångspunkten för konversationen, språkmodeller, minne och kunskapshämtning.

    1. Lägg till noden Chat Message Trigger och ställ in Public till true med Initial Messages inställt på Hi how I can help you..
    2. Koppla Chat Message Trigger till Conversational Agent.
    3. I Conversational Agent, behåll det tillhandahållna System Message som beskriver användning av kunskap och faktureringsverktyg.
    4. Koppla OpenAI Chat Engine till Conversational Agent som AI-språkmodell, och även till Knowledge Retrieval Tool.
    5. Credential Required: Anslut era openAiApi-credentials i OpenAI Chat Engine.
    6. Koppla Conversation Memory till Conversational Agent som AI-minne och ställ in Context Window Length till 10.

    För AI-verktyg som Conversation Memory och Knowledge Retrieval Tool, konfigurera credentials på deras överordnade språkmodellnoder (t.ex. OpenAI Chat Engine), inte på själva verktygsnoderna.

    Steg 7: Aktivera verktyg för kunskapshämtning och fakturauppslag

    Koppla vektorlager för hämtning och lägg till Airtable-faktureringsverktyget i agenten.

    1. Konfigurera Pinecone Q&A Store med Pinecone Index eirevo och Pinecone Namespace eirevo.
    2. Credential Required: Anslut era pineconeApi-credentials i Pinecone Q&A Store.
    3. Koppla OpenAI Embedding Model till Pinecone Q&A Store via AI-embedding-porten och ställ in dimensioner till 1536.
    4. Credential Required: Anslut era openAiApi-credentials i OpenAI Embedding Model.
    5. Koppla Pinecone Q&A Store till Knowledge Retrieval Tool som AI-vektorlager, och länka sedan Knowledge Retrieval Tool till Conversational Agent som ett AI-verktyg.
    6. I Billing Query Tool, behåll Tool Description som Call this tool for billing and payment related query och Text som {{ /*n8n-auto-generated-fromAI-override*/ $fromAI('Prompt__User_Message_', ``, 'string') }}.
    7. Koppla OpenRouter Chat Engine till Billing Query Tool som AI-språkmodell och ställ in Model till openai/o4-mini.
    8. Credential Required: Anslut era openRouterApi-credentials i OpenRouter Chat Engine.
    9. I Airtable Billing Lookup, ställ in Operation till search, Return All till false och Filter By Formula till {{ /*n8n-auto-generated-fromAI-override*/ $fromAI('Filter_By_Formula', ``, 'string') }}.
    10. Credential Required: Anslut era airtableTokenApi-credentials i Airtable Billing Lookup.
    11. Koppla Airtable Billing Lookup till Billing Query Tool som ett AI-verktyg, och säkerställ att Billing Query Tool är kopplad till Conversational Agent.

    ⚠️ Vanlig fallgrop: AI-verktygsnoder som Billing Query Tool innehåller inte credentials själva—säkerställ att den överordnade språkmodellen OpenRouter Chat Engine är autentiserad.

    Steg 8: Testa och aktivera ert workflow

    Verifiera både pipelinen för innehållsinläsning och chattupplevelsen innan ni går live.

    1. Klicka på Execute WorkflowManual Run Trigger och bekräfta att Pinecone Insert tar emot normaliserat innehåll utan fel.
    2. Öppna testchatten för Chat Message Trigger och skicka in en faktureringsrelaterad fråga; bekräfta att agenten svarar med antingen kunskapsbasen eller Airtable-faktureringsverktyget.
    3. Lyckad körning ska visa att items passerar från External API CallExtract Page BodyHTML to MarkdownNormalize ContentPinecone Insert, samt att ett svar returneras från Conversational Agent.
    4. När testningen är klar, slå om workflowet till Active så att chatttriggern är tillgänglig för produktion.
    🔒

    Lås upp fullständig steg-för-steg-guide

    Få den kompletta implementeringsguiden + nedladdningsbar mall

    Tips för felsökning

    • Pinecone-inloggning kan löpa ut eller kräva specifika behörigheter. Om det skapar fel, kontrollera först din Pinecone API-nyckel samt inställningarna för index/namespace i Pinecone-konsolen.
    • Om du använder Wait-noder eller extern rendering varierar processtiderna. Öka väntetiden om efterföljande noder fallerar på tomma svar.
    • Standardprompts i AI-noder är generiska. Lägg in er varumärkeston tidigt, annars kommer du att redigera utdata i all evighet.

    Snabba svar

    Hur lång tid tar det att sätta upp den här OpenAI Pinecone-chatbotautomationen?

    Cirka 1–2 timmar om dina konton är redo och du indexerar en mindre webbplats först.

    Krävs det kodning för den här OpenAI Pinecone-chatbotautomationen?

    Nej. Du kopplar konton och redigerar ett par noder, inklusive steget för normalisering av webbplatsinnehåll.

    Är n8n gratis att använda för det här workflowet för OpenAI Pinecone-chatbotautomation?

    Ja. n8n har ett gratis alternativ för egen hosting och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna in OpenAI API-kostnader (ofta några dollar i månaden för små webbplatser, mer om ni chattar mycket) plus Pinecone-kostnader för lagring och frågor.

    Var kan jag hosta n8n för att köra den här automationen?

    Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller egen hosting på en VPS. För egen hosting är Hostinger VPS prisvärd och hanterar n8n bra. Egen hosting ger dig obegränsade körningar men kräver grundläggande serverhantering.

    Kan jag anpassa det här workflowet för OpenAI Pinecone-chatbotautomation för andra användningsfall?

    Ja, och det bör du troligen göra. Du kan byta HTTP Request-källan för att indexera andra sidor och sedan justera koden för ”Normalize Content” och chunkstorleken i Character Text Splitter så att den matchar din formatering. Vanliga anpassningar är separata Pinecone-namespaces per produktlinje, striktare systemprompts för reglerade branscher och att lägga till fler verktyg (som en CRM-uppslagning) utöver Airtable för fakturering.

    Varför misslyckas min Pinecone-anslutning i det här workflowet?

    Oftast är det ett problem med API-nyckeln eller att index/namespace inte finns. Skapa en ny Pinecone-nyckel, bekräfta miljön/regionen och dubbelkolla sedan indexnamnet som används i noderna för Pinecone Insert och i verktygsnoden för hämtning. Om det bara fallerar under belastning kan du även slå i rate limits när många chunkar embedas samtidigt, så batching eller att sakta ner körningar hjälper.

    Vilken volym kan det här workflowet för OpenAI Pinecone-chatbotautomation hantera?

    I n8n Cloud beror volymen på din plans månatliga körningar; vid egen hosting begränsas det mest av din server. I praktiken indexerar de flesta mindre webbplatser fint i en körning, och löpande chatt klarar stabil daglig trafik så länge du inte skapar embeddings för stora batcher hela tiden.

    Är den här OpenAI Pinecone-chatbotautomationen bättre än att använda Zapier eller Make?

    Ofta ja, eftersom RAG behöver förgreningar, retrieval-verktyg, minne och mer kontroll över hur data transformeras. n8n hanterar det utan att bli en skör kedja av små automationer. Du får också möjligheten till egen hosting, vilket spelar roll när chattvolymen växer och du inte vill att prissättning per uppgift ska skena. Zapier eller Make kan fortfarande fungera för enkla flöden som ”kontaktformulär till Slack”, men det här är ett riktigt kunskapssystem. Om du vill ha hjälp att välja, prata med en automationsexpert och mappa det mot din ärendevolym.

    När ditt webbplatsinnehåll är indexerat hanterar workflowet de repetitiva frågorna automatiskt, och ditt team kan fokusera på det som är svårt. Ärligt talat är det ett av de snabbaste sätten att få supporten att kännas ”större” utan att lägga till fler personer.

Kontakta oss

Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.

×

Använd mall

Få direkt tillgång till denna n8n-arbetsflödes JSON-fil

Launch login modal Launch register modal