Din Slack förvandlas till en helpdesk i samma sekund som någon rör ett API. Samma frågor om “var finns den endpointen?” dyker upp, svar upprepas (eller motsägs), och personen som “kan GitHub” blir en flaskhals.
Den här Slack OpenAI-automationen slår först mot tekniska leads, men produktchefer och supportteam känner också av den. Du får konsekventa svar hämtade från GitHubs API-spec, utan att gräva i dokumentation eller avbryta kollegor.
Du sätter upp en RAG-chatbot i n8n som läser in GitHubs OpenAPI-spec, lagrar den i Pinecone och svarar i chatten med kontextmedveten vägledning (ofta med kodsnuttar). Du lär dig också vad du ska justera för att den ska matcha hur teamet faktiskt jobbar.
Så fungerar den här automationen
Här är hela workflowet du kommer att sätta upp:
n8n Workflow Template: Slack + OpenAI: svar på GitHub-dokumentation vid begäran
flowchart LR
subgraph sg0["Chat Message Flow"]
direction LR
n5@{ icon: "mdi:play-circle", form: "rounded", label: "Chat Message Trigger", pos: "b", h: 48 }
n6@{ icon: "mdi:robot", form: "rounded", label: "AI Assistant Orchestrator", pos: "b", h: 48 }
n7@{ icon: "mdi:brain", form: "rounded", label: "OpenAI Chat Engine", pos: "b", h: 48 }
n8@{ icon: "mdi:memory", form: "rounded", label: "Windowed Memory Buffer", pos: "b", h: 48 }
n9@{ icon: "mdi:wrench", form: "rounded", label: "Vector Store Retrieval Tool", pos: "b", h: 48 }
n10@{ icon: "mdi:brain", form: "rounded", label: "OpenAI Chat Engine B", pos: "b", h: 48 }
n11@{ icon: "mdi:vector-polygon", form: "rounded", label: "Create Query Embeddings", pos: "b", h: 48 }
n12@{ icon: "mdi:cube-outline", form: "rounded", label: "Pinecone Query Store", pos: "b", h: 48 }
n7 -.-> n6
n9 -.-> n6
n10 -.-> n9
n8 -.-> n6
n5 --> n6
n11 -.-> n12
n12 -.-> n9
end
subgraph sg1["Manual Launch Flow"]
direction LR
n0@{ icon: "mdi:play-circle", form: "rounded", label: "Manual Launch Trigger", pos: "b", h: 48 }
n1["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/httprequest.dark.svg' width='40' height='40' /></div><br/>External API Call"]
n2@{ icon: "mdi:cube-outline", form: "rounded", label: "Pinecone Vector Indexer", pos: "b", h: 48 }
n3@{ icon: "mdi:robot", form: "rounded", label: "Default Doc Loader", pos: "b", h: 48 }
n4@{ icon: "mdi:robot", form: "rounded", label: "Recursive Text Splitter", pos: "b", h: 48 }
n13@{ icon: "mdi:vector-polygon", form: "rounded", label: "Create Document Embeddings", pos: "b", h: 48 }
n1 --> n2
n3 -.-> n2
n13 -.-> n2
n4 -.-> n3
n0 --> n1
end
%% Styling
classDef trigger fill:#e8f5e9,stroke:#388e3c,stroke-width:2px
classDef ai fill:#e3f2fd,stroke:#1976d2,stroke-width:2px
classDef aiModel fill:#e8eaf6,stroke:#3f51b5,stroke-width:2px
classDef decision fill:#fff8e1,stroke:#f9a825,stroke-width:2px
classDef database fill:#fce4ec,stroke:#c2185b,stroke-width:2px
classDef api fill:#fff3e0,stroke:#e65100,stroke-width:2px
classDef code fill:#f3e5f5,stroke:#7b1fa2,stroke-width:2px
classDef disabled stroke-dasharray: 5 5,opacity: 0.5
class n5,n0 trigger
class n6,n3,n4 ai
class n7,n10 aiModel
class n9 ai
class n8 ai
class n12,n2 ai
class n11,n13 ai
class n1 api
classDef customIcon fill:none,stroke:none
class n1 customIcon
Varför det här spelar roll: frågor om GitHubs API avbryter arbetet hela tiden
“Snabb fråga” är sällan snabb. Någon frågar hur man paginerar en lista, vilka scopes en token behöver eller varför en endpoint returnerar 422. En kollega svarar från minnet, någon annan delar en föråldrad snippet, och tio minuter senare har du tre “svar” där inget hänvisar till den faktiska specen. Under tiden sitter personen som kunde ha levererat en feature och gör ad-hoc dokumentsupport. Det handlar inte bara om tid. Det handlar om tillit. När teamet inte kan lita på svaret dubbelkollar man allt och tempot dör.
Friktionen byggs på. Här är var det oftast fallerar.
- Folk jagar mellan webbläsarflikar, GitHub-doksidor och gamla PR-kommentarer, och frågar ändå i Slack “bara för att vara säker”.
- Svaren glider över tid eftersom specen ändras men teamets mentala modell inte gör det.
- Seniora ingenjörer dras in i upprepade förklaringar, vilket i praktiken försenar granskningar och leverans.
- Ingen minns den slutliga lösningen, så samma tråd händer igen nästa vecka.
Vad du bygger: en chattassistent för GitHubs API-spec i Slack
Det här workflowet gör GitHubs API-specifikation till något teamet kan prata med. Du kör ett ingest-flöde som hämtar GitHubs OpenAPI 3-spec direkt från GitHub-repot, och delar sedan upp det stora dokumentet i mindre chunkar som är enklare att söka i. Varje chunk omvandlas till en embedding med OpenAI:s embedding-modell och lagras i en Pinecone-vektordatabas tillsammans med källtexten. Därefter interagerar teamet via en chattrigger: de ställer en fråga på vanlig svenska, workflowet embedder frågan, Pinecone hämtar de mest relevanta delarna av specen och OpenAI genererar ett tydligt svar som är förankrat i de hämtade snippetarna. Resultatet är ett snabbt svar som är konsekvent, kontextmedvetet och mycket mindre beroende av vem som råkar vara online.
Workflowet börjar med en manuell start för att läsa in (eller uppdatera) specen. Sedan hanterar en chattmeddelandetrigger frågor när de kommer in. Hämtningen från Pinecone levererar “rätt sidor”, och OpenAI:s chattmodell omvandlar kontexten till ett användbart svar som teamet kan agera på.
Det du bygger
| Det som automatiseras | Det du uppnår |
|---|---|
|
|
Förväntade resultat
Säg att teamet ställer GitHub API-frågor 10 gånger per dag. Manuellt tar det oftast cirka 10 minuter att hitta rätt del i dokumentationen plus ytterligare 5 minuter att översätta det till ett handlingsbart Slack-svar, alltså ungefär 2 till 3 timmar per dag för teamet totalt. Med det här workflowet går frågan in i chatten, retrieval sker på sekunder och svaret kommer tillbaka på ungefär en minut. Du granskar fortfarande för edge cases, men du börjar inte från noll varje gång.
Innan du börjar
- n8n-instans (testa n8n Cloud gratis)
- Alternativ för self-hosting om du föredrar det (Hostinger fungerar bra)
- OpenAI för embeddings och chatsvar
- Pinecone för att lagra och söka i vektoriserade dokumentchunkar
- OpenAI API-nyckel och Pinecone API-nyckel (hämta dem från dina OpenAI- och Pinecone-dashboards)
Kunskapsnivå: Medel. Du kopplar credentials, justerar ett indexnamn vid behov och testar med riktiga frågor.
Vill du att någon bygger detta åt dig? Prata med en automationsexpert (gratis konsultation i 15 minuter).
Steg för steg
Du startar ingest med avsikt. En manuell trigger startar “hämta och indexera”-delen av workflowet, så du styr när GitHubs OpenAPI-spec uppdateras (perfekt för test och för att undvika överraskande ändringar mitt i en sprint).
Specen hämtas och förbereds för sökning. n8n hämtar hela API-specifikationen med en HTTP Request-nod, och sedan delar en document loader och en rekursiv text splitter upp den i mindre chunkar som inte överbelastar retrieval eller språkmodellen.
Embeddings skapas och lagras. OpenAI genererar embeddings för varje chunk, och Pinecone lagrar dem i ett vektorindex så att senare frågor kan hitta “rätt del av specen” baserat på betydelse, inte nyckelord.
Frågor kommer in via chatten och besvaras med kontext. En chattmeddelandetrigger fångar användarens fråga, workflowet skapar en embedding av den, Pinecone hämtar relevanta chunkar och OpenAI:s chattmodell genererar det slutliga svaret med den hämtade spectexten som förankring.
Du kan enkelt byta datakälla från “GitHub API-spec” till “din interna OpenAPI-spec” beroende på behov. Se hela implementationsguiden nedan för anpassningsalternativ.
Steg-för-steg-guide för implementering
Steg 1: Konfigurera den manuella triggern
Det här arbetsflödet använder en manuell trigger för att hämta GitHubs OpenAPI-specifikation och indexera den i Pinecone.
- Lägg till eller bekräfta noden Manual Launch Trigger som trigger.
- Koppla Manual Launch Trigger till External API Call för att starta inmatningsflödet.
Steg 2: Anslut den externa API-datakällan
Hämta OpenAPI-specifikationen från GitHub och skicka in den i dokumentets ingest-pipeline.
- Öppna External API Call och ställ in URL till
https://raw.githubusercontent.com/github/rest-api-[CONFIGURE_YOUR_API_KEY]/api.github.com/api.github.com.json. - Koppla External API Call till Pinecone Vector Indexer enligt arbetsflödet.
- Bekräfta att Recursive Text Splitter är kopplad till Default Doc Loader via anslutningen ai_textSplitter.
[CONFIGURE_YOUR_API_KEY] i URL:en med er faktiska nyckel eller en giltig sökväg, annars kommer HTTP-begäran att misslyckas.Steg 3: Konfigurera dokumentindexering i Pinecone
Det här steget laddar API-dokumentet, delar upp det i chunkar, skapar embeddings och skriver in dem i Pinecone.
- Öppna Pinecone Vector Indexer och ställ in Mode till
insert. - Ställ in Pinecone Index till
n8n-demoi Pinecone Vector Indexer. - Bekräfta att Default Doc Loader är kopplad till Pinecone Vector Indexer som ai_document.
- Bekräfta att Create Document Embeddings är kopplad till Pinecone Vector Indexer som ai_embedding.
- Inloggningsuppgifter krävs: Anslut era pineconeApi-inloggningsuppgifter i Pinecone Vector Indexer.
- Inloggningsuppgifter krävs: Anslut era openAiApi-inloggningsuppgifter i Create Document Embeddings.
Steg 4: Konfigurera AI-chattassistenten och verktyg för hämtning
Det här flödet hanterar chattförfrågningar, hämtar relevant API-kontext från Pinecone och svarar med en OpenAI-modell.
- Koppla Chat Message Trigger till AI Assistant Orchestrator för att ta emot chattinmatning.
- I AI Assistant Orchestrator ställer ni System Message till
You are a helpful assistant providing information about the GitHub API and how to use it based on the OpenAPI V3 specifications.. - Koppla OpenAI Chat Engine till AI Assistant Orchestrator som anslutningen ai_languageModel.
- Koppla Windowed Memory Buffer till AI Assistant Orchestrator som ai_memory (inloggningsuppgifter läggs till på de överordnade modellerna, inte i den här noden).
- Konfigurera Vector Store Retrieval Tool med Name
GitHub_OpenAPI_Specificationoch DescriptionUse this tool to get information about the GitHub API. This database contains OpenAPI v3 specifications.. - Koppla Pinecone Query Store till Vector Store Retrieval Tool som ai_vectorStore, och koppla Create Query Embeddings till Pinecone Query Store som ai_embedding.
- Koppla OpenAI Chat Engine B till Vector Store Retrieval Tool som ai_languageModel (den här modellen driver verktygsanvändningen).
- Inloggningsuppgifter krävs: Anslut era openAiApi-inloggningsuppgifter i OpenAI Chat Engine och OpenAI Chat Engine B.
- Inloggningsuppgifter krävs: Anslut era openAiApi-inloggningsuppgifter i Create Query Embeddings (inloggningsuppgifter läggs till här, inte på Vector Store Retrieval Tool).
- Inloggningsuppgifter krävs: Anslut era pineconeApi-inloggningsuppgifter i Pinecone Query Store.
Steg 5: Testa och aktivera ert arbetsflöde
Kör en manuell ingest och testa chattsvar innan ni aktiverar arbetsflödet.
- Klicka på Execute Workflow på Manual Launch Trigger för att ingestera och indexera OpenAPI-specifikationen.
- Skicka ett meddelande via Chat Message Trigger (via dess chattgränssnitt eller webhook) och bekräfta att ett svar returneras från AI Assistant Orchestrator.
- Verifiera att Pinecone Vector Indexer skriver in vektorer och att Pinecone Query Store returnerar träffar vid chattfrågor.
- När det fungerar, växla arbetsflödet till Active för användning i produktion.
Felsökningstips
- Pinecone-credentials kan löpa ut eller så kan indexnamnet vara fel. Om något slutar fungera, kontrollera först ditt Pinecone-projekt, environment och indexnamnet (workflowet förväntar sig n8n-demo).
- Om du använder Wait-noder eller extern rendering varierar processtiderna. Öka väntetiden om nedströms noder fallerar på tomma svar.
- Standardprompter i AI-noder är generiska. Lägg in er tonalitet tidigt, annars kommer du redigera utdata för alltid.
Snabba svar
Cirka 15–20 minuter om du redan har dina API-nycklar.
Nej. Du importerar workflowet, kopplar OpenAI och Pinecone och kör ett snabbt test i chatten.
Ja. n8n har ett gratis self-hosted-alternativ och en gratis provperiod på n8n Cloud. Cloud-planer startar på 20 USD/månad för högre volymer. Du behöver också räkna in OpenAI API-kostnader för embeddings och chatt (oftast några cent per dag vid lätt användning) plus Pinecone-kostnader för lagring och queries.
Två alternativ: n8n Cloud (managerad, enklast setup) eller self-hosting på en VPS. För self-hosting är Hostinger VPS prisvärd och hanterar n8n bra. Self-hosting ger dig obegränsade körningar men kräver grundläggande serverhantering.
Ja, och det bör du. Du kan ersätta HTTP Request som hämtar GitHub-specen med din egen OpenAPI-URL (eller en fil-loader), behålla samma text splitter- och embeddings-noder och sedan peka Pinecone Vector Indexer mot ett nytt indexnamn. Vanliga anpassningar är att begränsa ingest till specifika taggar/endpoints, lägga till en instruktion om “företagsstil” i AI Assistant Orchestrator och ändra chattkanal eller triggerkälla.
Oftast beror det på en ogiltig eller utgången API-nyckel i dina n8n OpenAI-credentials. Det kan också hända om ditt OpenAI-projekt har fakturering avstängd, eller om du slår i rate limits när du läser in en stor spec och skapar många embeddings i ett enda körning.
De flesta team kan hantera hundratals frågor per dag utan att röra workflowet, så länge dina OpenAI- och Pinecone-planer matchar belastningen.
För RAG-chatbotar som den här, ja i de flesta fall. n8n kan köra ingest-loopen (uppdelat i batcher), embeddings, retrieval och fler-stegs resonemang på ett ställe utan krångliga workarounds. Du får också self-hosting, vilket spelar roll om du vill ha förutsägbara kostnader eller behöver att data stannar i din miljö. Zapier och Make funkar för enkla automationer som “när ett meddelande kommer, skicka ett svar”, men de blir klumpiga när du lägger till vektorsökning och minne. Om du är osäker, prata med en automationsexpert så hjälper vi dig att välja det enklaste alternativet som fortfarande fungerar.
När det här väl rullar slutar Slack vara din dokumentationskyrkogård. Teamet får tillförlitliga GitHub API-svar vid begäran, och du får tillbaka ditt fokus.
Kontakta oss
Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.