Behöver ert företag hjälp med att implementera AI? Kontakta oss och få prisoffert här →
AI Skolan
januari 21, 2026

Slack + BigQuery: frakt­svar utan SQL

Rickard Andersson Partner, Nodenordic.se

Dina leveransdata finns i BigQuery, men svaren sitter fast i någons huvud (eller i en kö bakom ”kan du ta fram den här rapporten?”-förfrågningar). Då gissar folk. Eller så väntar de. Eller så klistrar de in siffror i Slack som ingen riktigt litar på.

Det är här Slack BigQuery-automatisering gör som mest nytta: logistikchefer som behöver avlasta ett distributionsteam, analytiker som tröttnat på att vara ett mänskligt SQL-lager, och driftansvariga som bara vill ha ett tydligt svar på morgonmötet. Du ställer en fråga i chatten och får ett svar på klarspråk tillbaka, förankrat i din BigQuery-tabell.

Den här guiden går igenom vad workflowet gör, vad du behöver och hur du kan tänka kring anpassningar så att det passar din övervakning av leveranser och utgående order.

Så fungerar den här automatiseringen

Här är hela workflowet som du kommer att sätta upp:

n8n Workflow Template: Slack + BigQuery: frakt­svar utan SQL

Varför det här är viktigt: frågor om leveranser fastnar alltid i en flaskhals

I logistiken kommer frågor inte prydligt paketerade i en veckorapport. De dyker upp mitt i skiftet i Slack: ”Vad är sent till Lyon?”, ”Vilken transportör sticker iväg i förseningar?”, ”Hur många ordrar är fortfarande otilldelade?” Om enda sättet att svara är att öppna BigQuery, skriva SQL, rimlighetskontrollera joins och sedan klistra in resultatet tillbaka i chatten, då har du skapat ett mänskligt beroende. Det är också skört. Ett skrivfel, ett fel filter, och teamet fattar beslut på dåliga siffror. Det värsta är den mentala belastningen: du byter kontext hela dagen i stället för att driva verksamheten.

Det eskalerar snabbt. Här är var det faller isär i verkliga team:

  • Varje ”snabb fråga” blir ett avbrott som drar bort en analytiker från faktiskt förbättringsarbete.
  • Folk slutar fråga för att de inte vill störa, vilket gör att problem upptäcks sent.
  • Manuell SQL-copy-paste in i Slack skapar ett förtroendeproblem, särskilt när två personer tar fram lite olika siffror.
  • Följdfrågor tar evigheter eftersom kontexten försvinner och du måste återskapa frågan varje gång.

Det du bygger: en chattagent som frågar BigQuery och ger svar om leveranser

Det här workflowet gör din leverans- eller utgående order-tabell i Google BigQuery till något som teamet faktiskt kan använda i stunden. En användare ställer en fråga i chatten (Slack i den här artikeln, men mallen kan anpassas till Teams, Telegram eller webbchatt). En AI-agent läser frågan, listar ut vilken data som behövs och genererar rätt SQL för ditt BigQuery-schema. Innan något körs rensar och formaterar workflowet SQL-payloaden så att BigQuery får exakt det den förväntar sig. BigQuery kör frågan och workflowet svarar sedan på klarspråk så att resultatet går att förstå utan att scrolla igenom råa rader. Eftersom agenten har korttidsminne från chatten fungerar följdfrågor som en riktig konversation i stället för en ny ticket varje gång.

Workflowet börjar med ett användarmeddelande, sedan avgör agenten vilken SQL som ska köras för frågan. När SQL:en har rensats och körts i BigQuery returneras svaret tillbaka till chatten med tillräcklig kontext för att stödja ett beslut.

Det du bygger

Förväntade resultat

Säg att ditt distributionsteam ställer cirka 10 leveransfrågor per dag i Slack. Manuellt tar varje fråga ofta runt 10 minuter: öppna BigQuery, skriva SQL, köra den, dubbelkolla totaler och förklara tillbaka i chatten, alltså ungefär 100 minuter per dag. Med det här workflowet är det i princip omedelbart att ställa frågan, och agenten returnerar vanligtvis ett svar på under en minut. Det är ungefär en timme tillbaka per dag, plus färre ”vänta, är vi säkra?”-varv.

Innan du börjar

  • n8n-instans (testa n8n Cloud gratis)
  • Alternativ för egen hosting om du föredrar det (Hostinger fungerar bra)
  • Google BigQuery för din tabell med utgående ordrar eller leveranser
  • Slack för att ställa frågor där teamet arbetar
  • OpenAI API-nyckel (hämta den i OpenAI-dashboarden)

Kunskapsnivå: Nybörjare. Du kopplar konton, klistrar in en API-nyckel och mappar detaljer för din BigQuery-tabell.

Vill du att någon bygger detta åt dig? Prata med en automationsexpert (gratis 15-minuters konsultation).

Steg för steg

En användare ställer en leveransfråga i chatten. Workflowet börjar med en chatt-trigger, som kan kopplas till Slack så att frågorna kommer från samma kanal som teamet redan använder.

AI-agenten tolkar förfrågan. Med en OpenAI-chattmodell plus en orkestreringsagent avgör workflowet vad användaren egentligen frågar (sena leveranser, transportörers prestation, väntande ordrar) och skapar ett utkast till den SQL som behövs för att svara.

SQL:en rensas och körs. Ett litet kodsteg rensar SQL-payloaden, sedan kör workflowet frågan via en Google BigQuery-nod mot din tabell för utgående ordrar.

Svaret kommer tillbaka på klarspråk, med minne. Svaret postas tillbaka i chatten, och en minnesbuffer håller kort kontext så att följdfrågor fungerar utan att börja om.

Du kan enkelt ändra chatt-inträdet till Teams, Telegram eller en webbwidget beroende på behov. Se hela implementationsguiden nedan för alternativ för anpassning.

Steg-för-steg-guide för implementering

Steg 1: Konfigurera chattriggern

Det här arbetsflödet startar när en användare skickar ett meddelande i chattgränssnittet, som skickas direkt till AI-agenten för tolkning.

  1. Lägg till noden User Chat Trigger som startpunkt.
  2. Lämna Options tomt om ni inte vill anpassa chattupplevelsen.
  3. Bekräfta körflödet: User Chat TriggerAI Orchestration Agent.

Steg 2: Koppla arbetsflödet för BigQuery-verktyget

AI-agenten använder ett verktyg för att köra SQL mot BigQuery. Verktyget måste peka mot ett arbetsflöde som börjar med en Execute Workflow-trigger.

  1. Öppna Invoke Query Utility och ställ in Name till bigquery_tool.
  2. Ställ in Workflow ID till arbetsflödet som innehåller Tool-Initiated Trigger (samma arbetsflöde i den här konfigurationen).
  3. I workflowInputs mappar ni query till {{ $fromAI("query", "SQL query to run") }}.
  4. Observera att Invoke Query Utility är en AI-verktygsundernod; autentiseringsuppgifter ska läggas till i den överordnade AI-konfigurationen, inte här.

⚠️ Vanlig fallgrop: Om Workflow ID lämnas tomt kommer AI-verktyget inte att kunna köra någon SQL. Peka alltid mot arbetsflödet som innehåller Tool-Initiated Trigger.

Steg 3: Sätt upp AI-orkestreringslagret

AI-agenten tolkar användarens avsikt, bygger SQL och anropar BigQuery-verktyget. Den använder en chattmodell och en minnesbuffert för kontext.

  1. Öppna OpenAI Conversation Model och ställ in Model till gpt-4o-mini.
  2. Autentiseringsuppgifter krävs: Anslut era OpenAI-uppgifter i OpenAI Conversation Model.
  3. Öppna AI Orchestration Agent och klistra in systeminstruktionerna i System Message (prompten för SQL-assistenten för supply chain).
  4. Anslut OpenAI Conversation Model till AI Orchestration Agent som språkmodell.
  5. Anslut Invoke Query Utility till AI Orchestration Agent som verktyg.
  6. Anslut Dialogue Memory Buffer till AI Orchestration Agent som minneslager.
  7. Kom ihåg: Dialogue Memory Buffer är en AI-minnesundernod; autentiseringsuppgifter (om det behövs) ska läggas till i den överordnade AI-konfigurationen, inte här.

Steg 4: Konfigurera körvägen för BigQuery

När verktyget anropas rensar arbetsflödet SQL-payloaden och kör den i BigQuery.

  1. I Tool-Initiated Trigger, säkerställ att workflowInputs innehåller ett fält som heter query.
  2. Öppna Clean SQL Payload och behåll JavaScript Code exakt som: return [ { json: { query: $input.first().json.query.replace(/```sql|```/g, "").trim() } }];
  3. Öppna Run BigQuery Request och ställ in SQL Query till {{ $json.query }}.
  4. Autentiseringsuppgifter krävs: Anslut era Google BigQuery-uppgifter i Run BigQuery Request.
  5. Bekräfta körflödet: Tool-Initiated TriggerClean SQL PayloadRun BigQuery Request.

⚠️ Vanlig fallgrop: Om AI:n inkluderar ```sql-formatering kan frågor misslyckas utan Clean SQL Payload. Låt den här noden vara aktiverad för att ta bort formateringen.

Steg 5: Testa och aktivera ert arbetsflöde

Verifiera att chattinmatningen ger ett BigQuery-resultat och aktivera sedan arbetsflödet för användning i skarpt läge.

  1. Klicka på Execute Workflow och skicka ett testmeddelande till User Chat Trigger (t.ex. ”Hur många försenade leveranser hade vi förra veckan?”).
  2. Verifiera att AI Orchestration Agent anropar Invoke Query Utility och skapar en query-payload.
  3. Kontrollera att Run BigQuery Request returnerar en resultattabell eller ett mätvärde utan att SQL:en följer med.
  4. När allt fungerar, slå på arbetsflödet Active för att möjliggöra användning i produktion.
🔒

Lås upp fullständig steg-för-steg-guide

Få den kompletta implementeringsguiden + nedladdningsbar mall

Felsökningstips

  • Google BigQuery-inloggningsuppgifter kan löpa ut eller sakna behörigheter till datasetet. Om det skapar fel, kontrollera först dina GCP IAM-roller och datasetets åtkomstinställningar.
  • Om du använder Wait-noder eller extern rendering varierar processtiderna. Öka väntetiden om nedströmsnoder misslyckas på tomma svar.
  • OpenAI-promptar börjar generiskt som standard. Lägg till dina tabellnamn, definitioner av mätetal och tonalitet tidigt, annars kommer du att redigera outputs i all evighet.

Snabba svar

Hur lång är uppsättningstiden för den här Slack BigQuery-automatiseringen?

Cirka en timme om din BigQuery-tabell och Slack-åtkomst är klara.

Krävs kodning för att få leveranssvar utan SQL?

Nej, ingen kodning krävs. Du kommer främst att koppla konton och bekräfta detaljer för ditt dataset/din tabell.

Är n8n gratis att använda för det här Slack BigQuery-automatiserings-workflowet?

Ja. n8n har ett gratis alternativ för egen hosting och en gratis testperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna med OpenAI API-kostnader på några cent per förfrågan.

Var kan jag hosta n8n för att köra den här automatiseringen?

Två alternativ: n8n Cloud (hanterat, enklast uppsättning) eller egen hosting på en VPS. För egen hosting är Hostinger VPS prisvärd och hanterar n8n bra. Egen hosting ger obegränsade körningar men kräver grundläggande serveradministration.

Kan jag anpassa det här Slack BigQuery-automatiserings-workflowet för andra användningsfall?

Ja, och det borde du förmodligen. Du kan byta chatt-inträdet genom att ersätta User Chat Trigger med Slack, Teams, Telegram eller en webhook och sedan behålla AI Orchestration Agent och BigQuery-stegen oförändrade. Vanliga justeringar är att låsa till ett specifikt dataset, begränsa vilka kolumner som får frågas på och lägga till fördefinierade mätetalsdefinitioner (som ”sent” eller ”OTIF”) så att svaren blir konsekventa.

Varför misslyckas min Google BigQuery-anslutning i det här workflowet?

Oftast beror det på utgångna inloggningsuppgifter eller saknade dataset-behörigheter i GCP. Återanslut BigQuery-credential i n8n och bekräfta sedan att servicekontot (eller OAuth-användaren) kan köra jobb och läsa datasetet. Om det bara misslyckas under stressiga dagar kan du slå i kvoter eller rate limits, så minska frågefrekvensen eller optimera SQL:en som agenten genererar.

Vilken volym kan det här Slack BigQuery-automatiserings-workflowet hantera?

Med n8n Cloud Starter kan du hantera ett stabilt flöde av dagliga frågor för ett mindre driftteam, och högre planer stödjer mer. Om du kör egen hosting finns inget tak för antal körningar, men du begränsas av din server samt BigQuery/OpenAI-kvoter. I praktiken är varje fråga en körning plus ett BigQuery-jobb, så volymplanering handlar mest om hur många frågor teamet ställer per dag.

Är den här Slack BigQuery-automatiseringen bättre än att använda Zapier eller Make?

Ofta, ja, eftersom du behöver mer än ett enkelt ”meddelande in, meddelande ut”. Den här uppsättningen bygger på en AI-agent, en minnesbuffer för följdfrågor och ett litet kodsteg för att rensa SQL-payloaden, vilket är enklare att styra i n8n. Du får också möjligheten att köra egen hosting för obegränsade körningar, vilket blir viktigt när användningen växer. Zapier eller Make kan fortfarande fungera för väldigt enkel Q&A, men du kan stöta på begränsningar när du vill ha grenad logik, skyddsräcken och tajtare kontroll över hur queries genereras. Prata med en automationsexpert om du är osäker.

När detta väl är igång slutar leveranssvar att vara en flaskhals och blir i stället en naturlig del av dialogen. Sätt upp det, trimma det mot din tabell och låt workflowet hantera de repetitiva uppslagen.

Kontakta oss

Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.

×

Använd mall

Få direkt tillgång till denna n8n-arbetsflödes JSON-fil

Få prisoffert redan idag!
Få prisoffert redan idag!

Berätta vad ni behöver hjälp med så hör vi av oss inom en arbetsdag!

Få prisoffert redan idag!
Få prisoffert redan idag!

Berätta vad ni behöver hjälp med så hör vi av oss inom en arbetsdag!

Launch login modal Launch register modal