Du kollar recensioner på tre ställen, skummar igenom enkätexporter på ett fjärde och försöker sedan “höfta” NPS i ett kalkylark som långsamt blir en enda röra. När du väl litar på siffran är den redan gammal. Och ärligt talat: ett enda fel filter eller en copy-paste kan vända hela berättelsen du drar för ledningen.
Det är här automatisering av NPS-trender ger effekt. Ansvariga för customer experience märker det när de förväntas leverera en veckopuls. Produktchefer behöver tydliga trendlinjer innan roadmap-diskussionerna. Byråägare som rapporterar till kunder fastnar i att reda ut “varför den här veckan ser konstig ut”.
Det här arbetsflödet använder Bright Data för att hämta feedback pålitligt, låter AI normalisera det som hittas, beräknar NPS och lägger sedan till en korrekt formaterad rad i Google Sheets varje vecka. Du får se vad det löser, vad du behöver och hur det körs.
Så fungerar automatiseringen
Se hur det här löser problemet:
n8n Workflow Template: Bright Data + Google Sheets: nps-trender du litar på
flowchart LR
subgraph sg0["⏰ Run Weekly NPS Tracker Flow"]
direction LR
n0@{ icon: "mdi:play-circle", form: "rounded", label: "⏰ Run Weekly NPS Tracker", pos: "b", h: 48 }
n1@{ icon: "mdi:swap-vertical", form: "rounded", label: "✏️ Set Survey Page URL", pos: "b", h: 48 }
n2@{ icon: "mdi:robot", form: "rounded", label: "🧠 Scrape Reviews with Agent ..", pos: "b", h: 48 }
n3["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/code.svg' width='40' height='40' /></div><br/>📊 Calculate NPS from Ratings"]
n4@{ icon: "mdi:database", form: "rounded", label: "📄 Log NPS to Google Sheet", pos: "b", h: 48 }
n5@{ icon: "mdi:brain", form: "rounded", label: "🎯 Prompt & Guide Agent", pos: "b", h: 48 }
n6@{ icon: "mdi:cog", form: "rounded", label: "🌐 Execute Web Scrape (Bright..", pos: "b", h: 48 }
n7@{ icon: "mdi:robot", form: "rounded", label: "Auto-fixing Output Parser", pos: "b", h: 48 }
n8@{ icon: "mdi:brain", form: "rounded", label: "OpenAI Chat Model", pos: "b", h: 48 }
n9@{ icon: "mdi:robot", form: "rounded", label: "Structured Output Parser", pos: "b", h: 48 }
n8 -.-> n7
n9 -.-> n7
n7 -.-> n2
n5 -.-> n2
n0 --> n1
n1 --> n2
n3 --> n4
n2 --> n3
n6 -.-> n2
end
%% Styling
classDef trigger fill:#e8f5e9,stroke:#388e3c,stroke-width:2px
classDef ai fill:#e3f2fd,stroke:#1976d2,stroke-width:2px
classDef aiModel fill:#e8eaf6,stroke:#3f51b5,stroke-width:2px
classDef decision fill:#fff8e1,stroke:#f9a825,stroke-width:2px
classDef database fill:#fce4ec,stroke:#c2185b,stroke-width:2px
classDef api fill:#fff3e0,stroke:#e65100,stroke-width:2px
classDef code fill:#f3e5f5,stroke:#7b1fa2,stroke-width:2px
classDef disabled stroke-dasharray: 5 5,opacity: 0.5
class n0 trigger
class n2,n7,n9 ai
class n5,n8 aiModel
class n4 database
class n3 code
classDef customIcon fill:none,stroke:none
class n3 customIcon
Utmaningen: veckovis NPS-rapportering som faktiskt går att jämföra
Veckovis NPS låter enkelt tills du har mer än en källa till feedback. Recensioner finns på publika sidor, enkäter kommer från olika verktyg och poängen presenteras i format som inte matchar. Så du skrapar, exporterar, klistrar in, “fixar till det” och undrar sedan om du missade något. Det värsta är den mentala belastningen: varje måndag (eller fredag) lär du dig samma steg på nytt, dubbelkollar samma kolumner och tvekar ändå innan du skickar uppdateringen, eftersom ett enda skrivfel kan skapa en falsk trend.
Det blir snabbt mycket. Här är var det brukar fallera.
- Någon måste manuellt öppna flera recensionssidor och leta efter de senaste poängen, vilket är monotont och lätt att skjuta upp.
- Copy-paste till Sheets ger subtila fel som förskjutna kolumner, blandade datumformat och duplicerade poster.
- När källor ändrar layout eller blockerar skrapning blir hela “veckosiffran” tyst inaktuell.
- Även när du får ut data blir det ett återkommande mini-projekt att göra en konsekvent NPS-beräkning.
Lösningen: automatiserad insamling, poängsättning och loggning av NPS
Det här arbetsflödet gör en veckovis NPS-uppdatering till en automatisk rutin du kan lita på. Det startar enligt schema, hämtar den recensions- eller enkätsida du bryr dig om och använder sedan ett skrapverktyg från Bright Data så att du minskar risken att bli blockerad eller få ofullständiga sidor. Därefter läser en AI-agent det som kommer tillbaka och plockar ut delarna du faktiskt behöver (poäng, antal och eventuella strukturerade signaler du har definierat). När poängen är normaliserade räknar arbetsflödet fram NPS i kod och lägger till en enda, konsekvent rad i Google Sheets. Ditt kalkylark blir sanningskällan, inte ett collage av inklistrade utdrag.
Arbetsflödet startar varje vecka och går sedan igenom tre faser: hämta senaste feedbacken, strukturera och tolka den med AI samt beräkna NPS från de extraherade poängen. Till sist loggar det resultatet i Google Sheets så att rapportering blir “öppna arket och titta”.
Vad som ändras: före vs. efter
| Det här elimineras | Effekten du ser |
|---|---|
|
|
Praktisk effekt i verkligheten
Säg att du varje vecka spårar NPS-signaler från tre ställen (en sida på en recensionsplattform, en enkätöversikt och en rapport från ett feedbackformulär). Manuellt tar det ofta runt 20 minuter per källa att öppna, extrahera, klistra in och rimlighetskontrollera, alltså ungefär en timme varje vecka. Med det här arbetsflödet lägger du kanske 10 minuter en gång på att ställa in källorna och dina kolumner i Google Sheet. Efter det loggar den schemalagda körningen den nya NPS-raden automatiskt, så din “veckouppdatering” är i princip att öppna arket.
Krav
- n8n-instans (prova n8n Cloud gratis)
- Alternativ för self-hosting om du föredrar det (Hostinger fungerar bra)
- Bright Data för pålitlig åtkomst till web scraping.
- Google Sheets för att lagra veckovisa NPS-rader.
- OpenAI API-nyckel (hämta den i din OpenAI-dashboard).
Svårighetsgrad: Medel. Du kopplar konton, klistrar in behörigheter och justerar några fält som URL:er och kolumner i arket.
Behöver du hjälp att implementera detta? Prata med en automationsexpert (gratis 15-minuters konsultation).
Flödet i arbetsflödet
Ett veckoschema triggar körningen. Arbetsflödet startar med en veckovis schemaläggare, så du får en ny NPS-post i samma takt varje gång.
Din recensions- eller enkätlänk definieras. Ett enkelt steg för “set fields” sparar sidans URL (eller URL:er) du vill följa, vilket gör resten av arbetsflödet konsekvent.
Bright Data hämtar sidan och AI extraherar användbara signaler. Arbetsflödet använder Bright Datas skrapverktyg och sedan en AI-agent och output-parsers för att göra rörigt sidinnehåll till strukturerade värden som poäng och antal.
NPS beräknas och läggs till i Google Sheets. Ett kodsteg räknar ut NPS från de extraherade poängen och sedan lägger en Google Sheets-nod till en ny rad så att din trendlinje växer över tid.
Du kan enkelt ändra spårade källor och kalkylarkets kolumner så att det matchar ditt rapportformat. Se hela implementationsguiden nedan för anpassningsalternativ.
Steg-för-steg-guide för implementering
Steg 1: konfigurera schematriggern
Det här arbetsflödet körs varje vecka för att samla in recensioner och beräkna ett NPS-värde.
- Lägg till triggernoden ⏰ Weekly NPS Scheduler.
- Ställ in veckoschemat så att det triggas på Monday kl. 09:00 (baserat på nodens konfiguration för veckointervall).
- Koppla ⏰ Weekly NPS Scheduler till ✏️ Define Review Page Link.
Steg 2: anslut Google Sheets
Det här steget definierar var de beräknade NPS-data ska lagras.
- Öppna 📄 Append NPS to Sheet.
- Inloggningsuppgifter krävs: anslut era googleSheetsOAuth2Api-inloggningsuppgifter.
- Ställ in Operation på
append. - Ställ in Spreadsheet till
[YOUR_ID]och Sheet tillSheet1(gid0). - Mappa kolumnerna till dessa uttryck: Total Responses →
{{ $json.totalResponses }}, Promoters →{{ $json.promoters }}, Passive →{{ $json.passives }}, Detractor →{{ $json.detractors }}, NPS →{{ $json.nps }}, summary →{{ $json.message }}.
Steg 3: konfigurera recensionskällan
Definiera URL:en till recensionssidan som agenten ska skrapa.
- Öppna ✏️ Define Review Page Link.
- Lägg till ett strängfält med namnet url med värdet
https://www.trustpilot.com/review/shopify.com. - Bekräfta kopplingen från ✏️ Define Review Page Link till 🧠 Gather Reviews via Agent.
Steg 4: konfigurera AI-agenten och verktygen
Dessa noder skrapar recensionssidan och tolkar strukturerade recensionsdata för poängsättning.
- Öppna 🧠 Gather Reviews via Agent och ställ in prompt-texten till
=Extract Customer reviews, Star ratings (1 to 5 stars), Comments (optional for deeper insight) and Date of review from the following url URL: {{ $json.url }}. - Öppna 🎯 Guide Agent Prompt och bekräfta att modellen är inställd på
gpt-4o-mini. Inloggningsuppgifter krävs: anslut era openAiApi-inloggningsuppgifter. - Öppna 🌐 Run Web Scrape Tool och bekräfta att Tool Name är
scrape_as_markdownoch att Tool Parameters är{{ /*n8n-auto-generated-fromAI-override*/ $fromAI('Tool_Parameters', ``, 'json') }}. Inloggningsuppgifter krävs: anslut era mcpClientApi-inloggningsuppgifter. - Öppna Structured Data Parser och bekräfta att JSON-schemaexemplet matchar ert förväntade recensionsformat.
- Öppna OpenAI Chat Engine och bekräfta att modellen är inställd på
gpt-4o-mini. Inloggningsuppgifter krävs: anslut era openAiApi-inloggningsuppgifter. - Observera att 🌐 Run Web Scrape Tool, Auto-Correct Output Parser och Structured Data Parser är AI-undernoder. Inloggningsuppgifter måste läggas till på föräldranoderna (🎯 Guide Agent Prompt och OpenAI Chat Engine), inte på undernoderna.
Steg 5: beräkna NPS-värdet
Det här steget omvandlar stjärnbetyg till ett NPS-värde och förbereder utdatafälten.
- Öppna 📊 Compute NPS from Scores och behåll JavaScript-logiken som den är för att konvertera 1–5 stjärnor till 0–10 NPS-grupper.
- Bekräfta att utdatafälten inkluderar totalResponses, promoters, passives, detractors, nps och message.
- Säkerställ att exekveringsflödet är 🧠 Gather Reviews via Agent → 📊 Compute NPS from Scores → 📄 Append NPS to Sheet.
items[0].json.output, kommer NPS-beräkningen att bli noll.Steg 6: testa och aktivera ert arbetsflöde
Kör ett manuellt test för att validera skrapning, poängsättning och uppdateringar i kalkylarket innan ni slår på schemat.
- Klicka på Execute Workflow för att köra ⏰ Weekly NPS Scheduler manuellt.
- Verifiera att 🧠 Gather Reviews via Agent ger strukturerade recensionsdata och att 📊 Compute NPS from Scores skapar NPS-sammanfattningsfälten.
- Bekräfta att en ny rad visas i Google Sheet med NPS-data från 📄 Append NPS to Sheet.
- Växla arbetsflödet till Active för att aktivera veckoschemat i produktion.
Se upp med
- Google Sheets-behörigheter kan gå ut eller kräva specifika rättigheter. Om det strular: kontrollera status för Google-anslutningen i n8n under Credentials och bekräfta att arket är delat med rätt Google-konto.
- Om du använder Wait-noder eller extern rendering varierar processtiderna. Öka väntetiden om noder längre fram fallerar på tomma svar.
- Standardprompter i AI-noder är generiska. Lägg in er tonalitet tidigt, annars kommer du att redigera outputs för alltid.
Vanliga frågor
Cirka en timme om dina konton och ditt Sheet är redo.
Ja. Du skriver ingen kod, men du kommer att kopiera behörigheter, välja URL:er och bekräfta att kolumnerna i ditt Google Sheet matchar arbetsflödet.
Ja. n8n har ett gratis self-hosted-alternativ och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volymer. Du behöver också räkna in OpenAI API-användning och din Bright Data-plan, som beror på hur många sidor du skrapar varje vecka.
Två alternativ: n8n Cloud (managed, enklast att komma igång med) eller self-hosting på en VPS. För self-hosting är Hostinger VPS prisvärt och hanterar n8n bra. Self-hosting ger dig obegränsade körningar men kräver grundläggande serverhantering.
Börja med att byta spårad källa i “Define Review Page Link” till din egen recensions- eller enkät-URL och justera sedan agentinstruktionerna i noden “Guide Agent Prompt” så att den extraherar de fält du bryr dig om. Om dina poäng kommer i en annan skala, justera koden i “Compute NPS from Scores” så att den mappar dem korrekt formaterat. Vanliga anpassningar är att spåra flera URL:er per körning, logga extra kolumner (som svarvolym) och lägga till en andra Google Sheet-flik för månadsvisa sammanställningar.
Oftast beror det på en utgången nyckel eller att Bright Data-zonen inte är tillåten för målsajten. Uppdatera behörigheterna i MCP Client tool-noden och kör sedan ett enskilt test för att se råsvaret. Om skrapningen returnerar en tom sida kan sajten servera en annan layout eller blockera den zonen, så testa en annan målkonfiguration i Bright Data.
För de flesta team är det här “en veckokörning per källa”, så volym är sällan den begränsande faktorn. På n8n Cloud Starter får du ett månatligt tak för antal körningar, och self-hosting tar bort det taket (din server blir begränsningen). I praktiken är flaskhalsen skrapning och AI-tolkningstid, inte att lägga till i Sheets.
Ofta, ja, eftersom det här flödet blandar skrapning, AI-tolkning och egen beräkning, och det är där Zapier eller Make kan bli dyrt eller krångligt. n8n hanterar grenlogik och kontroller av typen “gör något bara om datan ser rätt ut” utan att det blir en trasslig uppsättning zaps. Dessutom spelar self-hosting roll när du vill ha full kontroll och förutsägbara körningar. Samtidigt: om du bara behöver “enkätverktyg → Google Sheets” kan Zapier eller Make vara snabbare att komma igång med. Prata med en automationsexpert om du är osäker på vad som passar.
När det här väl rullar slutar din veckovisa NPS-uppdatering att vara ett återkommande måste och blir en pålitlig rutin. Arbetsflödet tar hand om det repetitiva så att du kan fokusera på vad trenden betyder.
Kontakta oss
Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.