Behöver ert företag hjälp med att implementera AI? Kontakta oss och få prisoffert här →
AI Skolan
januari 22, 2026

Bright Data + Google Sheets: nps-trender du litar på

Rickard Andersson Partner, Nodenordic.se

Du kollar recensioner på tre ställen, skummar igenom enkätexporter på ett fjärde och försöker sedan “höfta” NPS i ett kalkylark som långsamt blir en enda röra. När du väl litar på siffran är den redan gammal. Och ärligt talat: ett enda fel filter eller en copy-paste kan vända hela berättelsen du drar för ledningen.

Det är här automatisering av NPS-trender ger effekt. Ansvariga för customer experience märker det när de förväntas leverera en veckopuls. Produktchefer behöver tydliga trendlinjer innan roadmap-diskussionerna. Byråägare som rapporterar till kunder fastnar i att reda ut “varför den här veckan ser konstig ut”.

Det här arbetsflödet använder Bright Data för att hämta feedback pålitligt, låter AI normalisera det som hittas, beräknar NPS och lägger sedan till en korrekt formaterad rad i Google Sheets varje vecka. Du får se vad det löser, vad du behöver och hur det körs.

Så fungerar automatiseringen

Se hur det här löser problemet:

n8n Workflow Template: Bright Data + Google Sheets: nps-trender du litar på

Utmaningen: veckovis NPS-rapportering som faktiskt går att jämföra

Veckovis NPS låter enkelt tills du har mer än en källa till feedback. Recensioner finns på publika sidor, enkäter kommer från olika verktyg och poängen presenteras i format som inte matchar. Så du skrapar, exporterar, klistrar in, “fixar till det” och undrar sedan om du missade något. Det värsta är den mentala belastningen: varje måndag (eller fredag) lär du dig samma steg på nytt, dubbelkollar samma kolumner och tvekar ändå innan du skickar uppdateringen, eftersom ett enda skrivfel kan skapa en falsk trend.

Det blir snabbt mycket. Här är var det brukar fallera.

  • Någon måste manuellt öppna flera recensionssidor och leta efter de senaste poängen, vilket är monotont och lätt att skjuta upp.
  • Copy-paste till Sheets ger subtila fel som förskjutna kolumner, blandade datumformat och duplicerade poster.
  • När källor ändrar layout eller blockerar skrapning blir hela “veckosiffran” tyst inaktuell.
  • Även när du får ut data blir det ett återkommande mini-projekt att göra en konsekvent NPS-beräkning.

Lösningen: automatiserad insamling, poängsättning och loggning av NPS

Det här arbetsflödet gör en veckovis NPS-uppdatering till en automatisk rutin du kan lita på. Det startar enligt schema, hämtar den recensions- eller enkätsida du bryr dig om och använder sedan ett skrapverktyg från Bright Data så att du minskar risken att bli blockerad eller få ofullständiga sidor. Därefter läser en AI-agent det som kommer tillbaka och plockar ut delarna du faktiskt behöver (poäng, antal och eventuella strukturerade signaler du har definierat). När poängen är normaliserade räknar arbetsflödet fram NPS i kod och lägger till en enda, konsekvent rad i Google Sheets. Ditt kalkylark blir sanningskällan, inte ett collage av inklistrade utdrag.

Arbetsflödet startar varje vecka och går sedan igenom tre faser: hämta senaste feedbacken, strukturera och tolka den med AI samt beräkna NPS från de extraherade poängen. Till sist loggar det resultatet i Google Sheets så att rapportering blir “öppna arket och titta”.

Vad som ändras: före vs. efter

Praktisk effekt i verkligheten

Säg att du varje vecka spårar NPS-signaler från tre ställen (en sida på en recensionsplattform, en enkätöversikt och en rapport från ett feedbackformulär). Manuellt tar det ofta runt 20 minuter per källa att öppna, extrahera, klistra in och rimlighetskontrollera, alltså ungefär en timme varje vecka. Med det här arbetsflödet lägger du kanske 10 minuter en gång på att ställa in källorna och dina kolumner i Google Sheet. Efter det loggar den schemalagda körningen den nya NPS-raden automatiskt, så din “veckouppdatering” är i princip att öppna arket.

Krav

  • n8n-instans (prova n8n Cloud gratis)
  • Alternativ för self-hosting om du föredrar det (Hostinger fungerar bra)
  • Bright Data för pålitlig åtkomst till web scraping.
  • Google Sheets för att lagra veckovisa NPS-rader.
  • OpenAI API-nyckel (hämta den i din OpenAI-dashboard).

Svårighetsgrad: Medel. Du kopplar konton, klistrar in behörigheter och justerar några fält som URL:er och kolumner i arket.

Behöver du hjälp att implementera detta? Prata med en automationsexpert (gratis 15-minuters konsultation).

Flödet i arbetsflödet

Ett veckoschema triggar körningen. Arbetsflödet startar med en veckovis schemaläggare, så du får en ny NPS-post i samma takt varje gång.

Din recensions- eller enkätlänk definieras. Ett enkelt steg för “set fields” sparar sidans URL (eller URL:er) du vill följa, vilket gör resten av arbetsflödet konsekvent.

Bright Data hämtar sidan och AI extraherar användbara signaler. Arbetsflödet använder Bright Datas skrapverktyg och sedan en AI-agent och output-parsers för att göra rörigt sidinnehåll till strukturerade värden som poäng och antal.

NPS beräknas och läggs till i Google Sheets. Ett kodsteg räknar ut NPS från de extraherade poängen och sedan lägger en Google Sheets-nod till en ny rad så att din trendlinje växer över tid.

Du kan enkelt ändra spårade källor och kalkylarkets kolumner så att det matchar ditt rapportformat. Se hela implementationsguiden nedan för anpassningsalternativ.

Steg-för-steg-guide för implementering

Steg 1: konfigurera schematriggern

Det här arbetsflödet körs varje vecka för att samla in recensioner och beräkna ett NPS-värde.

  1. Lägg till triggernoden ⏰ Weekly NPS Scheduler.
  2. Ställ in veckoschemat så att det triggas på Monday kl. 09:00 (baserat på nodens konfiguration för veckointervall).
  3. Koppla ⏰ Weekly NPS Scheduler till ✏️ Define Review Page Link.

Steg 2: anslut Google Sheets

Det här steget definierar var de beräknade NPS-data ska lagras.

  1. Öppna 📄 Append NPS to Sheet.
  2. Inloggningsuppgifter krävs: anslut era googleSheetsOAuth2Api-inloggningsuppgifter.
  3. Ställ in Operationappend.
  4. Ställ in Spreadsheet till [YOUR_ID] och Sheet till Sheet1 (gid 0).
  5. Mappa kolumnerna till dessa uttryck: Total Responses{{ $json.totalResponses }}, Promoters{{ $json.promoters }}, Passive{{ $json.passives }}, Detractor{{ $json.detractors }}, NPS{{ $json.nps }}, summary{{ $json.message }}.

Steg 3: konfigurera recensionskällan

Definiera URL:en till recensionssidan som agenten ska skrapa.

  1. Öppna ✏️ Define Review Page Link.
  2. Lägg till ett strängfält med namnet url med värdet https://www.trustpilot.com/review/shopify.com.
  3. Bekräfta kopplingen från ✏️ Define Review Page Link till 🧠 Gather Reviews via Agent.

Steg 4: konfigurera AI-agenten och verktygen

Dessa noder skrapar recensionssidan och tolkar strukturerade recensionsdata för poängsättning.

  1. Öppna 🧠 Gather Reviews via Agent och ställ in prompt-texten till =Extract Customer reviews, Star ratings (1 to 5 stars), Comments (optional for deeper insight) and Date of review from the following url URL: {{ $json.url }}.
  2. Öppna 🎯 Guide Agent Prompt och bekräfta att modellen är inställd på gpt-4o-mini. Inloggningsuppgifter krävs: anslut era openAiApi-inloggningsuppgifter.
  3. Öppna 🌐 Run Web Scrape Tool och bekräfta att Tool Name är scrape_as_markdown och att Tool Parameters är {{ /*n8n-auto-generated-fromAI-override*/ $fromAI('Tool_Parameters', ``, 'json') }}. Inloggningsuppgifter krävs: anslut era mcpClientApi-inloggningsuppgifter.
  4. Öppna Structured Data Parser och bekräfta att JSON-schemaexemplet matchar ert förväntade recensionsformat.
  5. Öppna OpenAI Chat Engine och bekräfta att modellen är inställd på gpt-4o-mini. Inloggningsuppgifter krävs: anslut era openAiApi-inloggningsuppgifter.
  6. Observera att 🌐 Run Web Scrape Tool, Auto-Correct Output Parser och Structured Data Parser är AI-undernoder. Inloggningsuppgifter måste läggas till på föräldranoderna (🎯 Guide Agent Prompt och OpenAI Chat Engine), inte på undernoderna.

Om agentens utdataformat ändras, uppdatera schemaexemplet i Structured Data Parser så att det matchar den nya strukturen för att undvika tolkningsfel.

Steg 5: beräkna NPS-värdet

Det här steget omvandlar stjärnbetyg till ett NPS-värde och förbereder utdatafälten.

  1. Öppna 📊 Compute NPS from Scores och behåll JavaScript-logiken som den är för att konvertera 1–5 stjärnor till 0–10 NPS-grupper.
  2. Bekräfta att utdatafälten inkluderar totalResponses, promoters, passives, detractors, nps och message.
  3. Säkerställ att exekveringsflödet är 🧠 Gather Reviews via Agent📊 Compute NPS from Scores📄 Append NPS to Sheet.

⚠️ Vanlig fallgrop: om 🧠 Gather Reviews via Agent inte returnerar en lista med recensioner i items[0].json.output, kommer NPS-beräkningen att bli noll.

Steg 6: testa och aktivera ert arbetsflöde

Kör ett manuellt test för att validera skrapning, poängsättning och uppdateringar i kalkylarket innan ni slår på schemat.

  1. Klicka på Execute Workflow för att köra ⏰ Weekly NPS Scheduler manuellt.
  2. Verifiera att 🧠 Gather Reviews via Agent ger strukturerade recensionsdata och att 📊 Compute NPS from Scores skapar NPS-sammanfattningsfälten.
  3. Bekräfta att en ny rad visas i Google Sheet med NPS-data från 📄 Append NPS to Sheet.
  4. Växla arbetsflödet till Active för att aktivera veckoschemat i produktion.
🔒

Lås upp fullständig steg-för-steg-guide

Få den kompletta implementeringsguiden + nedladdningsbar mall

Se upp med

  • Google Sheets-behörigheter kan gå ut eller kräva specifika rättigheter. Om det strular: kontrollera status för Google-anslutningen i n8n under Credentials och bekräfta att arket är delat med rätt Google-konto.
  • Om du använder Wait-noder eller extern rendering varierar processtiderna. Öka väntetiden om noder längre fram fallerar på tomma svar.
  • Standardprompter i AI-noder är generiska. Lägg in er tonalitet tidigt, annars kommer du att redigera outputs för alltid.

Vanliga frågor

Hur snabbt kan jag implementera den här automatiseringen av NPS-trender?

Cirka en timme om dina konton och ditt Sheet är redo.

Kan icke-tekniska team implementera den här automatiseringen av NPS-trender?

Ja. Du skriver ingen kod, men du kommer att kopiera behörigheter, välja URL:er och bekräfta att kolumnerna i ditt Google Sheet matchar arbetsflödet.

Är n8n gratis att använda för det här arbetsflödet för automatisering av NPS-trender?

Ja. n8n har ett gratis self-hosted-alternativ och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volymer. Du behöver också räkna in OpenAI API-användning och din Bright Data-plan, som beror på hur många sidor du skrapar varje vecka.

Var kan jag hosta n8n för att köra den här automatiseringen?

Två alternativ: n8n Cloud (managed, enklast att komma igång med) eller self-hosting på en VPS. För self-hosting är Hostinger VPS prisvärt och hanterar n8n bra. Self-hosting ger dig obegränsade körningar men kräver grundläggande serverhantering.

Hur anpassar jag den här lösningen för automatisering av NPS-trender till mina specifika utmaningar?

Börja med att byta spårad källa i “Define Review Page Link” till din egen recensions- eller enkät-URL och justera sedan agentinstruktionerna i noden “Guide Agent Prompt” så att den extraherar de fält du bryr dig om. Om dina poäng kommer i en annan skala, justera koden i “Compute NPS from Scores” så att den mappar dem korrekt formaterat. Vanliga anpassningar är att spåra flera URL:er per körning, logga extra kolumner (som svarvolym) och lägga till en andra Google Sheet-flik för månadsvisa sammanställningar.

Varför misslyckas min Bright Data-anslutning i det här arbetsflödet?

Oftast beror det på en utgången nyckel eller att Bright Data-zonen inte är tillåten för målsajten. Uppdatera behörigheterna i MCP Client tool-noden och kör sedan ett enskilt test för att se råsvaret. Om skrapningen returnerar en tom sida kan sajten servera en annan layout eller blockera den zonen, så testa en annan målkonfiguration i Bright Data.

Vilken kapacitet har den här lösningen för automatisering av NPS-trender?

För de flesta team är det här “en veckokörning per källa”, så volym är sällan den begränsande faktorn. På n8n Cloud Starter får du ett månatligt tak för antal körningar, och self-hosting tar bort det taket (din server blir begränsningen). I praktiken är flaskhalsen skrapning och AI-tolkningstid, inte att lägga till i Sheets.

Är den här automatiseringen av NPS-trender bättre än att använda Zapier eller Make?

Ofta, ja, eftersom det här flödet blandar skrapning, AI-tolkning och egen beräkning, och det är där Zapier eller Make kan bli dyrt eller krångligt. n8n hanterar grenlogik och kontroller av typen “gör något bara om datan ser rätt ut” utan att det blir en trasslig uppsättning zaps. Dessutom spelar self-hosting roll när du vill ha full kontroll och förutsägbara körningar. Samtidigt: om du bara behöver “enkätverktyg → Google Sheets” kan Zapier eller Make vara snabbare att komma igång med. Prata med en automationsexpert om du är osäker på vad som passar.

När det här väl rullar slutar din veckovisa NPS-uppdatering att vara ett återkommande måste och blir en pålitlig rutin. Arbetsflödet tar hand om det repetitiva så att du kan fokusera på vad trenden betyder.

Kontakta oss

Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.

×

Använd mall

Få direkt tillgång till denna n8n-arbetsflödes JSON-fil

Få prisoffert redan idag!
Få prisoffert redan idag!

Berätta vad ni behöver hjälp med så hör vi av oss inom en arbetsdag!

Få prisoffert redan idag!
Få prisoffert redan idag!

Berätta vad ni behöver hjälp med så hör vi av oss inom en arbetsdag!

Launch login modal Launch register modal