Behöver ert företag hjälp med att implementera AI? Kontakta oss och få prisoffert här →
AI Skolan
januari 22, 2026

BrowserAct till Google Sheets: rensade leads

Rickard Andersson Partner, Nodenordic.se

Att kopiera företagslistningar från kataloger är den typen av jobb som ser ”snabbt” ut tills du har gjort det 40 gånger. Flikar överallt. Samma företag två gånger. Ett kalkylark som redan är rörigt innan du ens börjar med outreach.

Marknadschefer som försöker bygga nya prospektlistor känner det direkt. En säljare som gör lokal outreach fastnar i samma loop. Och driver du en byrå vet du hur BrowserAct Sheets leads-automationen ändrar tempot när kunder vill ha ”fler leads till fredag”.

Den här guiden visar hur detta n8n-flöde skrapar katalogresultat med BrowserAct, rensar datan och skriver avduplicerade rader till Google Sheets så att din leadlista är redo att använda.

Så fungerar automationsflödet

Här är hela flödet du kommer att sätta upp:

n8n Workflow Template: BrowserAct till Google Sheets: rensade leads

Därför spelar det roll: leadlistor blir röriga innan du ens börjar

Att skrapa kataloger låter enkelt tills du faktiskt gör det. Du söker i en kategori, öppnar 10 listningar, kopierar namn, webbplatser och telefonnummer, och inser sedan att hälften av de ”unika” resultaten är samma företag med olika formatering. Efter det måste du fortfarande normalisera kolumner, ta bort tomma fält och gissa vilken rad som är mest korrekt. Det värsta är den mentala belastningen. Du försöker göra arbete som kräver omdöme (vem passar?) samtidigt som du gör administrativt arbete (kopiera/klistra in, avduplicera, städa), och de två uppgifterna funkar dåligt ihop.

Det blir snabbt mycket. Här är var det fallerar i verkligheten.

  • Varje manuell export blir en städrunda som lätt kan sluka en timme per lista.
  • Dubbletter smyger sig in eftersom ”ACME Plumbing” och ”Acme Plumbing LLC” ser olika ut för någon som skummar snabbt.
  • Katalogsidor förändras, så din ”process” blir en skör uppsättning flikar och vanor.
  • Outreach går långsammare eftersom listan inte är pålitlig, vilket gör att du dubbelkollar rader i stället för att mejla.

Det du bygger: katalogskrapning som hamnar korrekt i Sheets

Det här flödet ger dig ett repeterbart sätt att skapa lokala leads utan att passa ett kalkylark. Du startar det manuellt i n8n, anger indata (företagskategori och stad), och n8n lämnar skrapjobbet till BrowserAct med en katalogmall som är byggd för ändamålet (som YP.com). BrowserAct kör skrapningen i bakgrunden och n8n kollar sedan när den är klar. När resultaten är redo parsar ett litet kodsteg den råa JSON-utdata till rena, individuella företagsposter. Till sist lägger Google Sheets till eller uppdaterar rader och matchar på ”Company Name” så att du inte fortsätter att lägga in samma lead igen.

Flödet börjar med en manuell start, kör sedan en ”starta skrapning”-förfrågan i BrowserAct och väntar på att den ska bli klar. Därefter omvandlar det råa skrapresultatet till användbara rader. Google Sheets blir slutdestinationen, med avdupliceringslogik inbyggd i hur raderna skrivs.

Det du bygger

Förväntade resultat

Säg att du bygger en lista per dag för lokal outreach: 50 företag från en katalog. Manuellt tar det ofta cirka 2 minuter per företag att hämta grunderna (namn, telefon, webbplats) och rensa dubbletter, plus cirka 30 minuter för att fixa arket, alltså runt 2 timmar. Med det här flödet lägger du cirka 2 minuter på att ange kategori och stad, väntar sedan på att BrowserAct blir klar, och raderna hamnar i Google Sheets redan strukturerade och avduplicerade. Den ”hands-on”-delen sjunker till minuter, inte timmar.

Innan du börjar

  • n8n-instans (prova n8n Cloud gratis)
  • Alternativ för egen drift om du föredrar det (Hostinger fungerar bra)
  • BrowserAct för att köra katalogskrapningen.
  • Google Sheets för att lagra och avduplicera leadlistan.
  • BrowserAct API-nyckel (hämta den i inställningarna för ditt BrowserAct-konto).

Svårighetsgrad: Medel. Du kopplar in inloggningar, klistrar in ett flöde och justerar ett par indata, men du kommer inte att bygga en app.

Vill du att någon bygger detta åt dig? Prata med en automations-expert (gratis 15-minuters konsultation).

Steg för steg

Manuell start med dina målparametrar. Du kör flödet och anger företagskategori och stad så att skrapningen matchar den marknad du faktiskt vill åt.

BrowserAct kör katalogskrapningen. n8n skickar ett jobb till BrowserAct med mallen ”Online Directory Lead Scraper (YP.com)”, och kollar sedan tillbaka i ett andra BrowserAct-steg för att bekräfta att jobbet är klart.

Råa resultat blir rena objekt. BrowserAct returnerar en enda JSON-sträng, så kodsteget parsar den och delar upp den till ett företag per objekt. Det är det som gör skrivningen till kalkylarket pålitlig.

Google Sheets blir din källa till sanning. Sista steget uppdaterar eller lägger till rader och matchar på ”Company Name”, vilket håller listan strukturerad när du kör samma sökning igen nästa vecka.

Du kan enkelt ändra kategori- och platsindata för att rikta in dig på en ny nisch eller expandera till närliggande städer utifrån dina behov. Se hela implementationsguiden nedan för anpassningsalternativ.

Steg-för-steg-guide för implementering

Steg 1: konfigurera den manuella triggern

Konfigurera den manuella startpunkten så att ni kan köra arbetsflödet vid behov när ni testar skrapningen och uppdateringarna i arket.

  1. Lägg till Manual Launch Trigger som första nod i arbetsflödet.
  2. Koppla Manual Launch Trigger till Initiate Scrape Task för att starta skrapflödet.

Steg 2: anslut BrowserAct

Dessa noder startar skraparbetsflödet och väntar på att det ska slutföras innan resultaten tolkas.

  1. Öppna Initiate Scrape Task och ställ in workflowId till [YOUR_ID].
  2. Under inputParameters bekräftar ni värdena: business_category = dentists och city_location = Brooklyn.
  3. Inloggningsuppgifter krävs: Anslut era browserActApi-inloggningsuppgifter i Initiate Scrape Task.
  4. Öppna Await Task Completion och ställ in taskId till {{ $json.id }}.
  5. Ställ in operation till getTask, waitForFinish till true, maxWaitTime till 600 och pollingInterval till 20.
  6. Inloggningsuppgifter krävs: Anslut era browserActApi-inloggningsuppgifter i Await Task Completion.

Steg 3: konfigurera Transform Parsed Items

Den här noden konverterar skraparens utdata-sträng till enskilda poster så att varje företag kan mappas till en rad i kalkylarket.

  1. Lägg till Transform Parsed Items och klistra in den tillhandahållna JavaScript-koden i jsCode.
  2. Säkerställ att koden läser indata från $input.first().json.output.string enligt skriptet.
  3. Koppla Await Task Completion till Transform Parsed Items.

⚠️ Vanlig fallgrop: Om $input.first().json.output.string saknas eller inte är giltig JSON kastar koden ett fel och arbetsflödet stoppas.

Steg 4: konfigurera Update Spreadsheet Rows

Lägg till eller uppdatera de tolkade företagen i ert Google Sheet med hjälp av kolumnmappningar.

  1. Lägg till Update Spreadsheet Rows och ställ in operation till appendOrUpdate.
  2. Ställ in documentId till [YOUR_ID] och sheetName till [YOUR_ID].
  3. Mappa kolumner enligt det definierade schemat: Company Name{{ $json.Name }}, Category{{ $json.Business }}, Phone Number{{ $json.Phone }}, Address{{ $json.Location }}.
  4. Ställ in matchingColumns till Company Name så att uppdateringar matchar befintliga rader.
  5. Inloggningsuppgifter krävs: Anslut era googleSheetsOAuth2Api-inloggningsuppgifter i Update Spreadsheet Rows.

Steg 5: testa och aktivera ert arbetsflöde

Kör ett fullständigt test för att bekräfta att skrapningen slutförs, att data tolkas och att rader skrivs till ert Google Sheet.

  1. Klicka på Execute Workflow i Manual Launch Trigger för att starta en testkörning.
  2. Verifiera att Await Task Completion returnerar utdata från uppgiften och att Transform Parsed Items skickar ut flera poster.
  3. Kontrollera kalkylarket för nyligen tillagda eller uppdaterade rader i målfliken.
  4. När resultaten ser korrekta ut, växla arbetsflödet till Active för användning i produktion.
🔒

Lås upp fullständig steg-för-steg-guide

Få den kompletta implementeringsguiden + nedladdningsbar mall

Felsökningstips

  • BrowserAct-inloggningar kan löpa ut eller API-token kan återkallas. Om det slutar fungera, kontrollera först din BrowserAct API-nyckel i BrowserAct-kontots inställningar och spara sedan om inloggningen i n8n.
  • Om du använder Wait-noder eller extern rendering varierar bearbetningstiderna. Öka väntetiden om efterföljande noder fallerar på tomma svar.
  • Standardprompter i AI-noder är generiska. Lägg in er tonalitet tidigt, annars kommer du att redigera utdata för alltid.

Snabba svar

Hur lång är uppsättningstiden för den här BrowserAct Sheets leads-automationen?

Cirka 30 minuter om dina BrowserAct- och Google-inloggningar är klara.

Krävs kodning för att få det här avdupliceringsresultatet?

Nej. Du använder det inkluderade kodsteget som det är och justerar bara indata som kategori och plats.

Är n8n gratis att använda för det här BrowserAct Sheets leads-flödet?

Ja. n8n har ett gratis alternativ för egen drift och en gratis provperiod på n8n Cloud. Cloud-planer startar på 20 USD/månad för högre volym. Du behöver också räkna in BrowserActs användningskostnader baserat på hur många skrapjobb du kör.

Var kan jag hosta n8n för att köra den här automationslösningen?

Två alternativ: n8n Cloud (hanterat, enklast uppsättning) eller egen drift på en VPS. För egen drift är Hostinger VPS prisvärd och hanterar n8n bra. Egen drift ger dig obegränsade körningar men kräver grundläggande serveradministration.

Kan jag modifiera det här BrowserAct Sheets leads-flödet för andra användningsfall?

Ja, och det bör du troligen. De flesta börjar med att byta BrowserAct-mall (katalogkälla) och indatafält (kategori och stad) i inställningen ”Run a workflow task”. Du kan också justera mappningen i Google Sheets om du vill ha extra kolumner som e-post, betyg eller adressformat. Om din katalog returnerar ”Company Name” inkonsekvent, byt avdupliceringsfält till webbdomän eller telefonnummer för att göra matchningen mer tillförlitlig.

Varför misslyckas min BrowserAct-anslutning i det här flödet?

Oftast är det en utgången eller felaktig API-nyckel i din BrowserAct-inloggning i n8n. Åtgärda det först och bekräfta sedan att BrowserAct-mallens workflow template ID som du anropar fortfarande finns i ditt konto. Om skrapningen startar men aldrig blir klar kan det också vara ett långkörande jobb och ditt steg för att ”vänta på slutförande” behöver en längre väntan innan status kontrolleras igen.

Vilken volym kan det här BrowserAct Sheets leads-flödet hantera?

Om du kör n8n med egen drift finns ingen körningsgräns (det beror främst på din server och BrowserActs genomströmning), och de flesta team kör några skrapningar per dag utan problem.

Är den här BrowserAct Sheets leads-automationen bättre än att använda Zapier eller Make?

Ofta ja, eftersom BrowserAct community-noden och mönstret ”vänta på att uppgiften blir klar” är enklare att styra i n8n. Du får också mer flexibel datahantering för JSON-parsning och radmappning, vilket spelar roll när katalogutdata varierar. En annan praktisk punkt: det här flödet är byggt för n8n med egen drift, så du kan göra många leaduttag utan att varje steg räknas som en betald task. Zapier eller Make kan fortfarande fungera bra för lätta flöden med två steg, men skrapning plus parsning blir ofta klumpigt där. Prata med en automations-expert om du vill ha en snabb rekommendation baserat på din leadvolym och dina verktyg.

När detta väl rullar slutar leadgenerering att vara ett kalkylarksjobb och börjar likna ett repeterbart system. Du sätter inriktningen, flödet gör grovjobbet, och din lista förblir strukturerad inför nästa kampanj.

Kontakta oss

Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.

×

Använd mall

Få direkt tillgång till denna n8n-arbetsflödes JSON-fil

Launch login modal Launch register modal