Behöver ert företag hjälp med att implementera AI? Kontakta oss och få prisoffert här →
AI Skolan
January 22, 2026

Bright Data + Google Sheets: DNB-leadlistor

Rickard Andersson Partner, Nodenordic.se

Att hämta företagsdata från DNB låter enkelt tills du har gjort det i en timme. Flikar överallt, fälten linjerar inte, och en missad rad i en adress förstör ditt ark senare.

Demand gen-ansvariga märker det när listor stannar av. Marknadsanalytiker fastnar i att rensa i stället för att analysera. Och grundare som gör sin egen outbound kör in i samma vägg. Den här DNB lead automation gör “kopiera, klistra in, fixa, upprepa” till en korrekt formaterad rad i Google Sheets.

Nedan ser du hur flödet hittar rätt DNB-profil, skrapar den pålitligt, extraherar konsekventa fält med AI och sparar resultatet där teamet faktiskt kan använda det.

Så fungerar automatiseringen

Det fullständiga n8n-flödet, från trigger till slutlig output:

n8n Workflow Template: Bright Data + Google Sheets: DNB-leadlistor

Problemet: DNB-datainsamling är långsam och inkonsekvent

Dun & Bradstreet-profiler är fulla av värdefulla detaljer, men att få in dem i en användbar leadlista är ett slit. Du söker, öppnar träffar, bekräftar att du har rätt bolag och kopierar sedan fält in i ett ark som aldrig var byggt för att ta emot “webbsidesformad” data. Det värsta är efterarbetet. En profil listar antal anställda som text, en annan använder ett intervall, och plötsligt skapar dina filter fel. Multiplicera det med 30 bolag och du har bränt en morgon på arbete som känns… ärligt talat meningslöst.

Friktionen byggs på. Här faller det isär oftast:

  • Du tappar tid bara på att hitta rätt DNB-URL för varje bolag, särskilt när namn är lika.
  • Kopiera/klistra skapar subtila fel i adresser, branscher och företagsidentifierare som dyker upp dagar senare.
  • Olika personer “standardiserar” fält på olika sätt, så din leadlista blir svår att lita på.
  • När du vill uppdatera listan nästa månad slutar det med att du upprepar hela processen från början.

Lösningen: Bright Data hämtar DNB-profiler till Sheets automatiskt

Det här flödet automatiserar hela pipelinen: sök, skrapa, extrahera och leverera. Det startar med ett enkelt input (din företagssökfråga) och använder Bright Datas MCP-sökverktyg för att hitta den mest sannolika DNB-profilen via Google-resultat. När det har URL:en skrapar det DNB-sidan och konverterar den till markdown som är enklare för en AI-modell att tolka. Sedan parsar OpenAI (konfigurerat i n8n) markdownen till strukturerade fält som företagsnamn, adress, bransch och storlek. Till sist skickar flödet den strukturerade payloaden till en webhook och sparar en lokal fil för loggning, så att du både kan “använda det nu” och “granska det senare”.

Flödet börjar när du kör det i n8n och anger din sökfråga. Bright Data sköter discovery och skrapning, sedan gör OpenAI om den stökiga sidan till konsekvent data. Därifrån kan du routa slutresultatet till Google Sheets (och behålla en sparad kopia på disk) utan att behöva göra om processen varje gång.

Vad du får: automatisering vs. resultat

Exempel: så här ser det ut

Säg att du bygger en lista med 40 målkonton för outbound. Manuellt kanske du lägger cirka 5 minuter på att hitta rätt DNB-sida och ytterligare 5 minuter på att kopiera fält till Google Sheets, alltså ungefär 10 minuter per bolag (runt 6 timmar totalt). Med det här flödet anger du sökfrågan en gång och låter det köra: en minut för att starta, sedan processtid medan Bright Data skrapar och AI:n extraherar. Du får strukturerade resultat redo att trycka in i Sheets, och du fastnar inte längre i flikbytarpurgatoriet.

Det här behöver du

  • n8n-instans (testa n8n Cloud gratis)
  • Alternativ för egen hosting om du föredrar det (Hostinger fungerar bra)
  • Bright Data för MCP-sökning + web scraping.
  • Google Sheets för att lagra och dela leadrader.
  • OpenAI API-nyckel (skapa en i din OpenAI-dashboard).

Kunskapsnivå: Medel. Du kopplar in inloggningar och är bekväm med att redigera prompter och fält, men du behöver inte skriva “riktig kod”.

Vill du inte sätta upp detta själv? Prata med en automationsexpert (gratis 15-minuters konsultation).

Så fungerar det

Du definierar sökinput. Flödet startar med en manuell körning i n8n och ett “Set”-steg där du anger en search_query (och en valfri webhook-URL för leveransnotis).

Bright Data hittar rätt DNB-sida. Med MCP-klienten gör det ett sökmotoranrop och skickar resultaten till ett AI-extraktionssteg som plockar ut den mest relevanta DNB-URL:en för företagsprofilen.

DNB-profilen skrapas och struktureras upp. Bright Data skrapar profilsidan och returnerar den som markdown, vilket är mycket enklare att parsa än rå HTML.

OpenAI gör om sidan till strukturerade fält. AI-steget extraherar en konsekvent uppsättning attribut (namn, adress, bransch, storlek och liknande fält) och skickar sedan slutdata till din webhook samt sparar en strukturerad fil för loggning.

Du kan enkelt ändra vilka fält som extraheras för att inkludera till exempel omsättning, vd eller betyg utifrån dina behov. Se hela implementationsguiden nedan för alternativ för anpassning.

Steg-för-steg-guide för implementation

Steg 1: konfigurera den manuella triggern

Starta arbetsflödet med en manuell trigger så att ni kan testa och iterera på dataextraktionsflödet vid behov.

  1. Lägg till noden Manual Launch Trigger som arbetsflödets trigger.
  2. Koppla Manual Launch Trigger till Retrieve Bright Data Tools för att matcha exekveringsflödet.

Steg 2: anslut MCP-verktygen och inparametrarna

Det här steget ansluter Bright Data MCP-verktygen och definierar sök-inmatningen och webhook-URL:en som används genom hela arbetsflödet.

  1. Öppna Retrieve Bright Data Tools och välj rätt MCP-credentials. Credential Required: Anslut era mcpClientApi-credentials.
  2. I Define Input Parameters, ställ in webhook_notification_url till https://webhook.site/[YOUR_ID].
  3. I Define Input Parameters, ställ in search till dnb starbucks url (eller er målfråga).
  4. Koppla Retrieve Bright Data Tools till Define Input Parameters för att behålla flödesordningen.

Tips: Använd en dedikerad webhook-URL under testning så att ni kan inspektera payloads oberoende av produktionssystem.

Steg 3: konfigurera pipeline för sökning och URL-extraktion

Dessa noder hämtar sökresultat, extraherar DNB-URL:er med en LLM och förbereder ett strukturerat utdata-schema.

  1. Öppna Search Engine MCP Call och ställ in Tool Name till search_engine och Operation till executeTool.
  2. Ställ in Tool Parameters till ={ "query": "{{ $json.search }}", "engine": "google" } i Search Engine MCP Call. Credential Required: Anslut era mcpClientApi-credentials.
  3. I Extract DNB URLs via LLM, ställ in Text till =Extract the URLs for DNB {{ $json.result.content[0].text }} och behåll Prompt Type som define.
  4. Öppna URL Output Schema Parser och ställ in JSON Schema Example till { "url": "url" }. Den här parsern är kopplad till Extract DNB URLs via LLM.
  5. Säkerställ att OpenAI URL Chat Model är ansluten som språkmodell för Extract DNB URLs via LLM. Credential Required: Anslut era openAiApi-credentials.

⚠️ Vanlig fallgrop: URL Output Schema Parser accepterar inte credentials. Om LLM:en misslyckas, bekräfta att OpenAI URL Chat Model har giltiga openAiApi-credentials.

Steg 4: skrapa DNB-innehåll och tolka företagsprofilen

Det här avsnittet skrapar DNB-sidan och extraherar en strukturerad företagsprofil med hjälp av LLM:en och en JSON-schema-parser.

  1. Konfigurera DNB Page Scrape MCP med Tool Name inställt på scrape_as_markdown och Operation inställt på executeTool.
  2. Ställ in Tool Parameters i DNB Page Scrape MCP till ={ "url": "{{ $json.output.url }}" } . Credential Required: Anslut era mcpClientApi-credentials.
  3. I LLM Company Profile Parse, ställ in Text till =Extract the Company Profile from {{ $json.result.content[0].text }} Output in a highly structured JSON format. och behåll Prompt Type som define.
  4. I Profile Schema Parser, behåll Schema Type som manual och klistra in hela JSON-schemat från arbetsflödet i Input Schema.
  5. Säkerställ att OpenAI Profile Chat Model är ansluten som språkmodell för LLM Company Profile Parse. Credential Required: Anslut era openAiApi-credentials.

⚠️ Vanlig fallgrop: Lägg inte till credentials i Profile Schema Parser. Credentials måste läggas till i OpenAI Profile Chat Model, som driver LLM Company Profile Parse.

Steg 5: konfigurera utdatadestinationer och parallell körning

Efter tolkning av profilen förgrenas arbetsflödet för att spara en fil och notifiera en webhook samtidigt.

  1. Bekräfta att LLM Company Profile Parse skickar utdata till både Build Binary Payload och Send Webhook Notification parallellt.
  2. I Build Binary Payload, behåll Function Code som items[0].binary = { data: { data: new Buffer(JSON.stringify(items[0].json, null, 2)).toString('base64') } }; return items;.
  3. I Save Structured File, ställ in Operation till write och File Name till =d:\DNB_Info.json.
  4. I Send Webhook Notification, ställ in URL till ={{ $('Define Input Parameters').item.json.webhook_notification_url }} och aktivera Send Body.
  5. I Send Webhook Notification, ställ in body-parametern dnb_company_info till ={{ $json.output }}.

Tips: Om er n8n-instans körs på Linux, uppdatera Save Structured File till en Linux-liknande sökväg för att undvika filskrivningsfel.

Steg 6: testa och aktivera ert arbetsflöde

Kör arbetsflödet end-to-end för att validera sökresultat, skrapning, LLM-tolkning och leverans av utdata.

  1. Klicka på Execute WorkflowManual Launch Trigger för att köra flödet.
  2. Bekräfta att Search Engine MCP Call returnerar resultat och att Extract DNB URLs via LLM producerar en strukturerad URL.
  3. Verifiera att DNB Page Scrape MCP returnerar markdown-innehåll och att LLM Company Profile Parse matar ut strukturerad JSON.
  4. Kontrollera att Save Structured File skriver d:\DNB_Info.json och att Send Webhook Notification tar emot payloaden.
  5. När allt ser korrekt ut, växla arbetsflödet till Active för produktionsanvändning.
🔒

Lås upp fullständig steg-för-steg-guide

Få den kompletta implementeringsguiden + nedladdningsbar mall

Vanliga fallgropar

  • Bright Data-inloggningar kan löpa ut eller kräva specifika behörigheter. Om det slutar fungera, kontrollera först din Bright Data API-token och anslutningsinställningarna för MCP-servern.
  • Om du använder Wait-noder eller extern rendering varierar processtiderna. Öka väntetiden om nedströms noder fallerar på tomma svar.
  • Standardprompter i AI-noder är generiska. Lägg in din tonalitet tidigt, annars kommer du att sitta och redigera output för alltid.

Vanliga frågor

Hur lång tid tar det att sätta upp denna DNB lead automation-automatisering?

Cirka en timme om dina Bright Data- och OpenAI-inloggningar är klara.

Behöver jag programmeringskunskaper för att automatisera DNB lead automation?

Nej. Du klistrar mest in inloggningar, ändrar en sökfråga och justerar vilka fält du vill ha i slutoutput.

Är n8n gratis att använda för det här DNB lead automation-flödet?

Ja. n8n har ett gratis alternativ för egen hosting och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna med OpenAI API-kostnader (ofta ören per företagsprofil) och din Bright Data-användning.

Var kan jag hosta n8n för att köra den här automatiseringen?

Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller egen hosting på en VPS. För egen hosting är Hostinger VPS prisvärd och kör n8n bra. Egen hosting ger obegränsat antal körningar men kräver grundläggande serverhantering.

Kan jag anpassa det här DNB lead automation-flödet för att extrahera extra fält som omsättning?

Ja, och det är en av de bästa anledningarna att använda n8n för detta. Uppdatera prompten i extraktionssteget “LLM Company Profile Parse” för att begära omsättning, vd-namn, webbplats eller vad du nu behöver. Om du vill ändra hur flödet hittar företag, justera sökfrågelogiken i “Define Input Parameters” och URL-valet i steget “Extract DNB URLs via LLM”. Du kan också routa output till någon annanstans (Notion, Airtable, HubSpot) genom att lägga till en nod efter webhook/filsparningen.

Varför fallerar min Bright Data-anslutning i det här flödet?

Oftast beror det på en ogiltig eller utgången API-token i din MCP-klientkonfiguration. Kopiera in Bright Data API_TOKEN på nytt i din MCP-servermiljö och testa sedan MCP-klientens inloggningar igen i n8n. Om tokenen är okej, kontrollera att din Bright Data-zone (till exempel en Web Unlocker-setup) är korrekt konfigurerad och aktiv. Rate limits kan också visa sig som “slumpmässiga” fel när du kör stora batchar back-to-back.

Hur många företagsprofiler kan den här DNB lead automation-automatiseringen hantera?

Om du kör n8n med egen hosting finns ingen körningsgräns, så begränsningen är främst din server och din Bright Data/OpenAI-användning. På n8n Cloud avgör din plan antalet körningar per månad, så berikning i hög volym innebär oftast att uppgradera. I praktiken kör de flesta team detta i batchar (som 20–100 företag åt gången) för att hålla skrapning och extraktion stabil och lätt att stickprovsgranska.

Är den här DNB lead automation-automatiseringen bättre än att använda Zapier eller Make?

Ofta ja, eftersom det här inte är en enkel “om X så Y”-zap. Du kedjar sökning, skrapning, AI-extraktion, strukturerad parsning och byggande av anpassade payloads, och n8n hanterar den typen av grenar och logik utan att bli en prissättningsmardröm. Alternativet med egen hosting spelar också roll om du vill köra många uppslag. Zapier eller Make kan fortfarande fungera för lättare berikning, men skrapning plus AI blir snabbt klumpigt. Prata med en automationsexpert om du vill ha en snabb rekommendation baserat på din volym och dina verktyg.

När detta väl kör blir “bygga en strukturerad DNB-lista” inte längre ett projekt. Det blir en repeterbar knapp du kan trycka på när pipelinen behöver nya konton.

Kontakta oss

Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.

×

Använd mall

Få direkt tillgång till denna n8n-arbetsflödes JSON-fil

Launch login modal Launch register modal