Att hämta företagsdata från DNB låter enkelt tills du har gjort det i en timme. Flikar överallt, fälten linjerar inte, och en missad rad i en adress förstör ditt ark senare.
Demand gen-ansvariga märker det när listor stannar av. Marknadsanalytiker fastnar i att rensa i stället för att analysera. Och grundare som gör sin egen outbound kör in i samma vägg. Den här DNB lead automation gör “kopiera, klistra in, fixa, upprepa” till en korrekt formaterad rad i Google Sheets.
Nedan ser du hur flödet hittar rätt DNB-profil, skrapar den pålitligt, extraherar konsekventa fält med AI och sparar resultatet där teamet faktiskt kan använda det.
Så fungerar automatiseringen
Det fullständiga n8n-flödet, från trigger till slutlig output:
n8n Workflow Template: Bright Data + Google Sheets: DNB-leadlistor
flowchart LR
subgraph sg0["When clicking ‘Test workflow’ Flow"]
direction LR
n0@{ icon: "mdi:play-circle", form: "rounded", label: "When clicking ‘Test workflow’", pos: "b", h: 48 }
n1@{ icon: "mdi:swap-vertical", form: "rounded", label: "Set input fields", pos: "b", h: 48 }
n2@{ icon: "mdi:cog", form: "rounded", label: "List all tools for Bright Data", pos: "b", h: 48 }
n3@{ icon: "mdi:cog", form: "rounded", label: "MCP Client for Search Engine", pos: "b", h: 48 }
n4@{ icon: "mdi:cog", form: "rounded", label: "Bright Data MCP Client For DNB", pos: "b", h: 48 }
n5@{ icon: "mdi:robot", form: "rounded", label: "DNB URL Data Extract Using LLM", pos: "b", h: 48 }
n6@{ icon: "mdi:robot", form: "rounded", label: "DNB Structured Data Extract ..", pos: "b", h: 48 }
n7@{ icon: "mdi:code-braces", form: "rounded", label: "Create a binary data for Str..", pos: "b", h: 48 }
n8@{ icon: "mdi:cog", form: "rounded", label: "Write the structured content..", pos: "b", h: 48 }
n9["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/httprequest.dark.svg' width='40' height='40' /></div><br/>Initiate a Webhook Notificat.."]
n10@{ icon: "mdi:robot", form: "rounded", label: "Structured Output Parser for..", pos: "b", h: 48 }
n11@{ icon: "mdi:robot", form: "rounded", label: "Structured Output Parser for..", pos: "b", h: 48 }
n12@{ icon: "mdi:brain", form: "rounded", label: "OpenAI Chat Model for URL Da..", pos: "b", h: 48 }
n13@{ icon: "mdi:brain", form: "rounded", label: "OpenAI Chat Model for DNB St..", pos: "b", h: 48 }
n1 --> n3
n3 --> n5
n4 --> n6
n5 --> n4
n2 --> n1
n10 -.-> n5
n0 --> n2
n6 --> n7
n6 --> n9
n12 -.-> n5
n11 -.-> n6
n7 --> n8
n13 -.-> n6
end
%% Styling
classDef trigger fill:#e8f5e9,stroke:#388e3c,stroke-width:2px
classDef ai fill:#e3f2fd,stroke:#1976d2,stroke-width:2px
classDef aiModel fill:#e8eaf6,stroke:#3f51b5,stroke-width:2px
classDef decision fill:#fff8e1,stroke:#f9a825,stroke-width:2px
classDef database fill:#fce4ec,stroke:#c2185b,stroke-width:2px
classDef api fill:#fff3e0,stroke:#e65100,stroke-width:2px
classDef code fill:#f3e5f5,stroke:#7b1fa2,stroke-width:2px
classDef disabled stroke-dasharray: 5 5,opacity: 0.5
class n0 trigger
class n5,n6,n10,n11 ai
class n12,n13 aiModel
class n9 api
class n7 code
classDef customIcon fill:none,stroke:none
class n9 customIcon
Problemet: DNB-datainsamling är långsam och inkonsekvent
Dun & Bradstreet-profiler är fulla av värdefulla detaljer, men att få in dem i en användbar leadlista är ett slit. Du söker, öppnar träffar, bekräftar att du har rätt bolag och kopierar sedan fält in i ett ark som aldrig var byggt för att ta emot “webbsidesformad” data. Det värsta är efterarbetet. En profil listar antal anställda som text, en annan använder ett intervall, och plötsligt skapar dina filter fel. Multiplicera det med 30 bolag och du har bränt en morgon på arbete som känns… ärligt talat meningslöst.
Friktionen byggs på. Här faller det isär oftast:
- Du tappar tid bara på att hitta rätt DNB-URL för varje bolag, särskilt när namn är lika.
- Kopiera/klistra skapar subtila fel i adresser, branscher och företagsidentifierare som dyker upp dagar senare.
- Olika personer “standardiserar” fält på olika sätt, så din leadlista blir svår att lita på.
- När du vill uppdatera listan nästa månad slutar det med att du upprepar hela processen från början.
Lösningen: Bright Data hämtar DNB-profiler till Sheets automatiskt
Det här flödet automatiserar hela pipelinen: sök, skrapa, extrahera och leverera. Det startar med ett enkelt input (din företagssökfråga) och använder Bright Datas MCP-sökverktyg för att hitta den mest sannolika DNB-profilen via Google-resultat. När det har URL:en skrapar det DNB-sidan och konverterar den till markdown som är enklare för en AI-modell att tolka. Sedan parsar OpenAI (konfigurerat i n8n) markdownen till strukturerade fält som företagsnamn, adress, bransch och storlek. Till sist skickar flödet den strukturerade payloaden till en webhook och sparar en lokal fil för loggning, så att du både kan “använda det nu” och “granska det senare”.
Flödet börjar när du kör det i n8n och anger din sökfråga. Bright Data sköter discovery och skrapning, sedan gör OpenAI om den stökiga sidan till konsekvent data. Därifrån kan du routa slutresultatet till Google Sheets (och behålla en sparad kopia på disk) utan att behöva göra om processen varje gång.
Vad du får: automatisering vs. resultat
| Vad det här flödet automatiserar | Resultat du får |
|---|---|
|
|
Exempel: så här ser det ut
Säg att du bygger en lista med 40 målkonton för outbound. Manuellt kanske du lägger cirka 5 minuter på att hitta rätt DNB-sida och ytterligare 5 minuter på att kopiera fält till Google Sheets, alltså ungefär 10 minuter per bolag (runt 6 timmar totalt). Med det här flödet anger du sökfrågan en gång och låter det köra: en minut för att starta, sedan processtid medan Bright Data skrapar och AI:n extraherar. Du får strukturerade resultat redo att trycka in i Sheets, och du fastnar inte längre i flikbytarpurgatoriet.
Det här behöver du
- n8n-instans (testa n8n Cloud gratis)
- Alternativ för egen hosting om du föredrar det (Hostinger fungerar bra)
- Bright Data för MCP-sökning + web scraping.
- Google Sheets för att lagra och dela leadrader.
- OpenAI API-nyckel (skapa en i din OpenAI-dashboard).
Kunskapsnivå: Medel. Du kopplar in inloggningar och är bekväm med att redigera prompter och fält, men du behöver inte skriva “riktig kod”.
Vill du inte sätta upp detta själv? Prata med en automationsexpert (gratis 15-minuters konsultation).
Så fungerar det
Du definierar sökinput. Flödet startar med en manuell körning i n8n och ett “Set”-steg där du anger en search_query (och en valfri webhook-URL för leveransnotis).
Bright Data hittar rätt DNB-sida. Med MCP-klienten gör det ett sökmotoranrop och skickar resultaten till ett AI-extraktionssteg som plockar ut den mest relevanta DNB-URL:en för företagsprofilen.
DNB-profilen skrapas och struktureras upp. Bright Data skrapar profilsidan och returnerar den som markdown, vilket är mycket enklare att parsa än rå HTML.
OpenAI gör om sidan till strukturerade fält. AI-steget extraherar en konsekvent uppsättning attribut (namn, adress, bransch, storlek och liknande fält) och skickar sedan slutdata till din webhook samt sparar en strukturerad fil för loggning.
Du kan enkelt ändra vilka fält som extraheras för att inkludera till exempel omsättning, vd eller betyg utifrån dina behov. Se hela implementationsguiden nedan för alternativ för anpassning.
Steg-för-steg-guide för implementation
Steg 1: konfigurera den manuella triggern
Starta arbetsflödet med en manuell trigger så att ni kan testa och iterera på dataextraktionsflödet vid behov.
- Lägg till noden Manual Launch Trigger som arbetsflödets trigger.
- Koppla Manual Launch Trigger till Retrieve Bright Data Tools för att matcha exekveringsflödet.
Steg 2: anslut MCP-verktygen och inparametrarna
Det här steget ansluter Bright Data MCP-verktygen och definierar sök-inmatningen och webhook-URL:en som används genom hela arbetsflödet.
- Öppna Retrieve Bright Data Tools och välj rätt MCP-credentials. Credential Required: Anslut era mcpClientApi-credentials.
- I Define Input Parameters, ställ in webhook_notification_url till
https://webhook.site/[YOUR_ID]. - I Define Input Parameters, ställ in search till
dnb starbucks url(eller er målfråga). - Koppla Retrieve Bright Data Tools till Define Input Parameters för att behålla flödesordningen.
Steg 3: konfigurera pipeline för sökning och URL-extraktion
Dessa noder hämtar sökresultat, extraherar DNB-URL:er med en LLM och förbereder ett strukturerat utdata-schema.
- Öppna Search Engine MCP Call och ställ in Tool Name till
search_engineoch Operation tillexecuteTool. - Ställ in Tool Parameters till
={ "query": "{{ $json.search }}", "engine": "google" }i Search Engine MCP Call. Credential Required: Anslut era mcpClientApi-credentials. - I Extract DNB URLs via LLM, ställ in Text till
=Extract the URLs for DNB {{ $json.result.content[0].text }}och behåll Prompt Type somdefine. - Öppna URL Output Schema Parser och ställ in JSON Schema Example till
{ "url": "url" }. Den här parsern är kopplad till Extract DNB URLs via LLM. - Säkerställ att OpenAI URL Chat Model är ansluten som språkmodell för Extract DNB URLs via LLM. Credential Required: Anslut era openAiApi-credentials.
Steg 4: skrapa DNB-innehåll och tolka företagsprofilen
Det här avsnittet skrapar DNB-sidan och extraherar en strukturerad företagsprofil med hjälp av LLM:en och en JSON-schema-parser.
- Konfigurera DNB Page Scrape MCP med Tool Name inställt på
scrape_as_markdownoch Operation inställt påexecuteTool. - Ställ in Tool Parameters i DNB Page Scrape MCP till
={ "url": "{{ $json.output.url }}" }. Credential Required: Anslut era mcpClientApi-credentials. - I LLM Company Profile Parse, ställ in Text till
=Extract the Company Profile from {{ $json.result.content[0].text }} Output in a highly structured JSON format.och behåll Prompt Type somdefine. - I Profile Schema Parser, behåll Schema Type som
manualoch klistra in hela JSON-schemat från arbetsflödet i Input Schema. - Säkerställ att OpenAI Profile Chat Model är ansluten som språkmodell för LLM Company Profile Parse. Credential Required: Anslut era openAiApi-credentials.
Steg 5: konfigurera utdatadestinationer och parallell körning
Efter tolkning av profilen förgrenas arbetsflödet för att spara en fil och notifiera en webhook samtidigt.
- Bekräfta att LLM Company Profile Parse skickar utdata till både Build Binary Payload och Send Webhook Notification parallellt.
- I Build Binary Payload, behåll Function Code som
items[0].binary = { data: { data: new Buffer(JSON.stringify(items[0].json, null, 2)).toString('base64') } }; return items;. - I Save Structured File, ställ in Operation till
writeoch File Name till=d:\DNB_Info.json. - I Send Webhook Notification, ställ in URL till
={{ $('Define Input Parameters').item.json.webhook_notification_url }}och aktivera Send Body. - I Send Webhook Notification, ställ in body-parametern dnb_company_info till
={{ $json.output }}.
Steg 6: testa och aktivera ert arbetsflöde
Kör arbetsflödet end-to-end för att validera sökresultat, skrapning, LLM-tolkning och leverans av utdata.
- Klicka på Execute Workflow på Manual Launch Trigger för att köra flödet.
- Bekräfta att Search Engine MCP Call returnerar resultat och att Extract DNB URLs via LLM producerar en strukturerad URL.
- Verifiera att DNB Page Scrape MCP returnerar markdown-innehåll och att LLM Company Profile Parse matar ut strukturerad JSON.
- Kontrollera att Save Structured File skriver
d:\DNB_Info.jsonoch att Send Webhook Notification tar emot payloaden. - När allt ser korrekt ut, växla arbetsflödet till Active för produktionsanvändning.
Vanliga fallgropar
- Bright Data-inloggningar kan löpa ut eller kräva specifika behörigheter. Om det slutar fungera, kontrollera först din Bright Data API-token och anslutningsinställningarna för MCP-servern.
- Om du använder Wait-noder eller extern rendering varierar processtiderna. Öka väntetiden om nedströms noder fallerar på tomma svar.
- Standardprompter i AI-noder är generiska. Lägg in din tonalitet tidigt, annars kommer du att sitta och redigera output för alltid.
Vanliga frågor
Cirka en timme om dina Bright Data- och OpenAI-inloggningar är klara.
Nej. Du klistrar mest in inloggningar, ändrar en sökfråga och justerar vilka fält du vill ha i slutoutput.
Ja. n8n har ett gratis alternativ för egen hosting och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna med OpenAI API-kostnader (ofta ören per företagsprofil) och din Bright Data-användning.
Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller egen hosting på en VPS. För egen hosting är Hostinger VPS prisvärd och kör n8n bra. Egen hosting ger obegränsat antal körningar men kräver grundläggande serverhantering.
Ja, och det är en av de bästa anledningarna att använda n8n för detta. Uppdatera prompten i extraktionssteget “LLM Company Profile Parse” för att begära omsättning, vd-namn, webbplats eller vad du nu behöver. Om du vill ändra hur flödet hittar företag, justera sökfrågelogiken i “Define Input Parameters” och URL-valet i steget “Extract DNB URLs via LLM”. Du kan också routa output till någon annanstans (Notion, Airtable, HubSpot) genom att lägga till en nod efter webhook/filsparningen.
Oftast beror det på en ogiltig eller utgången API-token i din MCP-klientkonfiguration. Kopiera in Bright Data API_TOKEN på nytt i din MCP-servermiljö och testa sedan MCP-klientens inloggningar igen i n8n. Om tokenen är okej, kontrollera att din Bright Data-zone (till exempel en Web Unlocker-setup) är korrekt konfigurerad och aktiv. Rate limits kan också visa sig som “slumpmässiga” fel när du kör stora batchar back-to-back.
Om du kör n8n med egen hosting finns ingen körningsgräns, så begränsningen är främst din server och din Bright Data/OpenAI-användning. På n8n Cloud avgör din plan antalet körningar per månad, så berikning i hög volym innebär oftast att uppgradera. I praktiken kör de flesta team detta i batchar (som 20–100 företag åt gången) för att hålla skrapning och extraktion stabil och lätt att stickprovsgranska.
Ofta ja, eftersom det här inte är en enkel “om X så Y”-zap. Du kedjar sökning, skrapning, AI-extraktion, strukturerad parsning och byggande av anpassade payloads, och n8n hanterar den typen av grenar och logik utan att bli en prissättningsmardröm. Alternativet med egen hosting spelar också roll om du vill köra många uppslag. Zapier eller Make kan fortfarande fungera för lättare berikning, men skrapning plus AI blir snabbt klumpigt. Prata med en automationsexpert om du vill ha en snabb rekommendation baserat på din volym och dina verktyg.
När detta väl kör blir “bygga en strukturerad DNB-lista” inte längre ett projekt. Det blir en repeterbar knapp du kan trycka på när pipelinen behöver nya konton.
Kontakta oss
Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.