Behöver ert företag hjälp med att implementera AI? Kontakta oss och få prisoffert här →
AI Skolan
januari 22, 2026

Bright Data + Google Gemini för smartare webbspaning

Rickard Andersson Partner, Nodenordic.se

Research faller isär i samma stund som den ”viktiga” sidan inte vill ladda, blockerar din scraper eller byter layout igen. Då sitter du fast med att kopiera bitar till dokument, försöka sammanfatta rörig text och hoppas att du inte missade det enda citatet du behövde.

Det är här automatisering för Bright Data research ger effekt. Marknadsansvariga som följer konkurrenters rörelser märker det först, men byråstrateger och driftfokuserade grundare dras in i samma manuella slit. Det här flödet gör en enda URL till återanvändbara ämnen, trender och sentiment utan att du behöver sitta och passa processen.

Du får se hur det hämtar innehåll via Bright Datas Web Unlocker, låter Google Gemini strukturera det och sedan skickar resultaten till dina webhook-endpoints samtidigt som det sparar korrekt formaterade JSON-filer för senare.

Så här fungerar automatiseringen

Här är hela arbetsflödet du kommer att sätta upp:

n8n Workflow Template: Bright Data + Google Gemini för smartare webbspaning

Varför det här spelar roll: webbresearch som inte rasar vid första kontakten

De flesta former av ”webbresearch” ser enkla ut tills du gör det i skala. Sidan du behöver är geo-blockerad, hastighetsbegränsad eller skyddad av bot-försvar. Så du försöker igen, byter nätverk, tar skärmdumpar, klistrar in bitar i ett dokument och landar ändå i en ostrukturerad textvägg som ingen vill läsa. Även när du till slut fårnga innehållet blir nästa steg att göra det användbart (ämnen, trendvinklar, sentiment och ett delbart underlag) ytterligare en halv dags merarbete. Ärligt talat är det värsta den mentala belastningen: du gör sköra, repetitiva moment samtidigt som du försöker tänka strategiskt.

Det summerar snabbt. Här är var det oftast fallerar.

  • Du slösar ungefär 1–2 timmar per researchrunda bara på att få sidinnehållet i en användbar form.
  • När en sida blockerar dig spricker researchplanen, och ”insikten” kommer efter att den slutat vara användbar.
  • Manuella sammanfattningar varierar i kvalitet, vilket gör att två personer kan läsa samma sida och rapportera olika ”slutsatser”.
  • Att dela resultat blir rörigt eftersom det saknas ett konsekvent format som teamet kan återanvända i rapporter och dashboards.

Vad du bygger: Bright Data-insamling + Gemini-analys-pipeline

Det här flödet startar med en URL du vill analysera och använder sedan Bright Datas Web Unlocker för att hämta sidan pålitligt, även när webbplatsen är ”svår”. När sidan har hämtats konverterar flödet innehållet till markdown och skickar det till Google Gemini i n8n. Därifrån gör Gemini om sidan till ren text som du faktiskt kan arbeta med, och kör sedan strukturerad extraktion för att skapa korrekt formaterade JSON-utdata för ämnen och för trendkluster (per plats och kategori). En sentiment-fokuserad analys triggas också via webhook, så att du kan mata in resultatet i det verktyg du redan använder för rapportering. Slutligen sparar flödet både ämnes- och trendutdata som lokala JSON-filer, så att du har en hållbar artefakt att återanvända senare.

Flödet är enkelt: ange en mål-URL och Bright Data-zon, hämta sidan via Bright Data och låt sedan Gemini extrahera och strukturera det som är viktigt. På slutet får dina webhook-endpoints utdata och din disk får två prydliga JSON-filer för arkivering eller vidare bearbetning.

Det du bygger

Förväntade resultat

Säg att du gör konkurrentresearch på 10 sidor varje vecka. Manuellt tar det ofta cirka 20 minuter att fånga innehållet (särskilt när sidor bråkar), plus ytterligare 30 minuter att sammanfatta och formatera, så du landar på ungefär 8 timmar i veckan. Med det här flödet lägger du cirka 2 minuter på att ange URL och starta körningen och väntar sedan ungefär 10–20 minuter för insamling och analys per sida. Det blir snarare 2–3 timmar totalt, och utdata är redan strukturerad för återanvändning.

Innan du börjar

  • n8n-instans (prova n8n Cloud gratis)
  • Självhosting om du föredrar det (Hostinger fungerar bra)
  • Bright Data för sidinläsning via Web Unlocker
  • Google Gemini (PaLM) API för att extrahera ämnen, trender och sentiment
  • Bright Data-zon + inloggningsuppgifter (skapa en Web Unlocker-zon i Bright Data)

Svårighetsgrad: Medel. Du kopplar API:er, klistrar in inloggningsuppgifter och justerar några nodinställningar som URL:er, webhooks och filsökvägar.

Vill du att någon bygger detta åt dig? Prata med en automationsspecialist (gratis 15-minuters konsultation).

Steg för steg

Du anger mål-URL och Bright Data-zon. Flödet triggas manuellt och en Set-nod definierar vilken sida som ska hämtas och vilken Bright Data Web Unlocker-zon som ska användas för åtkomst.

Bright Data hämtar sidinnehållet pålitligt. En HTTP Request-nod kör mot Bright Datas API, vilket hjälper dig att hämta innehåll från sidor som normalt blockerar scraping eller kräver mer robust åtkomst.

Google Gemini gör sidan till strukturerade insikter. Markdown-innehållet konverteras till ren text, och därefter genererar två steg för strukturerad extraktion (1) en ämnesutdata och (2) trendkluster per plats och kategori. Ett separat webhook-anrop skickar sentimentrelaterad utdata så att du kan routa den dit du vill.

Resultat levereras och arkiveras. Flödet skickar utdata till dina webhook-endpoints och skriver även två JSON-filer till disk (ämnen och trender) efter att ha konverterat data till en binär payload.

Du kan enkelt ändra mål-URL och AI-promptar för att passa andra researchmål, som analys av produktbudskap eller kategoribevakning. Se hela implementationsguiden nedan för anpassningsalternativ.

Steg-för-steg-guide för implementering

Steg 1: konfigurera den manuella triggern

Det här arbetsflödet startar vid behov så att ni kan testa extraktionspipelinen manuellt.

  1. Lägg till noden Manual Start Trigger som startpunkt.
  2. Koppla Manual Start Trigger till Define Target URL and Zone.

Använd manuella körningar medan ni finjusterar prompts och webhook-payloads för att undvika onödiga API-kostnader.

Steg 2: anslut Bright Data-begäran

Ställ in mål-URL och scraping-zon och skicka sedan begäran till Bright Data.

  1. I Define Target URL and Zone, sätt url till https://www.bbc.com/news/world.
  2. I Define Target URL and Zone, sätt zone till web_unlocker1.
  3. Öppna Execute Bright Data Request och sätt URL till https://api.brightdata.com/request.
  4. Sätt Method till POST, aktivera Send Body och Send Headers.
  5. I Body Parameters, sätt zone till {{ $json.zone }}, url till {{ $json.url }}?product=unlocker&method=api, format till raw och data_format till markdown.
  6. Credential Required: Anslut era httpHeaderAuth-uppgifter i Execute Bright Data Request.

⚠️ Vanlig fallgrop: Bright Data misslyckas om zone inte finns i ert konto eller om auth-headern saknas.

Steg 3: konfigurera markdown-parsning med Gemini

Konvertera den skrapade markdownen till ren text innan vidare analys.

  1. I Markdown to Plain Text, sätt Text till =You need to analyze the below markdown and convert to textual data. Please do not output with your own thoughts. Make sure to output with textual data only with no links, scripts, css etc. {{ $json.data }}.
  2. Låt Prompt Type stå kvar på define och säkerställ att meddelandet innehåller “You are a markdown expert”.
  3. Öppna Gemini Chat Model for Parsing och bekräfta att Model Name är models/gemini-2.0-flash-exp.
  4. Credential Required: Anslut era googlePalmApi-uppgifter i Gemini Chat Model for Parsing.

Gemini-modellen är kopplad till Markdown to Plain Text som dess språkmodell—uppgifterna ska läggas på Gemini Chat Model for Parsing, inte på Markdown to Plain Text.

Steg 4: konfigurera parallell ämnes- och trendanalys

Efter parsning förgrenas arbetsflödet till parallella analysvägar.

  1. Bekräfta att Markdown to Plain Text skickar output till både Structured Topic Analyzer och Send Markdown Extraction Webhook och Cluster Trends by Region parallellt.
  2. I Structured Topic Analyzer, sätt Text till =Perform the topic analysis on the below content and output with the structured information. Here's the content: {{ $('Execute Bright Data Request').item.json.data }}.
  3. Låt Schema Type stå kvar på manual och klistra in det angivna JSON-schemat i Input Schema.
  4. I Cluster Trends by Region, sätt Text till =Perform the data analysis on the below content and output with the structured information by clustering the emerging trends by location and category Here's the content: {{ $('Execute Bright Data Request').item.json.data }}.
  5. Låt Schema Type stå kvar på manual och klistra in det angivna JSON-schemat i Input Schema.
  6. Öppna Gemini Chat Model for Sentiment och Gemini Chat Model for Trends och bekräfta att Model Name är models/gemini-2.0-flash-exp.
  7. Credential Required: Anslut era googlePalmApi-uppgifter i Gemini Chat Model for Sentiment.
  8. Credential Required: Anslut era googlePalmApi-uppgifter i Gemini Chat Model for Trends.

Båda analysstegen använder Gemini-modeller via sina anslutna språkmodellnoder—ställ in uppgifter på Gemini Chat Model for Sentiment och Gemini Chat Model for Trends, inte på analysnoderna.

Steg 5: konfigurera webhook-utdata och filskrivningar

Skicka sammanfattningar till webhooks och spara JSON-utdata för ämnen/trender på disk.

  1. I Send Markdown Extraction Webhook, sätt URL till https://webhook.site/3c36d7d1-de1b-4171-9fd3-643ea2e4dd76 och aktivera Send Body med content satt till {{ $json.text }}.
  2. Verifiera att Structured Topic Analyzer skickar output till både Dispatch Sentiment Webhook och Build Topics Binary Payload parallellt.
  3. I Dispatch Sentiment Webhook, sätt URL till https://webhook.site/3c36d7d1-de1b-4171-9fd3-643ea2e4dd76 och sätt summary till {{ $json.output }}.
  4. Verifiera att Cluster Trends by Region skickar output till både Send Trends Webhook och Build Trends Binary Payload parallellt.
  5. I Send Trends Webhook, sätt URL till https://webhook.site/3c36d7d1-de1b-4171-9fd3-643ea2e4dd76 och sätt summary till {{ $json.output }}.
  6. I Build Topics Binary Payload och Build Trends Binary Payload, behåll den angivna Function Code som base64-kodar JSON-utdata.
  7. Ställ in Save Topics File to Disk att skriva med File Name d:\topics.json och Operation write.
  8. Ställ in Save Trends File to Disk att skriva med File Name d:\trends.json och Operation write.

⚠️ Vanlig fallgrop: Sökvägarna d:\topics.json och d:\trends.json kräver en Windows-host. Uppdatera sökvägarna om ni kör n8n på Linux eller i Docker.

Steg 6: testa och aktivera ert arbetsflöde

Kör ett manuellt test för att bekräfta hela extraktions- och analysflödet och aktivera det sedan för produktionsanvändning.

  1. Klicka på Execute WorkflowManual Start Trigger för att köra ett test.
  2. Verifiera att Execute Bright Data Request returnerar markdown i data och att Markdown to Plain Text ger ren text.
  3. Bekräfta att både Structured Topic Analyzer och Cluster Trends by Region körs och att webhook-anropen lyckas.
  4. Kontrollera att d:\topics.json och d:\trends.json skapas med strukturerad JSON.
  5. När ni är nöjda, växla arbetsflödet till Active för att aktivera det för löpande användning.
🔒

Lås upp fullständig steg-för-steg-guide

Få den kompletta implementeringsguiden + nedladdningsbar mall

Felsökningstips

  • Bright Data-inloggningsuppgifter kan löpa ut eller kräva rätt zonbehörigheter. Om det slutar fungera, kontrollera först inställningarna för din Bright Data Web Unlocker-zon och Header Auth-uppgifterna i noden ”Execute Bright Data Request”.
  • Om du använder wait-liknande beteende i nedströms system (eller om målsidan svarar långsamt) varierar processtiderna. Höj timeouts i HTTP Request-noderna om webhook-anrop misslyckas eller returnerar tomma payloads.
  • Standardpromptar i Gemini-noderna är generiska. Lägg in din varumärkeston och strikt utdataformatering i promptarna för strukturerad extraktion tidigt, annars kommer du att sitta och städa JSON för hand senare.

Snabba svar

Hur lång tid tar det att sätta upp den här automatiseringen för Bright Data research?

Cirka 30 minuter om dina uppgifter för Bright Data och Gemini är klara.

Behövs kodning för den här automatiseringen av webbresearch?

Nej. Du kopplar främst konton, klistrar in API-nycklar och ändrar en URL samt några webhook-inställningar.

Är n8n gratis att använda för det här Bright Data research-flödet?

Ja. n8n har ett gratis alternativ för självhosting och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna in Bright Data-användning och kostnader för Google Gemini API, som varierar beroende på hur mycket innehåll du bearbetar.

Var kan jag hosta n8n för att köra den här automatiseringen?

Två alternativ: n8n Cloud (hanterat, enklast att sätta upp) eller självhosting på en VPS. För självhosting är Hostinger VPS prisvärt och hanterar n8n bra. Självhosting ger dig obegränsade körningar men kräver grundläggande serverhantering.

Kan jag anpassa det här Bright Data research-flödet för andra use cases?

Ja, och det bör du. Byt målsajt genom att ändra URL:en i ”Define Target URL and Zone” och justera sedan promptarna i ”Structured Topic Analyzer” och ”Cluster Trends by Region” så att de matchar vad du vill extrahera (prisomnämnanden, funktionsjämförelser, varumärkespåståenden eller regulatoriskt språk är vanliga val). Om teamet använder ett kalkylark eller en databas i stället för lokala filer, ersätt stegen ”Save Topics File to Disk” och ”Save Trends File to Disk” med Google Sheets eller en databasnod. Du kan också peka webhook-noderna mot Slack, ett rapporteringsverktyg eller ditt interna API.

Varför misslyckas min Bright Data-anslutning i det här flödet?

Oftast är det namnet på Web Unlocker-zonen, saknade behörigheter på Bright Data-kontot eller en auth-header som är inaktuell. Bekräfta att zonen som är konfigurerad i ”Define Target URL and Zone” faktiskt finns och kontrollera sedan igen inloggningsuppgifterna som används i ”Execute Bright Data Request”. Om målsajten är särskilt aggressiv kan du också behöva justera Bright Data-inställningar på deras sida (det är inte ett n8n-problem).

Vilken volym kan det här Bright Data research-flödet hantera?

På n8n Cloud Starter kan du räkna med några tusen körningar per månad, och högre nivåer hanterar mer; självhosting har ingen körningsgräns (det beror mest på din server). I praktiken körs det här flödet vanligtvis ”per sida”, och de flesta team batchar 10–50 URL:er åt gången när de väl är trygga med promptar och webhook-hantering.

Är den här automatiseringen för Bright Data research bättre än att använda Zapier eller Make?

Ofta, ja. Det här flödet drar nytta av n8n:s förmåga att hantera förgreningar i flera steg (insamling, parsning, extraktion, webhook, filutdata) utan att det blir en skör kedja av separata zaps eller scenarier. n8n gör också självhosting praktiskt, vilket spelar roll när du kör många researchjobb och inte vill betala per litet steg. Zapier eller Make kan fortfarande fungera bra för enkla behov som ”URL in, sammanfattning ut”, men strukturerad extraktion plus filhantering blir snabbt klumpigt. Om du är osäker, prata med en automationsspecialist och beskriv din volym och dina utdata.

När det här väl rullar slutar webbresearch att vara en återkommande brandövning. Du får korrekt formaterade utdata som du kan återanvända, vidarebefordra, lagra och bygga vidare på.

Kontakta oss

Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.

×

Använd mall

Få direkt tillgång till denna n8n-arbetsflödes JSON-fil

Få prisoffert redan idag!
Få prisoffert redan idag!

Berätta vad ni behöver hjälp med så hör vi av oss inom en arbetsdag!

Få prisoffert redan idag!
Få prisoffert redan idag!

Berätta vad ni behöver hjälp med så hör vi av oss inom en arbetsdag!

Launch login modal Launch register modal