Behöver ert företag hjälp med att implementera AI? Kontakta oss och få prisoffert här →
AI Skolan
januari 22, 2026

Bright Data + Google Gemini: korrekt formaterade trendrapporter

Rickard Andersson Partner, Nodenordic.se

Trendspaning låter enkelt tills du jonglerar skrapade sidor, halvtrasiga exporter och en ”sammanfattning” som byter format varje gång du kör den. Då börjar det riktiga arbetet: rensa, tolka, gruppera om och försöka minnas var en siffra kom ifrån.

Det här slår hårdast mot SEO-strateger, men även growth marketers och innehållsanalytiker känner av det. Om du har letat efter automatisering av trendrapporter som ger konsekventa anteckningar du faktiskt kan återanvända, är det här arbetsflödet byggt för det.

Du får se hur det hämtar valfri URL via Bright Data, låter Google Gemini extrahera ämnen och regioner till strukturerad JSON, sparar granskningsfiler och skickar strukturerade resultat till Google Sheets.

Så fungerar den här automatiseringen

Hela n8n-arbetsflödet, från trigger till slutlig output:

n8n Workflow Template: Bright Data + Google Gemini: korrekt formaterade trendrapporter

Problemet: Trendspaning blir ett städprojekt

När du utvinner trender från webbsidor börjar du oftast med något stökigt: skrapad HTML, markdown-klumpar, inkonsekventa rubriker och en massa ”nästan användbar” text. Den jobbiga delen är det som kommer sen. Du kopierar bitar till dokument, försöker standardisera kategorier och dubbelkollar sedan källor när någon frågar: ”Var kommer den här insikten ifrån?” En vecka senare kör du samma research och strukturen har ändrats igen, så ditt kalkylark går inte längre att jämföra. Då blir trenduppföljning i det tysta oskalbart.

Det blir snabbt mycket. Här är var det fallerar i riktiga team.

  • Skrapade sidor kommer tillbaka i olika format, så du lägger cirka 1–2 timmar bara på att rensa innan analysen ens börjar.
  • Ämnessammanfattningar är inkonsekventa, vilket gör att dina rader i Google Sheets inte matchar vecka för vecka.
  • Regionala eller lokala trender hanteras ofta manuellt, så vyn ”per marknad” blir alltid sen eller hoppas över.
  • Det finns ingen granskningskedja när insikter bor i chattmeddelanden, och det blir stressigt att försvara beslut i efterhand.

Lösningen: Bright Data + Gemini-extraktion till strukturerade trendanteckningar

Det här n8n-arbetsflödet förvandlar ”en URL och ett kaos” till en strukturerad trendoutput du kan lagra, dela och återanvända. Det startar med en enkel trigger (manuell start, eller så kan du byta till ett formulär, ett Telegram-meddelande eller en liststyrning från ett kalkylark). Därefter hämtar Bright Datas Web Unlocker sidinnehållet tillförlitligt, även när sajter är känsliga för botar. Arbetsflödet konverterar den returnerade markdown/HTML:en till korrekt formaterad ren text och skickar sedan texten genom Google Gemini-prompter som är utformade för att plocka ut ämnen, teman och regionbaserade kluster. Till sist skickar det strukturerade payloads till dina webhook-endpoints och skriver granskningsfiler till disk så att du exakt kan spåra vad som extraherades.

Arbetsflödet börjar när du anger en käll-URL och Bright Data-zon och kör hämtningen. Sedan tolkar Gemini texten och extraherar strukturerade ämnen plus regionala trendgrupperingar. Output skickas vidare (webhook-notifieringar) och bevaras som filer, och du kan även trycka in samma JSON i Google Sheets för rapportering.

Det du får: Automatisering vs. resultat

Exempel: Så här ser det ut

Säg att du granskar 10 konkurrent- eller marknadsplatssidor varje vecka. Manuellt kanske du lägger cirka 15 minuter på att kopiera text, 10 minuter på att rensa den och ytterligare 10 minuter på att organisera ämnen per sida, vilket är ungefär 6 timmar i veckan. Med det här arbetsflödet klistrar du in URL:en en gång, låter Bright Data hämta innehållet och Gemini returnerar strukturerade ämnen plus regionkluster. Även om du räknar med cirka 10 minuter per URL för bearbetning och stickprovskontroll är det närmare 2 timmar totalt. Du får tillbaka din vecka, och ditt kalkylark blir äntligen konsekvent.

Det här behöver du

  • n8n-instans (prova n8n Cloud gratis)
  • Alternativ för egen drift om du föredrar det (Hostinger fungerar bra)
  • Bright Data för att hämta och låsa upp mål-URL:er.
  • Google Gemini för att extrahera ämnen, regioner och trendkluster.
  • Bright Data Web Unlocker-token (hämta den i zoninställningarna för Bright Data Web Unlocker).

Kunskapsnivå: Medel. Du kopplar in autentiseringsuppgifter, redigerar ett URL-/zonfält och testar några körningar för att finjustera prompter och output.

Vill du inte sätta upp detta själv? Prata med en automatiseringsexpert (gratis 15-minuters konsultation).

Så fungerar det

En URL sätter igång. I den inkluderade versionen startar du arbetsflödet manuellt och det läser en ”käll-URL + Bright Data-zon” från en set-nod. Du kan byta denna trigger mot en Jotform-inskickning, ett Telegram-meddelande eller en Gmail-trigger om du föredrar det.

Bright Data hämtar innehållet. Arbetsflödet anropar Bright Data Web Unlocker via HTTP request, vilket är användbart för sidor som blockerar enkla skrapor. Du får tillbaka sidinnehåll som går att arbeta med, även om det börjar som markdown eller HTML.

Gemini gör text till struktur. Ett steg för ”konvertera markdown till text” rensar innehållet, sedan plockar Gemini-modeller och extraktionsnoder ut ämnen, teman och regionala kluster. Målet är förutsägbar JSON, så att verktygen nedströms slipper gissa.

Resultat delas och sparas. Arbetsflödet skickar separata webhook-notifieringar för textoutput, ämnesresultat och trendresultat. Det bygger också binära filer och skriver dem till disk, vilket ger dig en prydlig granskningskedja för senare genomgångar.

Du kan enkelt ändra indatakällan till att läsa URL:er från Google Sheets och skriva tillbaka strukturerade resultat till nya rader utifrån dina behov. Se hela implementationsguiden nedan för anpassningsalternativ.

Steg-för-steg-guide för implementation

Steg 1: konfigurera den manuella triggern

Starta arbetsflödet med en manuell trigger så att ni kan testa datautvinningsflödet vid behov.

  1. Lägg till noden Manual Launch Trigger som startpunkt.
  2. Koppla Manual Launch Trigger till Configure Source URL & Zone.

Steg 2: anslut Bright Data Fetch

Definiera mål-URL och Bright Data-zon och begär därefter markdown-innehållet från Bright Data.

  1. I Configure Source URL & Zone, ställ in url till https://www.bbc.com/news/world.
  2. Ställ in zone till web_unlocker1.
  3. Öppna Execute Bright Data Fetch och ställ in URL till https://api.brightdata.com/request.
  4. Ställ in Method till POST och aktivera Send Body och Send Headers.
  5. Under body parameters, ställ in zone till {{ $json.zone }} och url till {{ $json.url }}?product=unlocker&method=api, med format raw och data_format markdown.
  6. Inloggningsuppgifter krävs: anslut era httpHeaderAuth-credentials i Execute Bright Data Fetch.

Steg 3: konfigurera markdown-konvertering och AI-modeller

Använd en LLM-kedja för att konvertera hämtad markdown till ren text för efterföljande analys.

  1. I Convert Markdown to Text, ställ in Text till =You need to analyze the below markdown and convert to textual data. Please do not output with your own thoughts. Make sure to output with textual data only with no links, scripts, css etc. {{ $json.data }}.
  2. Säkerställ att meddelanderollen inkluderar You are a markdown expert i Convert Markdown to Text.
  3. Bekräfta att Gemini Model for Text Parse är ansluten som språkmodell för Convert Markdown to Text med modelName satt till models/gemini-2.0-flash-exp.
  4. Inloggningsuppgifter krävs: anslut era googlePalmApi-credentials i Gemini Model for Text Parse (credentials läggs till i modellnoden, inte i kedjenoden).

Steg 4: konfigurera parallell extrahering av ämnen och trender

Efter textkonverteringen kör ni flera analyser parallellt och routar resultaten till webhooks och filbyggare.

  1. Bekräfta att Convert Markdown to Text skickar output till Structured Topic Analyzer, Notify Webhook: Text Output och Cluster Trends by Region parallellt.
  2. I Structured Topic Analyzer, ställ in Text till =Perform the topic analysis on the below content and output with the structured information. Here's the content: {{ $('Execute Bright Data Fetch').item.json.data }} och behåll Schema Type som manual.
  3. I Cluster Trends by Region, ställ in Text till =Perform the data analysis on the below content and output with the structured information by clustering the emerging trends by location and category Here's the content: {{ $('Execute Bright Data Fetch').item.json.data }} och behåll Schema Type som manual.
  4. Säkerställ att Gemini Model for Topic AI är ansluten som språkmodell för Structured Topic Analyzer med modelName models/gemini-2.0-flash-exp.
  5. Säkerställ att Gemini Model for Trend AI är ansluten som språkmodell för Cluster Trends by Region med modelName models/gemini-2.0-flash-exp.
  6. Inloggningsuppgifter krävs: anslut era googlePalmApi-credentials i både Gemini Model for Topic AI och Gemini Model for Trend AI (credentials läggs till i modellnoderna, inte i extraktornoderna).

Structured Topic Analyzer skickar output till både Notify Webhook: Topic Results och Build Topic File Binary parallellt, medan Cluster Trends by Region skickar output till både Notify Webhook: Trend Results och Build Trends File Binary parallellt.

Steg 5: konfigurera webhook-notifieringar och filutdata

Skicka resultaten till webhooks och spara de strukturerade JSON-utdatafilerna på disk.

  1. I Notify Webhook: Text Output, ställ in URL till https://webhook.site/3c36d7d1-de1b-4171-9fd3-643ea2e4dd76 och mappa content till {{ $json.text }}.
  2. I Notify Webhook: Topic Results, ställ in URL till samma webhook och mappa summary till {{ $json.output }}.
  3. I Notify Webhook: Trend Results, ställ in URL till samma webhook och mappa summary till {{ $json.output }}.
  4. I Build Topic File Binary och Build Trends File Binary, behåll funktionskoden som den är för att bygga den binära fil-payloaden.
  5. I Save Topics to Disk, ställ in Operation till write och File Name till d:\topics.json.
  6. I Save Trends to Disk, ställ in Operation till write och File Name till d:\trends.json.

⚠️ Vanlig fallgrop: säkerställ att arbetsflödet har behörighet att skriva till d:\ på er host. Uppdatera sökvägar om ni kör n8n på Linux eller i en container.

Steg 6: testa och aktivera ert arbetsflöde

Kör ett manuellt test för att verifiera de parallella grenarna och utdata, och aktivera sedan för produktionsanvändning.

  1. Klicka på Execute Workflow för att köra Manual Launch Trigger.
  2. Verifiera att Execute Bright Data Fetch returnerar markdown-data och att Convert Markdown to Text ger plain text.
  3. Bekräfta parallell körning: Structured Topic Analyzer, Notify Webhook: Text Output och Cluster Trends by Region ska alla köras samtidigt.
  4. Kontrollera webhook-svaren och säkerställ att filer skrivs till d:\topics.json och d:\trends.json.
  5. När resultaten ser korrekta ut, växla arbetsflödet till Active för produktionsanvändning.
🔒

Lås upp fullständig steg-för-steg-guide

Få den kompletta implementeringsguiden + nedladdningsbar mall

Vanliga fallgropar

  • Bright Data-autentiseringsuppgifter kan löpa ut eller kräva specifika behörigheter. Om det strular, kontrollera först din Web Unlocker-token och zonnamn i Bright Data-dashbordet.
  • Om du använder Wait-noder eller extern bearbetning varierar körtiderna. Öka väntetiden om noder nedströms misslyckas eftersom de fick ett tomt eller ofullständigt svar.
  • Standardprompter i Gemini är generiska. Lägg till dina kategorier, regioner och regler för ”output som JSON” tidigt, annars kommer du att redigera output för alltid.

Vanliga frågor

Hur lång tid tar det att sätta upp den här automatiseringen av trendrapporter?

Cirka 30–60 minuter när du väl har dina Bright Data- och Gemini-nycklar.

Behöver jag kunna koda för att automatisera trendrapporter?

Ingen kodning krävs. Du uppdaterar främst autentiseringsuppgifter, käll-URL/zonen och ett par promptfält.

Är n8n gratis att använda för det här arbetsflödet för automatisering av trendrapporter?

Ja. n8n har ett gratis alternativ för egen drift och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna in Bright Data-användning och kostnader för Gemini API beroende på hur många URL:er du bearbetar.

Var kan jag hosta n8n för att köra den här automatiseringen?

Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller egen drift på en VPS. För egen drift är Hostinger VPS prisvärd och klarar n8n bra. Egen drift ger dig obegränsade körningar men kräver grundläggande serverhantering.

Kan jag anpassa det här arbetsflödet för automatisering av trendrapporter för att följa flera varumärken samtidigt?

Ja, men då vill du ändra indatan. Ersätt steget ”Configure Source URL & Zone” med en läsning från Google Sheets (en URL per rad), loopa igenom URL:erna och skriv tillbaka JSON för ”Topic Results” och ”Trend Results” till kalkylarket. Vanliga justeringar är att tvinga fram en fast kategorilista, lägga till ett fält för ”trend_score” och att utöka regiongrupperingen från land till stad eller delstat om dina källor stödjer det.

Varför misslyckas min Bright Data-anslutning i det här arbetsflödet?

Oftast beror det på en ogiltig Web Unlocker-token eller fel zonnamn. Kontrollera Bright Data-dashbordet, skapa en ny token vid behov och uppdatera sedan Header Auth-referensen i n8n. Håll också koll på blockerade mål-URL:er som kräver andra unlocker-inställningar, samt rate limits om du kör en stor batch på en gång.

Hur många URL:er kan den här automatiseringen av trendrapporter hantera?

Med n8n Cloud Starter kan du bekvämt hantera några tusen körningar per månad, och egen drift tar bort körningsgränser (din server blir begränsningen). I praktiken börjar de flesta team med batchar på 20–50 URL:er per körning och skalar sedan när prompter och output är stabila.

Är den här automatiseringen av trendrapporter bättre än att använda Zapier eller Make?

Ofta, ja. Det här arbetsflödet bygger på tolkning i flera steg, strukturerad extraktion och att spara granskningsfiler, vilket är där n8n brukar kännas mer flexibelt och mindre kostsamt när logiken växer. Zapier och Make kan fortfarande fungera om du bara behöver ”URL in, sammanfattning ut” och inte bryr dig om stabil JSON. Ärligt talat: så fort du vill ha ämneskluster per region och repeterbar formatering blir visuell förgrening din vän. Prata med en automatiseringsexpert om du vill ha hjälp att välja det enklaste alternativet.

När det här väl rullar slutar trendspaning vara en veckovis städrutin. Du får strukturerade anteckningar, sparade granskningsfiler och ett kalkylark som du faktiskt kan fatta beslut utifrån.

Kontakta oss

Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.

×

Använd mall

Få direkt tillgång till denna n8n-arbetsflödes JSON-fil

Launch login modal Launch register modal