Behöver ert företag hjälp med att implementera AI? Kontakta oss och få prisoffert här →
AI Skolan
januari 22, 2026

Bright Data + Google Gemini, rensade SERP-CSV:er

Rickard Andersson Partner, Nodenordic.se

Att hämta SERP:ar för ett sökord låter enkelt tills du gör det varje vecka. Du skrapar, du klistrar in, du städar konstig HTML, och ändå slutar du med “anteckningar” som ingen litar på.

Den här SERP CSV-automatiseringen slår hårt mot SEO-byråteam, men även growth marketers och produktteam som följer konkurrenter känner av det. Vinsten är enkel: du får strukturerad SERP-data plus rekommendationer och trender som färdiga CSV-filer, utan att bo i kalkylblad hela dagen.

Nedan ser du exakt vad det här arbetsflödet gör, vad du behöver för att köra det och hur du kan tänka kring anpassning för din egen rapportering av search intelligence.

Så fungerar automatiseringen

Här är hela arbetsflödet du kommer att sätta upp:

n8n Workflow Template: Bright Data + Google Gemini, rensade SERP-CSV:er

Varför detta spelar roll: från stökiga SERP:ar till beslut

SERP-spårning havererar på tråkiga sätt. En skrapare fungerar… tills den inte gör det. Någon exporterar resultat, klistrar in dem i ett dokument och lägger sedan en timme på att ta bort skräpmarkering och försöka minnas vad som ändrades sedan förra veckan. Även när du får “datan” är den sällan redo för beslut. Teamet måste fortfarande tolka den, sammanfatta den och översätta den till åtgärder som “uppdatera den här sidan”, “skapa ett jämförelseinlägg” eller “sluta rikta in oss på den frågan”. Det är den verkliga kostnaden: tid som försvinner och möjligheter som missas.

Det summeras snabbt. Här är var det faller i det dagliga arbetet.

  • Manuell extrahering är skör, så rankingar och SERP-funktioner glider tyst innan någon märker det.
  • SERP-HTML är brusig, vilket gör att din “rapport” blir ett städprojekt.
  • Insikter bor i någons huvud eller i en Slack-tråd, inte i en konsekvent export du kan jämföra vecka för vecka.
  • Team lägger cirka 2 timmar på att tolka resultat för varje batch med sökord, eftersom “vad betyder det här” aldrig ingår.

Vad du bygger: Bright Data SERP:ar → Gemini → CSV-rapporter

Det här arbetsflödet tar en enkel input (din sökterm, din Bright Data-zon och en valfri webhook-URL) och omvandlar live-resultat från Google till korrekta, strukturerade utdata. Det börjar med att anropa Bright Datas Web Unlocker för att hämta verklig SERP-HTML pålitligt. Därefter tolkar Google Gemini den ostrukturerade SERP-sidan till strukturerad JSON, så att du inte längre behöver gissa var titlar, URL:er, snippets och SERP-funktioner ligger. Sedan itererar arbetsflödet igenom de extraherade posterna, ber Gemini om två olika perspektiv och skapar två separata CSV-filer: en för rekommendationer och en för trender. Till sist sparar det dessa CSV:er på disk och kan notifiera ett annat system via webhook med en sammanfattning eller referens till filerna.

Arbetsflödet startar när du kör det i n8n (manuell trigger som standard). Bright Data hämtar färska SERP:ar, Gemini konverterar sidan till strukturerad data och två AI-pass genererar “vad du ska göra härnäst” och “vad som förändras”. Slutresultatet är ett par CSV:er som du kan öppna i Google Sheets eller Excel och agera på.

Vad du bygger

Förväntade resultat

Säg att du följer 20 sökord varje måndag. Manuellt kan du lägga cirka 5 minuter per sökord på att hämta resultaten, kopiera dem och städa upp dem, vilket blir ungefär 100 minuter innan du ens skriver insikter. Med det här arbetsflödet matar du in sökordsuppsättningen en gång, låter Bright Data hämta SERP:arna och väntar på att Gemini producerar strukturerad output plus de två CSV:erna (ofta cirka 10–15 minuters bearbetningstid beroende på volym). Du granskar fortfarande rapporten, men du granskar – inte formaterar.

Innan du börjar

  • n8n-instans (testa n8n Cloud gratis)
  • Alternativ för egen hosting om du föredrar det (Hostinger fungerar bra)
  • Bright Data för pålitlig extrahering av Google SERP:ar.
  • Google Gemini för att tolka SERP:ar och generera insikter.
  • Bright Data Web Unlocker-token (hämta den i dina Bright Data-zoninställningar).

Kompetensnivå: Medel. Du är bekväm med att lägga till credentials, redigera några fält och testköra i n8n.

Vill du att någon bygger detta åt dig? Prata med en automationsexpert (kostnadsfri 15-minuters konsultation).

Steg för steg

Du anger sökinput. Arbetsflödet startar med en manuell körning i n8n, där det läser ditt sökord (eller fras), ditt Bright Data-zonnamn och webhook-URL:en om du vill ha notifieringar.

Bright Data hämtar live-SERP:ar. En HTTP-request anropar Bright Data Web Unlocker-endpointen och returnerar innehållet från Googles resultatsida. Det här undviker den klassiska situationen “skraparen blev blockerad” som gör spårning opålitlig.

Gemini gör ostrukturerade sidor till strukturerad data. Google Gemini tolkar SERP-HTML:en till strukturerad JSON, sedan extraherar arbetsflödet resultats-arrayen och loopar igenom varje post i batchar. Två separata Gemini-prompter genererar (1) rekommendationer du kan agera på och (2) trendinsikter du kan följa över tid.

CSV-filer skapas och sparas. Arbetsflödet formaterar dessa utdata till två CSV:er (rekommendationer och trender) och sparar dem, så att du kan öppna dem i Google Sheets eller Microsoft Excel 365 eller skicka dem vidare i nästa steg.

Du kan enkelt justera inputfälten för att följa andra sökordsuppsättningar, platser eller rapportformat utifrån dina behov. Se hela implementationsguiden nedan för anpassningsalternativ.

Steg-för-steg-implementeringsguide

Steg 1: konfigurera manuell trigger

Starta arbetsflödet manuellt så att ni kan validera SERP-analysflödet innan ni schemalägger eller bygger ut det.

  1. Lägg till och behåll noden Manual Start Trigger som arbetsflödets startpunkt.
  2. Koppla Manual Start Trigger till Assign Input Parameters för att skicka sökparametrarna vidare.

Steg 2: anslut Bright Data API och ställ in inparametrar

Definiera Google-sök-URL, sökfråga och Bright Data-zon och skicka sedan SERP-förfrågan via Bright Data.

  1. I Assign Input Parameters, ställ in url till https://www.google.com/search.
  2. Ställ in search till best crm for the year 2025 och zone till web_unlocker1.
  3. Ställ in webhook_notification_url till [YOUR_WEBHOOK_URL] (ersätt med er faktiska webhook om den används senare).
  4. Öppna Bright Data API Request och ställ in URL till https://api.brightdata.com/request med Method POST.
  5. I Bright Data API RequestBody Parameters, mappa:
    • zone till {{ $json.zone }}
    • url till {{ $json.url }}?q={{ encodeURI($json.search) }}
    • format till raw
  6. Inloggningsuppgifter krävs: Anslut era httpHeaderAuth-uppgifter i Bright Data API Request.

Steg 3: extrahera sökresultat med LLM-kedjan

Tolka den råa SERP-HTML:en till strukturerade resultat med LLM-kedjan och output parser.

  1. I Search LLM Extractor, ställ in Text till =Extract the following: Rank (position in list) Title URL Snippet/description Type (organic/ads/map) {{ $json.data }} Make sure to return the data in JSON.
  2. Säkerställ att Search LLM Extractor har Has Output Parser aktiverat och är kopplad till Search Output Parser.
  3. Öppna Search Output Parser och behåll Schema Type som manual med det tillhandahållna JSON-schemat.
  4. Öppna Extract Results Array och behåll JavaScript Code som return $input.first().json.output.results för att skapa en enkel resultatlista.
  5. Inloggningsuppgifter krävs: Anslut era googlePalmApi-uppgifter i Gemini Chat for Search.
  6. Notis om AI-parser: Search Output Parser är en undernod till Search LLM Extractor; inloggningsuppgifter läggs till i Gemini Chat for Search, inte i parsern.

Steg 4: iterera resultaten och kör rekommendationer och trender parallellt

Loopa igenom varje resultat och generera rekommendationer och trender samtidigt.

  1. Behåll Iterate Through Entries kopplad efter Extract Results Array för att batcha varje SERP-resultat.
  2. Iterate Through Entries skickar output till både Trend Insight LLM och Recommendation LLM parallellt för samtidig analys.
  3. I Recommendation LLM, ställ in Text till =Provide recommendations based on the title and spippet: Title : {{ $json.title }} Snippet : {{ $json.snippet }} Make sure to return the data in JSON.
  4. I Trend Insight LLM, ställ in Text till =Extract the trends based on the title and spippet: Title : {{ $json.title }} Snippet : {{ $json.snippet }} Make sure to return the data in JSON.
  5. Inloggningsuppgifter krävs: Anslut era googlePalmApi-uppgifter i Gemini Chat for Advice och Gemini Chat for Trends.
  6. Notis om AI-parser: Advice Output Parser och Trends Output Parser är undernoder; inloggningsuppgifter ska ligga på Gemini Chat for Advice och Gemini Chat for Trends.

Steg 5: parsa, formatera och spara CSV med rekommendationer

Konvertera rekommendations-JSON till en fil och spara den på disk.

  1. I Parse Recommendations List, behåll JavaScript Code inställt till return $input.first().json.output.recommendations.
  2. Koppla Parse Recommendations List till Format Advice File för att konvertera listan till ett filformat.
  3. I Save Advice CSV, ställ in Operation till write och File Name till =d:\Google_SERP_Recommendations_Response_{{ new Date().toISOString().replace(/[:.]/g, '-')}}.csv.

⚠️ Vanlig fallgrop: Filsökvägen i Save Advice CSV använder en Windows-enhetsökväg. Om ni kör n8n på Linux eller Docker, uppdatera sökvägen till en giltig skrivbar katalog.

Steg 6: parsa, formatera och spara CSV med trender

Konvertera trend-JSON till en fil och spara den på disk innan ni loopar tillbaka till nästa post.

  1. I Parse Trends List, behåll JavaScript Code inställt till return $input.first().json.output.trends.
  2. Koppla Parse Trends List till Format Trends File för att förbereda en filutdata.
  3. I Save Trends CSV, ställ in Operation till write och File Name till =d:\Google_SERP_Trends_Response_{{ new Date().toISOString().replace(/[:.]/g, '-')}}.csv.
  4. Säkerställ att Save Trends CSV är kopplad tillbaka till Iterate Through Entries för att fortsätta bearbeta återstående resultat.

Säkerställ att både Save Advice CSV och Save Trends CSV skriver till åtkomliga platser för att undvika tysta fel vid skapande av filer.

Steg 7: testa och aktivera ert arbetsflöde

Validera körningen från start till mål och bekräfta att båda CSV-utdata genereras för SERP-sökningen.

  1. Klicka på Execute Workflow för att köra från Manual Start Trigger.
  2. Verifiera att Save Advice CSV och Save Trends CSV vardera skapar en fil med ett tidsstämplat namn.
  3. Kontrollera att körningen bearbetar alla objekt genom att bekräfta att Iterate Through Entries slutförs utan fel.
  4. När allt är bekräftat, växla arbetsflödet till Active för produktionsanvändning eller ersätt triggern med en schemalagd trigger vid behov.
🔒

Lås upp fullständig steg-för-steg-guide

Få den kompletta implementeringsguiden + nedladdningsbar mall

Tips för felsökning

  • Bright Data-credentials kan gå ut eller kräva specifika behörigheter. Om det strular: kontrollera först din Bright Data zone token och Header Auth-credential i n8n.
  • Om du använder Wait-noder eller extern bearbetning varierar tajmingen. Öka väntetiden om nedströmsnoder fallerar på tomma svar.
  • Gemini-prompter startar generiskt. Lägg in din tonalitet och din definition av “bra rekommendationer” tidigt, annars kommer du redigera utdata för alltid.

Snabba svar

Hur lång tid tar uppsättningen för den här SERP CSV-automatiseringen?

Cirka 30 minuter om du redan har dina Bright Data- och Gemini-nycklar.

Krävs kodning för den här SERP CSV-automatiseringen?

Nej. Du klistrar in credentials, ställer in inputfälten och kör en testkörning.

Är n8n gratis att använda för det här arbetsflödet för SERP CSV-automatisering?

Ja. n8n har ett gratis alternativ för egen hosting och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna in Bright Data-användning samt kostnader för Gemini API (ofta några cent per körning, beroende på hur mycket du tolkar och sammanfattar).

Var kan jag hosta n8n för att köra den här automatiseringen?

Två alternativ: n8n Cloud (hanterat, enklast uppsättning) eller egen hosting på en VPS. För egen hosting är Hostinger VPS prisvärd och hanterar n8n bra. Egen hosting ger dig obegränsat antal körningar men kräver grundläggande serverhantering.

Kan jag modifiera det här arbetsflödet för SERP CSV-automatisering för olika use cases?

Ja, och det bör du. De flesta börjar med att ändra fälten i “Assign Input Parameters” (sökord, zon, webhook-URL), och finjusterar sedan de två Gemini-prompter som används för rekommendationer och trender så att output matchar din nisch. Om du vill ha andra CSV-kolumner justerar du noderna “Format Advice File” och “Format Trends File” för att inkludera eller exkludera fält. Du kan också byta destination: istället för att spara till disk kan du pusha rader till Google Sheets eller Excel 365.

Varför misslyckas min Bright Data-anslutning i det här arbetsflödet?

Oftast beror det på att Web Unlocker-token eller zonnamnet är fel i inputfälten. Dubbelkolla Header Authentication-credential i n8n och bekräfta att requesten skickar en Bearer-token. Om requesten fungerar ibland och fallerar i burstar kan du slå i Bright Data-gränser eller få intermittenta blockeringar på specifika frågor, så sänk batchhastigheten och försök igen på misslyckade requests.

Vilken volym kan det här arbetsflödet för SERP CSV-automatisering hantera?

I de flesta n8n-uppsättningar är dussintals sökord per körning normalt, och du kan skala vidare med batching och schemaläggning.

Är den här SERP CSV-automatiseringen bättre än att använda Zapier eller Make?

Ofta ja, eftersom det här arbetsflödet kräver tolkning i flera steg, loopning igenom arrayer och strukturerad AI-output. n8n hanterar förgreningar och kodliknande transformationer utan att göra varje steg till en betald “task”, och du kan köra egen hosting när volymen växer. Zapier och Make fungerar fortfarande bra för enkla “hämta → skicka”-flöden, men SERP-arbete blir rörigt snabbt. Om compliance är viktigt är egen hosting en tydlig fördel eftersom du kontrollerar körning och loggar. Prata med en automationsexpert om du vill ha en snabb rekommendation baserat på din volym och dina rapporteringsbehov.

När detta väl rullar slutar SERP-spårning vara ett återkommande måste och blir ett repeterbart underlag för riktiga beslut. Arbetsflödet tar hand om det monotona, så att du kan fokusera på vad du ska publicera, förbättra eller sluta göra.

Kontakta oss

Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.

×

Använd mall

Få direkt tillgång till denna n8n-arbetsflödes JSON-fil

Få prisoffert redan idag!
Få prisoffert redan idag!

Berätta vad ni behöver hjälp med så hör vi av oss inom en arbetsdag!

Få prisoffert redan idag!
Få prisoffert redan idag!

Berätta vad ni behöver hjälp med så hör vi av oss inom en arbetsdag!

Launch login modal Launch register modal