Konkurrenters nyckelordsanalys börjar oftast med goda intentioner. Sedan blir det till flikar, kopiera-klistra, ”jag dokumenterar senare” och ett kalkylark som ingen litar på.
SEO-specialister känner av det först, helt ärligt. Men contentstrateger och growth marketers springer in i samma vägg när de jonglerar flera konkurrenter och behöver konsekvent uppföljning av konkurrenters nyckelord.
Det här arbetsflödet använder Decodo-scraping plus OpenAI-analys för att omvandla valfri konkurrent-URL till felfria, strukturerade insikter i Google Sheets. Du lär dig vad det gör, vad du behöver och hur du får det att rulla stabilt.
Så fungerar den här automatiseringen
Här är hela arbetsflödet du kommer att sätta upp:
n8n Workflow Template: Decodo + Google Sheets för sökordsspårning
flowchart LR
subgraph sg0["When clicking ‘Execute workflow’ Flow"]
direction LR
n0@{ icon: "mdi:database", form: "rounded", label: "Google Sheets Append Row", pos: "b", h: 48 }
n1@{ icon: "mdi:play-circle", form: "rounded", label: "When clicking ‘Execute workf..", pos: "b", h: 48 }
n2@{ icon: "mdi:cog", form: "rounded", label: "Decodo", pos: "b", h: 48 }
n3@{ icon: "mdi:swap-vertical", form: "rounded", label: "Set the Input Fields", pos: "b", h: 48 }
n4@{ icon: "mdi:robot", form: "rounded", label: "Analyze Keywords", pos: "b", h: 48 }
n5@{ icon: "mdi:brain", form: "rounded", label: "OpenAI Chat Model for Keywor..", pos: "b", h: 48 }
n6["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/code.svg' width='40' height='40' /></div><br/>Extract Structured JSON"]
n2 --> n4
n4 --> n6
n3 --> n2
n6 --> n0
n1 --> n3
n5 -.-> n4
end
%% Styling
classDef trigger fill:#e8f5e9,stroke:#388e3c,stroke-width:2px
classDef ai fill:#e3f2fd,stroke:#1976d2,stroke-width:2px
classDef aiModel fill:#e8eaf6,stroke:#3f51b5,stroke-width:2px
classDef decision fill:#fff8e1,stroke:#f9a825,stroke-width:2px
classDef database fill:#fce4ec,stroke:#c2185b,stroke-width:2px
classDef api fill:#fff3e0,stroke:#e65100,stroke-width:2px
classDef code fill:#f3e5f5,stroke:#7b1fa2,stroke-width:2px
classDef disabled stroke-dasharray: 5 5,opacity: 0.5
class n1 trigger
class n4 ai
class n5 aiModel
class n0 database
class n6 code
classDef customIcon fill:none,stroke:none
class n6 customIcon
Varför detta spelar roll: konsekventa nyckelordsdata för konkurrenter
Manuell uppföljning av konkurrenters nyckelord faller isär på tysta, irriterande sätt. Du skrapar en sida en vecka, och nästa vecka ”höftar du” eftersom du har fullt upp. Någon ändrar målland, eller tar fel URL-variant, och plötsligt går resultaten inte längre att jämföra. Även när du använder SEO-verktyg gör API-begränsningar eller saknad kontext att du ändå hamnar i manuell tolkning: intention, ämnesfokus, semantiska entiteter och vad sidan faktiskt försöker ranka på. Det är inte svårt arbete. Det är dränerande arbete, och det stjäl tid från besluten.
Inget av detta är problemet i sig. Tillsammans är det det.
- Du får nyckelordsnoteringar utspridda i dokument, webbläsarflikar och halvfärdiga kalkylark.
- Resultaten varierar mellan personer, så ”trendanalys” blir en diskussion i stället för en graf.
- Det är lätt att missa viktiga skiften eftersom du inte kontrollerar om sidor med en jämn rytm.
- Manuell kopiera-klistra in småfel som i det tysta förstör jämförelser över månader.
Det du bygger: automatiserad uppföljning av konkurrenters nyckelord i Sheets
Det här arbetsflödet förvandlar en konkurrentwebbsida till strukturerad nyckelordsintelligens som du faktiskt kan följa över tid. Det startar när du kör det manuellt i n8n (eller senare schemalägger det) och sätter två enkla indata: URL:en du vill analysera och mållandet. Decodo skrapar sedan sidans innehåll och metadata så att du inte förlitar dig på skör kopiera-klistra eller ofullständiga ”visa sidkälla”-genvägar. Därefter tolkar OpenAI (GPT-4.1-mini i arbetsflödet) det som hittas: primära och sekundära nyckelord, intention, semantiskt fokus, densitetssammanfattning och ett övergripande SEO-styrkebetyg baserat på sidans signaler. Till sist parsar arbetsflödet AI-resultatet till felfri JSON och lägger till en ny rad i Google Sheets, som blir din levande logg för konkurrentuppföljning.
Arbetsflödet börjar med konsekventa indata, så att din data förblir jämförbar. Skrapningen samlar råmaterialet. Analysen gör om det till insikter. Sheets blir den enda platsen teamet kollar innan ni planerar innehåll eller uppdaterar sidor.
Det du bygger
| Det som automatiseras | Det du uppnår |
|---|---|
|
|
Förväntade resultat
Säg att du följer 10 konkurrent-URL:er varje vecka. Manuellt är det lätt att lägga cirka 30 minuter per sida mellan skrapning, skumläsning, gissad intention och att skriva ner allt, alltså runt 5 timmar per vecka. Med det här arbetsflödet lägger du kanske 5 minuter per URL på att ange mål och köra det (eller köra en batch senare), och väntar sedan på att skrapning + analys blir klara. Du får samma strukturerade fält varje gång, redan loggade i Google Sheets.
Innan du börjar
- n8n-instans (prova n8n Cloud gratis)
- Alternativ för self-hosting om du föredrar det (Hostinger fungerar bra)
- Decodo för att skrapa innehåll från konkurrentens sida.
- Google Sheets för att lagra nyckelordsinsikter över tid.
- OpenAI API-nyckel (hämta den i OpenAI-dashboarden).
Svårighetsgrad: Nybörjare. Du kopplar in autentiseringsuppgifter, ändrar ett par fält och kör en testkörning.
Vill du att någon bygger detta åt dig? Prata med en automationsexpert (gratis 15-minuters konsultation).
Steg för steg
Du startar det vid begäran (eller senare enligt ett schema). I det medföljande arbetsflödet är det en manuell start som drar igång allt, vilket är perfekt för test och för enstaka konkurrentkontroller.
Du anger URL och målland. Ett enkelt steg för att ”sätta fält” definierar vilken sida som ska analyseras och vilken region du bryr dig om, så att du inte råkar jämföra Frankrike med USA och undrar varför nyckelorden ändrades.
Decodo skrapar sidan, sedan tolkar OpenAI den. Decodo samlar innehåll och metadata, och AI-kedjan extraherar primära/sekundära nyckelord, intention, densitetssammanfattning, semantiska entiteter och ett betyg du kan följa upp.
Resultaten struktureras och lagras i Google Sheets. Arbetsflödet parsar AI-output till felfria fält (JSON) och lägger till en ny rad i ditt kalkylark, så att varje körning blir en jämförbar ögonblicksbild.
Du kan enkelt ändra indatakällan från ”en URL” till ”en lista med URL:er i ett kalkylark” utifrån dina behov. Se hela implementationsguiden nedan för anpassningsalternativ.
Steg-för-steg-guide för implementation
Steg 1: konfigurera den manuella triggern
Det här arbetsflödet börjar med en manuell trigger så att ni kan testa sökordsspårning vid behov.
- Lägg till noden Manual Execution Start som trigger.
- Lämna alla standardinställningar i Manual Execution Start eftersom den inte har några parametrar.
- Koppla Manual Execution Start till Assign Input Fields.
Steg 2: anslut Google Sheets
Lagra analyserade resultat från sökordsanalysen i ert kalkylark.
- Lägg till noden Append to Spreadsheet.
- Inloggningsuppgifter krävs: anslut era googleSheetsOAuth2Api-uppgifter i Append to Spreadsheet.
- Ställ in Operation på
appendOrUpdate. - Ställ in Data Mode på
autoMapInputData. - Välj ert kalkylark i Document; det här arbetsflödet använder
[YOUR_ID]. - Välj blad i Sheet Name; det här arbetsflödet använder
Sheet1. - Ställ in Column to Match On på
keyword_density_summary.
primary_keywords, seo_strength_score, content_summary).Steg 3: konfigurera indata och scrape-förfrågan
Definiera URL- och geo-parametrar och hämta sedan sidinnehållet.
- I Assign Input Fields, ställ in url på
https://dev.to. - I Assign Input Fields, ställ in geo på
france. - Koppla Assign Input Fields till Decodo Scrape Request.
- I Decodo Scrape Request, ställ in geo på
={{ $json.geo }}. - I Decodo Scrape Request, ställ in url på
={{ $json.url }}. - Inloggningsuppgifter krävs: anslut era decodoApi-uppgifter i Decodo Scrape Request.
Steg 4: konfigurera AI-baserad sökordsanalys och tolkning
Analysera hämtat innehåll med LLM:en och tolka sedan den strukturerade JSON-utmatningen.
- I OpenAI Chat Model, välj modellen
gpt-4o-mini. - Inloggningsuppgifter krävs: anslut era openAiApi-uppgifter i OpenAI Chat Model.
- I Keyword Analysis Engine, ställ in Prompt Type på
define. - Ställ in Text till den angivna prompten som refererar till det hämtade innehållet med
{{ $json.data.results[0].content }}. - Koppla OpenAI Chat Model till Keyword Analysis Engine som språkmodell.
- Koppla Keyword Analysis Engine till Parse Structured Output.
- I Parse Structured Output, behåll JavaScript Code som angivet för att ta bort code fences och tolka JSON.
- Koppla Parse Structured Output till Append to Spreadsheet.
Steg 5: testa och aktivera ert arbetsflöde
Kör ett manuellt test för att verifiera scraping, AI-analys och uppdateringar i kalkylarket.
- Klicka på Execute Workflow för att trigga Manual Execution Start.
- Bekräfta att Decodo Scrape Request returnerar innehåll i
$json.data.results[0].content. - Verifiera att Keyword Analysis Engine returnerar ett JSON-liknande svar i
text. - Kontrollera Parse Structured Output för giltiga JSON-fält (t.ex.
primary_keywords,seo_strength_score). - Öppna ert Google Sheet och bekräfta att en ny rad läggs till eller uppdateras i Append to Spreadsheet.
- När ni är nöjda, slå om arbetsflödet till Active för användning i produktion.
Felsökningstips
- Decodo-autentisering kan löpa ut eller kräva specifika behörigheter. Om det skapar fel, kontrollera din token i Decodo Dashboard (Basic Authentication) först.
- Om Decodo returnerar tunt innehåll (eller en blockerad sida) svarar OpenAI ändå, men nyckelordsresultatet blir generiskt. Testa samma URL i en webbläsare och prova en annan sidtyp (blogginlägg kontra kategorisida).
- Google Sheets-tillägg kan misslyckas när kolumnnamn glider. Håll dina rubriker stabila (primary_keywords, seo_strength_score, keyword_density_summary, etc.) och bekräfta att målarket/fliken matchar nodens konfiguration.
Snabba svar
Cirka 30 minuter om dina Decodo-, OpenAI- och Google-uppgifter är klara.
Nej. Du kopplar mest konton och ändrar URL-/land-indata. Arbetsflödet innehåller ett kodsteg, men det är redan byggt åt dig.
Ja. n8n har ett gratis self-hosted-alternativ och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna in kostnader för OpenAI API-användning, som vanligtvis är små per körning för den här typen av sidanalys.
Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller self-hosting på en VPS. För self-hosting är Hostinger VPS prisvärd och hanterar n8n bra. Self-hosting ger dig obegränsade körningar men kräver grundläggande serverhantering.
Ja, och det är byggt för det. Du kan byta ut triggen ”Manual Execution Start” mot ett Cron-schema för att köra veckovis, eller ersätta steget ”Assign Input Fields” med en Google Sheets-uppslagning som matar in en lista med konkurrent-URL:er. Många team justerar också prompten i Keyword Analysis Engine för att få med idéer för internlänkning, förslag på metadata eller läsbarhetsnoteringar, och lägger sedan till nya kolumner i Google Sheets som matchar.
Oftast beror det på en ogiltig eller utgången Basic Authentication-token från Decodo Dashboard. Uppdatera autentiseringsuppgifterna i n8n och kör en enda URL igen för att bekräfta att skrapningen returnerar verkligt sidinnehåll. Om sidan blockerar botar, testa en annan konkurrent-URL först för att verifiera att det inte är en sajt-specifik begränsning.
Om du self-hostar n8n finns inget tak för antal körningar (det beror främst på din server och hastigheten för skrapning/LLM). På n8n Cloud begränsar din plan antal körningar per månad; för många mindre team räcker Starter-nivån för veckouppföljning av dussintals URL:er.
Ofta ja, eftersom det här arbetsflödet behöver mer än en enkel ”skrapa och klistra in”-sekvens. n8n gör det enklare att styra förgreningslogik, hantera strukturerad parsning och köra mer avancerade AI-steg utan att betala per premiumfunktion. Det ger också ett self-hosting-alternativ, vilket spelar roll när du skalar kontroller över många konkurrenter. Zapier och Make kan fortfarande fungera om du håller det lättviktigt, men så fort du vill ha repeterbar strukturerad output kommer begränsningarna märkas. Prata med en automationsexpert om du vill ha en snabb rekommendation för din exakta setup.
När detta väl rullar blir ditt kalkylark en veckovis ögonblicksbild av konkurrensläget, inte ett stökigt arkiv av enstaka anteckningar. Arbetsflödet tar hand om det repetitiva jobbet så att du kan fokusera på vad som ska publiceras, uppdateras eller gallras härnäst.
Kontakta oss
Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.