Behöver ert företag hjälp med att implementera AI? Kontakta oss och få prisoffert här →
AI Skolan
januari 22, 2026

Scrapeless + Google Sheets: SEO-ämnen till utkast

Rickard Andersson Partner, Nodenordic.se

Din innehållskalender ska inte vara beroende av magkänsla, utspridda anteckningar och ett halvfärdigt keyword-kalkylark. Men det är ofta så ”SEO-research” ser ut: några verktyg öppna, 30 flikar med konkurrentinlägg och ett dokument som aldrig blir ett publicerbart utkast.

Det är här Scrapeless SEO-automatisering lönar sig. Content managers känner smärtan först, ärligt talat, men growth-ansvariga och byråteam fastnar i samma loop. Du går från ”vi borde skriva något om X” till prioriterade ämnen och artiklar som är klara för utkast, lagrade i din databas.

Det här arbetsflödet använder Scrapeless, Google Sheets och AI för att hitta trendande sökord, analysera topresultaten och skapa utkast som du kan granska och publicera. Här är vad det gör, vad du behöver och vad du ska se upp med.

Så fungerar automatiseringen

Hela n8n-flödet, från trigger till slutlig output:

n8n Workflow Template: Scrapeless + Google Sheets: SEO-ämnen till utkast

Problemet: SEO-ämnen blir inte till utkast

Sökordsanalys är lätt att starta och svårt att avsluta. Du hämtar ”relaterade sökfrågor”, kopierar några till ett ark och sedan ska du avgöra vad som är viktigt, kontrollera vem som redan rankar, plocka ut vad de har täckt och göra om det till en brief eller ett utkast. Det är den där ”ska”-delen som gör att veckor försvinner. Under tiden fortsätter sajten att publicera säkra ämnen som inte flyttar trafiken, eller så jagar ni en trend för sent eftersom ingen hann validera den.

Det summeras snabbt. Och kostnaden är inte bara tid. Det är momentum.

  • De flesta team lägger cirka 2 timmar på att validera ett enda ämne när du räknar in SERP-kontroller, läsning av konkurrenter och städning av anteckningar.
  • Prioritering blir politisk, så låginsatsidéer vinner över långsvansmöjligheter med hög potential.
  • Konkurrentanalys blir inkonsekvent eftersom alla ”skummar” på olika sätt, vilket leder till utkast med tydliga luckor.
  • Ditt ark blir en kyrkogård av sökord utan tydlig nästa åtgärd, så publiceringen saktar ner precis när den borde öka.

Lösningen: trenddrivna ämnen, automatiskt prioriterade, utkastade

Det här arbetsflödet gör ett seed-sökord till en repeterbar pipeline: upptäck vad som trendar, avgör vad som är värt att skriva, analysera vad som redan rankar och generera sedan ett SEO-utkast som du faktiskt kan granska. Du börjar med att ange en seed-term (som ”projektledning” eller en produktkategori). Scrapeless hämtar relaterade sökfrågor från Google Trends och samlar signaler för intresse över tid. En AI-agent granskar sedan signalerna, märker varje sökord med prioritet (P0–P3) och loggar ”vad” och ”varför” i Google Sheets.

Därefter väljer flödet bara de högre prioriterade ämnena (P0–P2), kör en Google-sökning via Scrapeless/Deep SerpAPI och hämtar de främsta organiska konkurrent­sidorna. Scrapeless crawlar varje sida och extraherar korrekt formaterad Markdown, så att din AI-skribent inte gissar baserat enbart på titlar. Till sist genererar agenten ”Senior Content Writer” ett komplett SEO-artikelutkast (titel, slug, metabeskrivning, strategisammanfattning och en strukturerad brödtext). Den färdiga outputen sparas i Supabase, redo för granskning eller API-baserad publicering.

Arbetsflödet startar när du triggar det i n8n och anger (eller uppdaterar) ditt seed-sökord. Därefter hittar och poängsätter det trendbaserade long-tail-sökord, berikar sedan de bästa med konkurrentinnehåll. Slutligen producerar AI artikelutkast och lagrar dem i Supabase, medan Google Sheets håller din prioriterade ämneslista prydlig.

Vad du får: automatisering vs. resultat

Exempel: så här ser det ut

Säg att du publicerar 4 SEO-inlägg per vecka för en internationell sajt. Manuellt, om du lägger cirka 2 timmar per ämne på trender + konkurrentläsning, är det ungefär 8 timmar innan skrivandet ens börjar. Med det här arbetsflödet triggar du körningen, väntar på att research och utkast blir klara och granskar sedan det som lagras i Supabase. Sättupp-tiden är en engångsinsats på 30–60 minuter, och veckovis ”ämne till utkast”-tid sjunker vanligtvis till cirka en timmes granskning och redigering.

Det här behöver du

  • n8n-instans (prova n8n Cloud gratis)
  • Alternativ för self-hosting om du föredrar det (Hostinger fungerar bra)
  • Scrapeless för trender, SERP och crawling.
  • Google Sheets för att lagra och hantera ämnesprioriteringar.
  • Supabase för att lagra utkast och strukturerad artikel-JSON.
  • LLM-uppgifter (hämta från OpenAI- eller Anthropic-konsolen).

Kunskapsnivå: Medel. Du kopplar några API:er, mappar fält och testkör med små batcher.

Vill du inte sätta upp detta själv? Prata med en automationsexpert (gratis 15-minuters konsultation).

Så fungerar det

Du triggar körningen och anger dina seed-termer. Arbetsflödet startar från en manuell trigger och steget ”Assign Seed Terms” definierar nischen som du vill bygga topical authority inom.

Trender samlas in och poängsätts. Scrapeless hämtar relaterade sökfrågor och data för intresse över tid, och sedan granskar en AI-agent signalerna och märker varje sökord med en prioritet (P0–P3) så att du inte gissar.

Bara de bästa ämnena får full konkurrentanalys. Arbetsflödet filtrerar bort lågprioriterade objekt, kör en Google-sökning, väljer de främsta konkurrentlänkarna, crawlar sedan sidorna och konverterar dem till korrekt formaterad Markdown som din skribentmodell kan använda.

Utkast genereras och sparas. Agenten ”Senior Content Writer” tar fram ett strukturerat artikelpaket (titel, slug, meta, strategisammanfattning, brödtextblock), därefter parsar arbetsflödet JSON:en och skriver in den i Supabase för granskning och publicering.

Du kan enkelt justera prioritetströsklarna för att bredda eller snäva in vad som ska utkastas utifrån dina behov. Se hela implementationsguiden nedan för anpassningsalternativ.

Steg-för-steg-guide för implementering

Steg 1: konfigurera den manuella triggern

Starta arbetsflödet med en manuell körning så att ni kan validera utdata innan ni schemalägger eller driftsätter.

  1. Lägg till Manual Run Trigger som startnod.
  2. Observera att Manual Run Trigger skickar utdata parallellt till både Assign Seed Terms och Fetch Sheet Rows.

Steg 2: anslut Google Sheets

Konfigurera Google Sheets-noderna för att lagra trendinsikter och hämta befintliga ämnesrader för konkurrentanalys.

  1. Öppna Upsert Sheet Record och ställ in Operation till appendOrUpdate.
  2. Ställ in Document till [YOUR_ID] och Sheet till [YOUR_ID] i Upsert Sheet Record.
  3. Mappa fält i Upsert Sheet Record: Level{{ $json.recommended_priority }}, Reason{{ $json.data_interpretation }}, Seed Keywords{{ $('Assign Seed Terms').item.json.seedKeyword }}, Related Keywords{{ $json.keyword }}.
  4. Öppna Fetch Sheet Rows och ställ in Document till [YOUR_ID] och Sheet till [YOUR_ID].
  5. Inloggningsuppgifter krävs: anslut era googleSheetsOAuth2Api-inloggningsuppgifter till Upsert Sheet Record och Fetch Sheet Rows.

Steg 3: konfigurera trendidentifiering och prioritering

Den här grenen genererar trendbaserade nyckelordsprioriteringar och skriver dem till arket.

  1. I Assign Seed Terms, ställ in seedKeyword till Project Management.
  2. Konfigurera Fetch Trend Topics med Operation googleTrends, Data Type related_queries, Geo US och Query {{ $json.seedKeyword }}.
  3. Ställ in Expand Related Queries för att dela upp Field to Split Out related_queries.top.
  4. Konfigurera Retrieve Trend Heat med Operation googleTrends, Geo US och Query {{ $json.query }}.
  5. I Trend Analysis Agent, behåll Text som =The following are the keywords for the topic:` {{ $json.parameters.q }}` trends data: ``` {{ $json.interest_over_time.toJsonString() }} ``` och säkerställ att Has Output Parser är aktiverat.
  6. Granska Structured Result Parser och behåll JSON-schemaexemplet enligt det som är angivet.
  7. Låt koden i Prioritize Output Sorter vara oförändrad för att sortera efter nivåerna P0–P3.
  8. Inloggningsuppgifter krävs: anslut era scrapelessApi-inloggningsuppgifter till Fetch Trend Topics och Retrieve Trend Heat.
  9. Inloggningsuppgifter krävs: anslut era anthropicApi-inloggningsuppgifter till Anthropic Chat Engine.
  10. Obs: Structured Result Parser är en subnod till Trend Analysis Agent. Lägg till inloggningsuppgifter i Anthropic Chat Engine, inte i parsern.

Om Trend Analysis Agent returnerar ostrukturerad utdata, verifiera att JSON-schemat i Structured Result Parser är intakt och att Anthropic Chat Engine är ansluten som språkmodell.

Steg 4: konfigurera konkurrentanalys och innehållsaggregering

Den här grenen filtrerar prioriterade ämnen, söker efter konkurrenter, crawlar sidor och aggregerar markdown-innehåll.

  1. I Distribute Level Items, ställ in Field to Split Out till Level och Include till allOtherFields.
  2. Konfigurera Exclude Low Priority Topics med ett villkor: Level {{ $json.Level }} notContains P3.
  3. Ställ in frågan i Run Google Search till {{ $json['Related Keywords'] }}.
  4. I Select Top Competitor Links, ställ in organic_results till {{ $json.organic_results.slice(0,3) }}.
  5. Konfigurera Split Competitor Results för att dela upp Field to Split Out organic_results.
  6. Ställ in Crawl Competitor Pages med Resource crawler, Operation crawl och URL {{ $json.link }}.
  7. I Map Competitor Markdown, ställ in markdown till {{ $json[0].markdown }}.
  8. Konfigurera Aggregate Markdown för att aggregera fältet markdown.
  9. Inloggningsuppgifter krävs: anslut era scrapelessApi-inloggningsuppgifter till Run Google Search och Crawl Competitor Pages.

⚠️ Vanlig fallgrop: om Map Competitor Markdown ger tomt innehåll, bekräfta att Run Google Search returnerade resultat och att Crawl Competitor Pages hämtade siddata.

Steg 5: konfigurera AI-skrivning, parsning och lagring

Skapa en fullständig SEO-artikel från aggregerad markdown och lagra den i Supabase.

  1. I Senior Content Writer, behåll den strukturerade prompten och JSON-utdataformatet intakt.
  2. Säkerställ att Anthropic Writer Model är ansluten som språkmodell för Senior Content Writer.
  3. Låt koden i Parse AI Article JSON vara oförändrad för att rensa och parsa modellens utdata.
  4. I Insert Supabase Row, ställ in Table till seo_articles och mappa fält: title{{ $json.title }}, meta_description{{ $json.meta_description }}, body{{ $json.body }}, slug{{ $json.slug }}.
  5. Inloggningsuppgifter krävs: anslut era anthropicApi-inloggningsuppgifter till Anthropic Writer Model.
  6. Inloggningsuppgifter krävs: anslut era supabaseApi-inloggningsuppgifter till Insert Supabase Row.

Om Parse AI Article JSON ger parsningfel, granska råutdata i föregående körning för att bekräfta att den innehåller ett giltigt JSON-objekt.

Steg 6: testa och aktivera ert arbetsflöde

Kör arbetsflödet från början till slut för att verifiera arkuppdateringar, konkurrentcrawling, AI-utdata och databaslagring.

  1. Klicka på Execute Workflow från Manual Run Trigger för att testa alla grenar.
  2. Bekräfta att Upsert Sheet Record skriver prioriterade nyckelord till ert Google Sheet.
  3. Verifiera att Aggregate Markdown matar ut en array med konkurrentinnehåll innan Senior Content Writer körs.
  4. Kontrollera att Insert Supabase Row skapar en ny post i seo_articles med ifyllda fält.
  5. När testet lyckas, växla arbetsflödet till Active för användning i produktion.
🔒

Lås upp fullständig steg-för-steg-guide

Få den kompletta implementeringsguiden + nedladdningsbar mall

Vanliga fallgropar

  • Scrapeless-uppgifter kan löpa ut eller så kan din plan blockera vissa endpoints. Om något skapar fel, kontrollera först användningen i din Scrapeless-dashboard och status för API-nyckeln.
  • Om du använder Wait-noder eller extern rendering varierar processtiderna. Öka väntetiden om efterföljande noder misslyckas på grund av tomma svar.
  • Standardprompter i AI-noder är generiska. Lägg in din varumärkesröst tidigt, annars kommer du att redigera output för alltid.

Vanliga frågor

Hur lång tid tar det att sätta upp den här Scrapeless SEO-automatiseringen?

Cirka 30–60 minuter när dina API-nycklar är klara.

Behöver jag kodkunskaper för att automatisera SEO-ämnesresearch och generering av utkast?

Nej. Du kopplar mest konton, klistrar in API-nycklar och justerar några fält som ditt seed-sökord och prioriteringsregler.

Är n8n gratis att använda för det här Scrapeless SEO-automatiseringsflödet?

Ja. n8n har ett gratis self-hosted-alternativ och en gratis provperiod på n8n Cloud. Cloud-planer börjar på $20/månad för högre volym. Du behöver också räkna med Scrapeless-användning samt LLM API-kostnader för utkast.

Var kan jag hosta n8n för att köra den här automatiseringen?

Två alternativ: n8n Cloud (hanterat, enklast uppsättning) eller self-hosting på en VPS. För self-hosting är Hostinger VPS prisvärd och hanterar n8n bra. Self-hosting ger dig obegränsade körningar men kräver grundläggande serveradministration.

Kan jag anpassa det här Scrapeless SEO-automatiseringsflödet för flera länder eller språk?

Ja, och det är en vanlig justering för internationell SEO. Du kan köra separata seed-termer per locale och sedan skicka en lands-/språkparameter i Scrapeless-trend- och sökförfrågningarna. De flesta team justerar också AI-prompterna i stegen ”Trend Analysis Agent” och ”Senior Content Writer” så att output matchar lokal intent och stavningskonventioner. Om du vill behålla en gemensam master-backlogg, lägg till en locale-kolumn i Google Sheets och inkludera den i Supabase-posten.

Varför misslyckas min Scrapeless-anslutning i det här arbetsflödet?

Oftast beror det på en ogiltig eller utgången API-nyckel, eller att endpointen du anropar inte är aktiverad i din plan. Skapa en ny nyckel i Scrapeless, uppdatera den i n8n och kör sedan om ett enda sökord för att bekräfta att det fungerar. Om det bara misslyckas vid större batcher kan det vara rate limiting; sakta ner arbetsflödet eller minska hur många sökord du processar per körning.

Hur många sökord och utkast kan den här Scrapeless SEO-automatiseringen hantera?

Om du self-hostar n8n finns ingen körningsgräns, så begränsningen är främst din serverstorlek och dina Scrapeless/LLM-kvoter. På n8n Cloud beror det på din plans månatliga körningar. I praktiken processar många team 20–50 sökord per körning och genererar sedan utkast bara för P0–P2 för att kontrollera crawl- och modellkostnader.

Är den här Scrapeless SEO-automatiseringen bättre än att använda Zapier eller Make?

Ofta, ja. Den här typen av pipeline behöver filtrering, förgreningar, strukturerad parsing och forskningsloopar i flera steg, och n8n hanterar det utan att du betalar extra för varje väg. Self-hosting är också viktigt om du vill ha obegränsade körningar eller om du använder community-noder som inte fungerar på hanterade plattformar. Zapier eller Make kan fortfarande vara bra för enkla ”skicka den här raden till det här verktyget”-automationer, men de blir klumpiga när du lägger till crawling och agentbaserad utkastgenerering. Om du är osäker, prata med en automationsexpert och mappa det mot din volym.

När det här väl rullar slutar din backlogg att vara en önskelista och blir en produktionslinje. Arbetsflödet tar hand om den repetitiva researchen och utkastandet så att du kan lägga din tid på granskning, differentiering och publicering.

Kontakta oss

Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.

×

Använd mall

Få direkt tillgång till denna n8n-arbetsflödes JSON-fil

Launch login modal Launch register modal