Konkurrentanalys faller sönder i samma stund som din scraper blir blockerad. Du står där med halv-inläst HTML, “access denied”-sidor och ett kalkylark du inte kan lita på.
Den här Scrappey Sheets automation träffar mitt i prick för marknadschefer som följer budskapsförändringar, men även grundare som gör snabba marknadssvep och konsulter som bygger veckovisa omvärldsrapporter känner av nyttan. Du får ett stabilt flöde av färska sid-hämtningar loggade i Google Sheets, utan att behöva passa skrapningar hela veckan.
Nedan ser du hur workflowet körs, vilka resultat du kan förvänta dig och vad du behöver för att göra det driftsäkert i produktion (inte bara “funkar på min dator”).
Så fungerar den här automatiseringen
Hela n8n-workflowet, från trigger till slutlig output:
n8n Workflow Template: Scrappey + Google Sheets: pålitliga konkurrentdata
flowchart LR
subgraph sg0["Scheduled Automation Start Flow"]
direction LR
n0@{ icon: "mdi:play-circle", form: "rounded", label: "Scheduled Automation Start", pos: "b", h: 48 }
n1@{ icon: "mdi:swap-vertical", form: "rounded", label: "Sample Payload Builder", pos: "b", h: 48 }
n2["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/httprequest.dark.svg' width='40' height='40' /></div><br/>Web Scrape API Request"]
n1 --> n2
n0 --> n1
end
%% Styling
classDef trigger fill:#e8f5e9,stroke:#388e3c,stroke-width:2px
classDef ai fill:#e3f2fd,stroke:#1976d2,stroke-width:2px
classDef aiModel fill:#e8eaf6,stroke:#3f51b5,stroke-width:2px
classDef decision fill:#fff8e1,stroke:#f9a825,stroke-width:2px
classDef database fill:#fce4ec,stroke:#c2185b,stroke-width:2px
classDef api fill:#fff3e0,stroke:#e65100,stroke-width:2px
classDef code fill:#f3e5f5,stroke:#7b1fa2,stroke-width:2px
classDef disabled stroke-dasharray: 5 5,opacity: 0.5
class n0 trigger
class n2 api
classDef customIcon fill:none,stroke:none
class n2 customIcon
Problemet: konkurrenters sidor blockerar dina scrapers
Om du någon gång har försökt skrapa konkurrenters sidor i en vettig takt har du sett det. Ena dagen fungerar anropet, nästa dag ger samma URL en bot-kontroll, ett tomt skal eller en märklig redirect som ser “lyckad” ut men inte innehåller något användbart. Sedan klistrar du in “resultaten” i ett ark, fattar beslut baserat på det och upptäcker först att datan är fel när någon klickar igenom och ser att sidan inte matchar dina anteckningar. Det är inte bara bortkastad tid. Det är vilseledande underlag vid lanseringar, prisgenomgångar och positioneringsarbete.
Friktionen växer snabbt. Här är var det brukar brista.
- Du lägger cirka 10 minuter per mål-URL på att försöka igen, rotera headers och leta efter en workaround.
- Blockerade svar ser ut som “giltig data”, så dåliga rader smyger sig in i rapporter och förgiftar jämförelser i det tysta.
- Research blir inkonsekvent eftersom du bara kollar konkurrenter när du kommer ihåg det, inte enligt schema.
- När listan växer förbi några få sidor blir den manuella processen en veckouppgift du börjar undvika.
Lösningen: Scrappey-baserad skrapning loggad till Sheets
Det här workflowet använder n8n för att köra schemalagda skrapningar via Scrappey och förbereder sedan den returnerade sid-datan så att den blir enkel att lagra och granska. I stället för att skrapa “från din egen server” (det som ofta blir blockerat) skickar workflowet en request till Scrappeys API och får tillbaka den skrapade sidans innehåll som svar. Du styr vad som skrapas genom att ändra payloaden på ett ställe, vilket gör att samma workflow kan hantera en enskild landningssida, en uppsättning prissidor eller en roterande lista med produkt-URL:er. I praktiken slutar du brandkårsutryckning på skrapningar och börjar samla konkurrent-signaler som faktiskt är aktuella.
Workflowet startar enligt ett schema. Det bygger en payload (din URL och skrapinställningar), anropar sedan Scrappey via HTTP och tar emot sidresultatet. Därefter kan du logga outputen i Google Sheets så att teamet kan öppna ett ark och se vad som fångats.
Vad du får: automatisering vs. resultat
| Vad det här workflowet automatiserar | Resultat du får |
|---|---|
|
|
Exempel: så här ser det ut
Säg att du följer 25 konkurrent-URL:er (priser, landningssidor, viktiga funktionssidor) och uppdaterar dem veckovis. Manuell hantering, även med en snabb rutin “öppna, kopiera, klistra in, notera vad som ändrats”, tar kanske 10 minuter per sida, alltså runt 4 timmar varje vecka. Med det här workflowet triggar den schemalagda körningen automatiskt och Scrappey hämtar sidorna i bakgrunden. Du lägger din tid på att granska ett enda Google Sheet efter förändringar, vilket oftast hamnar närmare 20–30 minuter.
Det här behöver du
- n8n-instans (testa n8n Cloud gratis)
- Alternativ för self-hosting om du föredrar det (Hostinger fungerar bra)
- Scrappey för att skrapa sidor som ofta blockerar botar
- Google Sheets för att logga resultat och granska förändringar
- Scrappey API-nyckel (hämtas i din Scrappey-dashboard)
Kunskapsnivå: Nybörjare. Du klistrar in en API-nyckel, redigerar en payload och bekräftar schemat.
Vill du inte sätta upp det här själv? Prata med en automatiseringsexpert (gratis 15-minuters konsultation).
Så fungerar det
En schemalagd trigger startar allt. n8n kör workflowet med den takt du väljer (dagligen, veckovis eller mer aggressivt under en lanseringsbevakning).
En payload byggs från din måldata. Workflowet använder ett “set fields”-steg för att konstruera vad Scrappey ska skrapa, inklusive URL och eventuella parametrar du vill standardisera.
Scrappey hämtar sidinnehållet. En HTTP-request skickar payloaden till Scrappeys API, som returnerar den skrapade sidans data. Det här är den centrala “anti-blockering”-överlämningen som gör att din research inte kraschar varannan vecka.
Resultaten är redo att loggas och granskas. I en produktionsversion skickar du de viktiga fälten (URL, tidsstämpel, status, extraherad text eller HTML) till Google Sheets så att teamet kan sortera, filtrera och jämföra.
Du kan enkelt ändra listan med URL:er som ska skrapas utifrån dina behov. Se hela implementationsguiden nedan för anpassningsalternativ.
Steg-för-steg-guide för implementering
Steg 1: konfigurera schematriggern
Det här arbetsflödet startar enligt ett schema med Scheduled Automation Start och skickar sedan data vidare till Sample Payload Builder.
- Lägg till noden Scheduled Automation Start och öppna dess inställningar.
- Ställ in intervall för schemaregeln efter behov (nuvarande konfiguration använder standardinställningarna för intervall i Rule).
- Koppla Scheduled Automation Start till Sample Payload Builder.
Steg 2: anslut Web Scrape API
Arbetsflödet skickar en POST-begäran till ett scraping-API från Web Scrape API Request. Ni behöver ange er API-nyckel i frågeparametrarna.
- Öppna Web Scrape API Request och ställ in URL till
https://publisher.scrappey.com/api/v1. - Ställ in Method till
POST. - Aktivera Send Body och Send Query.
- I Query Parameters anger ni key som er API-nyckel (ersätt
[CONFIGURE_YOUR_API_KEY]).
[CONFIGURE_YOUR_API_KEY]. Ersätt den med er giltiga API-nyckel innan ni testar.Steg 3: konfigurera Sample Payload Builder
Sample Payload Builder skapar begäransdata som används av scraping-API:t. Den outputtar ett url-fält som injiceras i HTTP-begärans body.
- Öppna Sample Payload Builder och lägg till en strängtilldelning med namnet name och värdet
n8n. - Lägg till en strängtilldelning med namnet url och värdet
https://n8n.io/. - Bekräfta att noden outputtar
url, som refereras av begäransuttrycket{{ $json.url }}.
Steg 4: konfigurera Web Scrape API Request
Det här steget definierar body-parametrarna och kopplar payloaden till begäran.
- I Web Scrape API Request ställer ni in Body Parameters med cmd till
request.get. - Ställ in body-parametern url till uttrycket
{{ $json.url }}. - Säkerställ att noden är kopplad från Sample Payload Builder så att uttrycket tolkas korrekt.
Steg 5: testa och aktivera ert arbetsflöde
Verifiera flödet från Scheduled Automation Start → Sample Payload Builder → Web Scrape API Request innan ni kör enligt schema.
- Klicka på Execute Workflow för att köra ett manuellt test.
- Verifiera att Web Scrape API Request returnerar ett lyckat svar från scraping-API:t.
- Om begäran misslyckas, kontrollera API-nyckeln och uttrycket
{{ $json.url }}igen. - Växla arbetsflödet till Active för att aktivera schemalagd körning.
Vanliga fallgropar
- Scrappey-inloggning kan löpa ut eller kräva specifika behörigheter. Om något slutar fungera, börja med att kontrollera din Scrappey-dashboard och API-nyckeln som ligger i n8n-credentials.
- Om du använder Wait-noder eller extern rendering varierar processtiderna. Öka väntetiden om noder längre fram fallerar på tomma svar.
- Standardprompter i AI-noder är generiska. Lägg in ert varumärkes språk tidigt, annars kommer du att sitta och redigera output för alltid.
Vanliga frågor
Cirka 20 minuter om du redan har din Scrappey API-nyckel och ett målark.
Nej. Du klistrar in en API-nyckel och redigerar några fält i payloaden. Resten är att konfigurera schemat och bekräfta outputen.
Ja. n8n har ett gratis self-hosted-alternativ och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna in Scrappey API-kostnader baserat på hur många sidor du skrapar.
Två alternativ: n8n Cloud (hanterad tjänst, enklast setup) eller self-hosting på en VPS. För self-hosting är Hostinger VPS prisvärd och hanterar n8n bra. Self-hosting ger dig obegränsade körningar men kräver grundläggande serverhantering.
Ja, men du behöver byta ut steget “Sample Payload Builder” så att det läser rader från Google Sheets i stället för testdata. Många hämtar en URL-kolumn från Sheets, slår ihop den med standardinställningar för skrapning och skickar sedan varje rad genom “Web Scrape API Request”. Vanliga anpassningar är att lägga till ett tidsstämpelfält, spara HTTP-status och skriva den rensade texten i en separat flik för “Resultat”.
Oftast är det en ogiltig eller utgången API-nyckel i noden “Web Scrape API Request”, helt ärligt. Uppdatera nyckeln i n8n-credentials, kör sedan en testkörning igen och titta på HTTP-statusen och felmeddelandets body. Om du får svar om rate limit, minska hur många URL:er du skickar per körning eller sprid ut dem. Kontrollera också att din payload fortfarande matchar vad Scrappey förväntar sig, eftersom en liten formateringsändring kan orsaka ett hårt fel.
Om du self-hostar n8n finns ingen hård gräns för antalet körningar (det beror främst på din server och din Scrappey-plan). I n8n Cloud beror det på din månatliga körningskvot, men de flesta små team kan utan problem köra veckovisa skrapningar för dussintals sidor. I praktiken skalar du genom att batcha URL:er och styra hur ofta schemat körs.
För skrap-workflows är n8n oftast bättre, eftersom du kan styra request-payloaden, lägga in logik och bygga ut till flerstegsprocesser utan att snabbt slå i prissättningstak. Zapier kan fungera om du bara behöver ett enkelt flöde “anropa API och skriv rad”, och Make ligger någonstans mitt emellan. Men skrapning är sällan “ställ in och glöm”, så bättre felsökning och branching hjälper. Om du vill, prata med en automatiseringsexpert så pekar vi dig till det enklaste alternativet som inte går sönder nästa månad.
När det här väl rullar slutar konkurrentbevakning vara en kalenderpåminnelse du ignorerar. Du får ett ark fullt av färska sidor, och du kan äntligen fokusera på vad som ändrats och vad ni ska göra åt det.
Kontakta oss
Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.