Behöver ert företag hjälp med att implementera AI? Kontakta oss och få prisoffert här →
AI Skolan
januari 22, 2026

Scrappey + Google Sheets: pålitliga konkurrentdata

Rickard Andersson Partner, Nodenordic.se

Konkurrentanalys faller sönder i samma stund som din scraper blir blockerad. Du står där med halv-inläst HTML, “access denied”-sidor och ett kalkylark du inte kan lita på.

Den här Scrappey Sheets automation träffar mitt i prick för marknadschefer som följer budskapsförändringar, men även grundare som gör snabba marknadssvep och konsulter som bygger veckovisa omvärldsrapporter känner av nyttan. Du får ett stabilt flöde av färska sid-hämtningar loggade i Google Sheets, utan att behöva passa skrapningar hela veckan.

Nedan ser du hur workflowet körs, vilka resultat du kan förvänta dig och vad du behöver för att göra det driftsäkert i produktion (inte bara “funkar på min dator”).

Så fungerar den här automatiseringen

Hela n8n-workflowet, från trigger till slutlig output:

n8n Workflow Template: Scrappey + Google Sheets: pålitliga konkurrentdata

Problemet: konkurrenters sidor blockerar dina scrapers

Om du någon gång har försökt skrapa konkurrenters sidor i en vettig takt har du sett det. Ena dagen fungerar anropet, nästa dag ger samma URL en bot-kontroll, ett tomt skal eller en märklig redirect som ser “lyckad” ut men inte innehåller något användbart. Sedan klistrar du in “resultaten” i ett ark, fattar beslut baserat på det och upptäcker först att datan är fel när någon klickar igenom och ser att sidan inte matchar dina anteckningar. Det är inte bara bortkastad tid. Det är vilseledande underlag vid lanseringar, prisgenomgångar och positioneringsarbete.

Friktionen växer snabbt. Här är var det brukar brista.

  • Du lägger cirka 10 minuter per mål-URL på att försöka igen, rotera headers och leta efter en workaround.
  • Blockerade svar ser ut som “giltig data”, så dåliga rader smyger sig in i rapporter och förgiftar jämförelser i det tysta.
  • Research blir inkonsekvent eftersom du bara kollar konkurrenter när du kommer ihåg det, inte enligt schema.
  • När listan växer förbi några få sidor blir den manuella processen en veckouppgift du börjar undvika.

Lösningen: Scrappey-baserad skrapning loggad till Sheets

Det här workflowet använder n8n för att köra schemalagda skrapningar via Scrappey och förbereder sedan den returnerade sid-datan så att den blir enkel att lagra och granska. I stället för att skrapa “från din egen server” (det som ofta blir blockerat) skickar workflowet en request till Scrappeys API och får tillbaka den skrapade sidans innehåll som svar. Du styr vad som skrapas genom att ändra payloaden på ett ställe, vilket gör att samma workflow kan hantera en enskild landningssida, en uppsättning prissidor eller en roterande lista med produkt-URL:er. I praktiken slutar du brandkårsutryckning på skrapningar och börjar samla konkurrent-signaler som faktiskt är aktuella.

Workflowet startar enligt ett schema. Det bygger en payload (din URL och skrapinställningar), anropar sedan Scrappey via HTTP och tar emot sidresultatet. Därefter kan du logga outputen i Google Sheets så att teamet kan öppna ett ark och se vad som fångats.

Vad du får: automatisering vs. resultat

Exempel: så här ser det ut

Säg att du följer 25 konkurrent-URL:er (priser, landningssidor, viktiga funktionssidor) och uppdaterar dem veckovis. Manuell hantering, även med en snabb rutin “öppna, kopiera, klistra in, notera vad som ändrats”, tar kanske 10 minuter per sida, alltså runt 4 timmar varje vecka. Med det här workflowet triggar den schemalagda körningen automatiskt och Scrappey hämtar sidorna i bakgrunden. Du lägger din tid på att granska ett enda Google Sheet efter förändringar, vilket oftast hamnar närmare 20–30 minuter.

Det här behöver du

  • n8n-instans (testa n8n Cloud gratis)
  • Alternativ för self-hosting om du föredrar det (Hostinger fungerar bra)
  • Scrappey för att skrapa sidor som ofta blockerar botar
  • Google Sheets för att logga resultat och granska förändringar
  • Scrappey API-nyckel (hämtas i din Scrappey-dashboard)

Kunskapsnivå: Nybörjare. Du klistrar in en API-nyckel, redigerar en payload och bekräftar schemat.

Vill du inte sätta upp det här själv? Prata med en automatiseringsexpert (gratis 15-minuters konsultation).

Så fungerar det

En schemalagd trigger startar allt. n8n kör workflowet med den takt du väljer (dagligen, veckovis eller mer aggressivt under en lanseringsbevakning).

En payload byggs från din måldata. Workflowet använder ett “set fields”-steg för att konstruera vad Scrappey ska skrapa, inklusive URL och eventuella parametrar du vill standardisera.

Scrappey hämtar sidinnehållet. En HTTP-request skickar payloaden till Scrappeys API, som returnerar den skrapade sidans data. Det här är den centrala “anti-blockering”-överlämningen som gör att din research inte kraschar varannan vecka.

Resultaten är redo att loggas och granskas. I en produktionsversion skickar du de viktiga fälten (URL, tidsstämpel, status, extraherad text eller HTML) till Google Sheets så att teamet kan sortera, filtrera och jämföra.

Du kan enkelt ändra listan med URL:er som ska skrapas utifrån dina behov. Se hela implementationsguiden nedan för anpassningsalternativ.

Steg-för-steg-guide för implementering

Steg 1: konfigurera schematriggern

Det här arbetsflödet startar enligt ett schema med Scheduled Automation Start och skickar sedan data vidare till Sample Payload Builder.

  1. Lägg till noden Scheduled Automation Start och öppna dess inställningar.
  2. Ställ in intervall för schemaregeln efter behov (nuvarande konfiguration använder standardinställningarna för intervall i Rule).
  3. Koppla Scheduled Automation Start till Sample Payload Builder.

Steg 2: anslut Web Scrape API

Arbetsflödet skickar en POST-begäran till ett scraping-API från Web Scrape API Request. Ni behöver ange er API-nyckel i frågeparametrarna.

  1. Öppna Web Scrape API Request och ställ in URL till https://publisher.scrappey.com/api/v1.
  2. Ställ in Method till POST.
  3. Aktivera Send Body och Send Query.
  4. I Query Parameters anger ni key som er API-nyckel (ersätt [CONFIGURE_YOUR_API_KEY]).

⚠️ Vanlig fallgrop: Scraping-begäran misslyckas om key fortfarande är [CONFIGURE_YOUR_API_KEY]. Ersätt den med er giltiga API-nyckel innan ni testar.

Steg 3: konfigurera Sample Payload Builder

Sample Payload Builder skapar begäransdata som används av scraping-API:t. Den outputtar ett url-fält som injiceras i HTTP-begärans body.

  1. Öppna Sample Payload Builder och lägg till en strängtilldelning med namnet name och värdet n8n.
  2. Lägg till en strängtilldelning med namnet url och värdet https://n8n.io/.
  3. Bekräfta att noden outputtar url, som refereras av begäransuttrycket {{ $json.url }}.

Steg 4: konfigurera Web Scrape API Request

Det här steget definierar body-parametrarna och kopplar payloaden till begäran.

  1. I Web Scrape API Request ställer ni in Body Parameters med cmd till request.get.
  2. Ställ in body-parametern url till uttrycket {{ $json.url }}.
  3. Säkerställ att noden är kopplad från Sample Payload Builder så att uttrycket tolkas korrekt.

Steg 5: testa och aktivera ert arbetsflöde

Verifiera flödet från Scheduled Automation StartSample Payload BuilderWeb Scrape API Request innan ni kör enligt schema.

  1. Klicka på Execute Workflow för att köra ett manuellt test.
  2. Verifiera att Web Scrape API Request returnerar ett lyckat svar från scraping-API:t.
  3. Om begäran misslyckas, kontrollera API-nyckeln och uttrycket {{ $json.url }} igen.
  4. Växla arbetsflödet till Active för att aktivera schemalagd körning.
🔒

Lås upp fullständig steg-för-steg-guide

Få den kompletta implementeringsguiden + nedladdningsbar mall

Vanliga fallgropar

  • Scrappey-inloggning kan löpa ut eller kräva specifika behörigheter. Om något slutar fungera, börja med att kontrollera din Scrappey-dashboard och API-nyckeln som ligger i n8n-credentials.
  • Om du använder Wait-noder eller extern rendering varierar processtiderna. Öka väntetiden om noder längre fram fallerar på tomma svar.
  • Standardprompter i AI-noder är generiska. Lägg in ert varumärkes språk tidigt, annars kommer du att sitta och redigera output för alltid.

Vanliga frågor

Hur lång tid tar det att sätta upp den här Scrappey Sheets automation-automatiseringen?

Cirka 20 minuter om du redan har din Scrappey API-nyckel och ett målark.

Behöver jag kunna koda för att automatisera Scrappey Sheets automation?

Nej. Du klistrar in en API-nyckel och redigerar några fält i payloaden. Resten är att konfigurera schemat och bekräfta outputen.

Är n8n gratis att använda för det här Scrappey Sheets automation-workflowet?

Ja. n8n har ett gratis self-hosted-alternativ och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna in Scrappey API-kostnader baserat på hur många sidor du skrapar.

Var kan jag hosta n8n för att köra den här automatiseringen?

Två alternativ: n8n Cloud (hanterad tjänst, enklast setup) eller self-hosting på en VPS. För self-hosting är Hostinger VPS prisvärd och hanterar n8n bra. Self-hosting ger dig obegränsade körningar men kräver grundläggande serverhantering.

Kan jag anpassa det här Scrappey Sheets automation-workflowet för att skrapa en lista med URL:er från Google Sheets?

Ja, men du behöver byta ut steget “Sample Payload Builder” så att det läser rader från Google Sheets i stället för testdata. Många hämtar en URL-kolumn från Sheets, slår ihop den med standardinställningar för skrapning och skickar sedan varje rad genom “Web Scrape API Request”. Vanliga anpassningar är att lägga till ett tidsstämpelfält, spara HTTP-status och skriva den rensade texten i en separat flik för “Resultat”.

Varför misslyckas min Scrappey-anslutning i det här workflowet?

Oftast är det en ogiltig eller utgången API-nyckel i noden “Web Scrape API Request”, helt ärligt. Uppdatera nyckeln i n8n-credentials, kör sedan en testkörning igen och titta på HTTP-statusen och felmeddelandets body. Om du får svar om rate limit, minska hur många URL:er du skickar per körning eller sprid ut dem. Kontrollera också att din payload fortfarande matchar vad Scrappey förväntar sig, eftersom en liten formateringsändring kan orsaka ett hårt fel.

Hur många sidor kan den här Scrappey Sheets automation-automatiseringen hantera?

Om du self-hostar n8n finns ingen hård gräns för antalet körningar (det beror främst på din server och din Scrappey-plan). I n8n Cloud beror det på din månatliga körningskvot, men de flesta små team kan utan problem köra veckovisa skrapningar för dussintals sidor. I praktiken skalar du genom att batcha URL:er och styra hur ofta schemat körs.

Är den här Scrappey Sheets automation-automatiseringen bättre än att använda Zapier eller Make?

För skrap-workflows är n8n oftast bättre, eftersom du kan styra request-payloaden, lägga in logik och bygga ut till flerstegsprocesser utan att snabbt slå i prissättningstak. Zapier kan fungera om du bara behöver ett enkelt flöde “anropa API och skriv rad”, och Make ligger någonstans mitt emellan. Men skrapning är sällan “ställ in och glöm”, så bättre felsökning och branching hjälper. Om du vill, prata med en automatiseringsexpert så pekar vi dig till det enklaste alternativet som inte går sönder nästa månad.

När det här väl rullar slutar konkurrentbevakning vara en kalenderpåminnelse du ignorerar. Du får ett ark fullt av färska sidor, och du kan äntligen fokusera på vad som ändrats och vad ni ska göra åt det.

Kontakta oss

Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.

×

Använd mall

Få direkt tillgång till denna n8n-arbetsflödes JSON-fil

Få prisoffert redan idag!
Få prisoffert redan idag!

Berätta vad ni behöver hjälp med så hör vi av oss inom en arbetsdag!

Få prisoffert redan idag!
Få prisoffert redan idag!

Berätta vad ni behöver hjälp med så hör vi av oss inom en arbetsdag!

Launch login modal Launch register modal