Behöver ert företag hjälp med att implementera AI? Kontakta oss och få prisoffert här →
AI Skolan
januari 22, 2026

Scrape.do + Google Sheets: strukturerade Amazon-rader

Rickard Andersson Partner, Nodenordic.se

Att jämföra Amazon-produkter i ett kalkylark låter enkelt. Sedan lägger du hela eftermiddagen på att öppna flikar, jaga pris- och betygsändringar och klistra in röriga utdrag som aldrig hamnar i linje.

Den här Amazon rows automation träffar först marknadsförare som gör konkurrentanalys. Men e-handelsansvariga som följer prissättning och analytiker som bygger dataset känner samma friktion. Du landar i halvfärdiga ark och siffror du inte litar fullt ut på.

Det här arbetsflödet hämtar URL:er från Google Sheets, skrapar stabilt med Scrape.do och skriver tillbaka korrekt formaterade rader (namn, pris, betyg, recensioner, beskrivning). Du får se hur det fungerar, vad du behöver och var team vanligtvis kör fast.

Så fungerar automatiseringen

Se hur detta löser problemet:

n8n Workflow Template: Scrape.do + Google Sheets: strukturerade Amazon-rader

Utmaningen: Amazon-research blir copy-paste-kaos

Amazon-sidor är toppen för kunder och usla för kalkylark. En produkt visar priset på ett tydligt ställe, en annan gömmer det bakom en variantväljare, och plötsligt har din ”snabba jämförelse” fem webbläsarfönster och en post-it med gissningar. Även när du får fram rätt siffror måste du ändå normalisera dem till kolumner så att du kan sortera, filtrera och faktiskt fatta ett beslut. Och värst av allt är att datan snabbt blir inaktuell: du gör allt jobbet, sedan ändras priserna i morgon och ditt ark blir tyst fel.

Det drar snabbt iväg. Här är var det oftast faller isär.

  • Manuell kontroll av 20 produkter kan sluka runt 2 timmar, och du missar ändå saker som förändringar i antal recensioner.
  • Olika sidlayouter ger inkonsekventa rader, så jämförelserna slutar vara jämförbara.
  • Enkla skrapor blir ofta blockerade eller returnerar ofullständig HTML, vilket gör att du lägger tid på felsökning i stället för research.
  • När du behöver veckovisa uppdateringar blir jobbet en återkommande syssla som aldrig blir ”klar”.

Lösningen: skrapa Amazon-URL:er från Sheets och skriv tillbaka strukturerade rader

Det här arbetsflödet gör ditt Google Sheet till kontrollcentret för Amazon-produktresearch. Du behåller en enkel lista med produkt-URL:er i en ”input”-flik och kör sedan automatiseringen när du vill ha färsk data. n8n läser URL:erna, bearbetar dem i batchar och skickar varje URL till Scrape.do via en HTTP-förfrågan så att du får sidans HTML pålitligt (även när Amazon försöker blockera automatiserad trafik). Därefter rensar arbetsflödet HTML:en och plockar ut det som är relevant. Till sist verifierar och strukturerar ett OpenAI-drivet extraktionssteg fälten, så att outputen blir konsekvent även när Amazons layout förändras. Resultaten läggs till i en ”results”-flik i Google Sheets, redo att sortera och jämföra.

Arbetsflödet startar med en manuell trigger och läser sedan produktlänkar från Google Sheets. Scrape.do hämtar varje sida, AI gör rörig HTML till förutsägbara fält och Google Sheets får en snygg rad per produkt. Ingen flikjonglering.

Vad som förändras: före vs. efter

Praktisk effekt

Säg att du följer 30 konkurrentprodukter varje vecka. Manuellt lägger du kanske 5 minuter per produkt på att öppna sidan, hitta pris, betyg och antal recensioner och sedan formatera raden, vilket blir cirka 2,5 timmar totalt. Med det här arbetsflödet klistrar du in de 30 URL:erna i Google Sheets och kör: en minut att starta, sedan bearbetar den i batchar och skriver strukturerade rader tillbaka automatiskt. Du får samma dataset utan det repetitiva arbetet.

Krav

  • n8n-instans (testa n8n Cloud gratis)
  • Alternativ för egen hosting om du föredrar det (Hostinger fungerar bra)
  • Google Sheets för inlistan och resultattabellen.
  • Scrape.do för att hämta Amazon-HTML pålitligt.
  • Scrape.do API-token (hämta den i din Scrape.do-dashboard).
  • OpenAI- eller OpenRouter-API-nyckel (hämta den på din leverantörs sida för API-nycklar).

Svårighetsnivå: Medel. Du klistrar in inloggningsuppgifter, ställer in Sheet-ID/fliknamn och mappar några kolumner.

Behöver du hjälp att implementera detta? Prata med en automationsexpert (gratis 15-minuters konsultation).

Flödet i arbetsflödet

Du startar körningen manuellt. I n8n triggar Manual Launch Trigger arbetsflödet när du vill uppdatera, vilket passar perfekt för veckovis research eller inför ett prissättningsbeslut.

Google Sheets står för URL-kön. Arbetsflödet läser din spårningsflik (den som innehåller Amazon-produktlänkar) och förbereder URL:erna för batchbearbetning så att du inte överbelastar något.

Scrape.do hämtar produktens HTML. n8n skickar varje URL via en HTTP Request-nod med din Scrape.do-token och tar sedan bort irrelevanta script och markup så att nästa steg får ett mer strukturerat underlag.

AI gör röriga sidor till konsekventa kolumner. OpenAI Chat Model plus en parser för strukturerad output extraherar namn, pris, betyg, antal recensioner och en användbar beskrivning och formaterar allt till förutsägbara JSON-fält.

Google Sheets får en korrekt formaterad rad per produkt. Sista steget lägger till resultaten i din resultatflik, så att du kan filtrera på betyg, sortera på pris eller exportera till Excel om det är ditt rapportflöde.

Du kan enkelt justera vilka fält som extraheras för att inkludera till exempel varumärke, ASIN eller punktlistade funktioner utifrån dina behov. Se hela implementationsguiden nedan för anpassningsalternativ.

Steg-för-steg-guide för implementering

Steg 1: konfigurera den manuella triggern

Starta arbetsflödet manuellt så att ni kan validera varje steg innan ni kör i större skala.

  1. Lägg till en Manual Launch Trigger-nod som arbetsflödets trigger.
  2. Koppla Manual Launch Trigger till Retrieve Product Links för att starta datapipelinen.

Steg 2: anslut Google Sheets

Hämta produkt-URL:er från ett Google Sheet och förbered ett målark för strukturerade utdata.

  1. Öppna Retrieve Product Links och ställ in Document[YOUR_ID] (exempel: Amazon Product List).
  2. Ställ in Sheet[YOUR_ID] (exempel: Sheet1) i Retrieve Product Links.
  3. Inloggningsuppgifter krävs: Anslut era googleSheetsOAuth2Api-inloggningsuppgifter i Retrieve Product Links.
  4. Öppna Append to Sheets och ställ in Operationappend.
  5. Ställ in Document[YOUR_ID] och Sheet[YOUR_ID] (exempel: Sheet2) i Append to Sheets.
  6. Inloggningsuppgifter krävs: Anslut era googleSheetsOAuth2Api-inloggningsuppgifter i Append to Sheets.
Tips: Säkerställ att ert källark innehåller en kolumn med namnet url så att Fetch Page HTML kan använda {{$json.url}}.

Steg 3: batcha och skrapa produktsidor

Dela upp URL:er i batchar och hämta varje sidas HTML via ett skrap-API.

  1. Koppla Retrieve Product Links till Iterate URL Batches för att aktivera batchbearbetning.
  2. Koppla Iterate URL Batches till Fetch Page HTML så att varje URL skrapas.
  3. I Fetch Page HTML, ställ in URL=https://api.scrape.do/?token={{$vars.SCRAPEDO_TOKEN}}&url={{ encodeURIComponent($json.url) }}&geoCode=us&render=false.
  4. Låt Options → Timeout stå kvar på 60000 för att undvika för tidiga timeouts på långsamma sidor.
⚠️ Vanlig fallgrop: Uttrycket använder $vars.SCRAPEDO_TOKEN. Säkerställ att ni har definierat denna variabel i n8n, annars kommer HTTP-anropet att misslyckas.

Steg 4: extrahera råfält från HTML

Tolka produktdetaljer från HTML-svaret med CSS-selektorer.

  1. Koppla Fetch Page HTML till Extract Raw Fields.
  2. Ställ in Operation i Extract Raw FieldsextractHtmlContent.
  3. Granska extraktionsnycklarna och selektorerna, till exempel productTitle med #productTitle, h1[data-automation-id="product-title"], .product-title och price med .a-price .a-offscreen, .a-price-whole, .a-price-fraction, .priceToPay .a-price .a-offscreen.

Steg 5: konfigurera AI för datastrukturering

Använd en LLM för att omvandla råskrapade fält till ett rent, strukturerat JSON-utdata.

  1. Koppla Extract Raw Fields till AI Data Structuring.
  2. I AI Data Structuring, ställ in Text={{ JSON.stringify($json, null, 2) }}.
  3. Säkerställ att Has Output Parser är aktiverat i AI Data Structuring.
  4. Koppla OpenAI Chat Engine till AI Data Structuring som språkmodell.
  5. I OpenAI Chat Engine, ställ in Modelgpt-4o-mini, Max Tokens500, Temperature0 och Response Formatjson_object.
  6. Koppla Structured Result Parser till AI Data Structuring som output parser och behåll schemat som det är angivet.
Inloggningsuppgifter krävs: Anslut era OpenAI-inloggningsuppgifter i OpenAI Chat Engine. Structured Result Parser är en subnod – inloggningsuppgifter ska läggas till i OpenAI Chat Engine, inte i parsern.

Steg 6: förbered och append strukturdata

Platta ut AI-svaret och append det till ert Google Sheet för utdata.

  1. Koppla AI Data Structuring till Prepare JSON Fields.
  2. I Prepare JSON Fields, ställ in Field to Split Outoutput.
  3. Ställ in Fields to Includeoutput.name, output.description, output.rating, output.reviews, output.price.
  4. Koppla Prepare JSON Fields till Append to Sheets.
  5. Verifiera att Append to Sheets är konfigurerad för att automatiskt mappa indata i Columns.
Tips: Flödet loopar efter Append to Sheets tillbaka till Iterate URL Batches, vilket möjliggör batch-för-batch-bearbetning tills alla URL:er har hanterats.

Steg 7: testa och aktivera ert arbetsflöde

Kör ett manuellt test för att verifiera skrapning, AI-strukturering och appendning till arket innan ni aktiverar.

  1. Klicka på Execute Workflow och bekräfta att Manual Launch Trigger triggar korrekt.
  2. Kontrollera att Fetch Page HTML returnerar HTML och att Extract Raw Fields genererar värden som productTitle och price.
  3. Verifiera att AI Data Structuring matar ut ett JSON-objekt med name, description, rating, reviews och price.
  4. Bekräfta att nya rader appendas i målarket av Append to Sheets.
  5. När allt är verifierat, spara arbetsflödet och växla det till Active för produktionsanvändning.
🔒

Lås upp fullständig steg-för-steg-guide

Få den kompletta implementeringsguiden + nedladdningsbar mall

Se upp för

  • Google Sheets-autentisering kan löpa ut eller kräva specifika behörigheter. Om saker går sönder, kolla först n8n Credentials-skärmen och bekräfta att Sheet:et är delat med det anslutna Google-kontot.
  • Om du använder Wait-noder eller extern rendering varierar processtiderna. Öka väntetiden om efterföljande noder fallerar på tomma svar.
  • Standardprompter i AI-noder är generiska. Lägg in er tonalitet tidigt, annars kommer du att redigera output för alltid.

Vanliga frågor

Hur snabbt kan jag implementera den här Amazon rows automation?

Oftast cirka 30 minuter om ditt Google Sheet och dina API-nycklar är redo.

Kan icke-tekniska team implementera den här Amazon rows automation?

Ja. Du kopplar främst konton, klistrar in tokens och matchar kolumner i Google Sheets.

Är n8n gratis att använda för det här arbetsflödet för Amazon rows automation?

Ja. n8n har ett gratis alternativ för egen hosting och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volymer. Du behöver också räkna in användning av Scrape.do och kostnader för AI-API (ofta några cent per körning, beroende på hur många produkter du bearbetar).

Var kan jag hosta n8n för att köra den här automatiseringen?

Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller egen hosting på en VPS. För egen hosting är Hostinger VPS prisvärd och kör n8n bra. Egen hosting ger obegränsade körningar men kräver grundläggande serverhantering.

Hur anpassar jag den här Amazon rows automation-lösningen till mina specifika utmaningar?

Du kan ändra vad som extraheras genom att uppdatera rensningssteget ”Extract Raw Fields” och prompterna som används i noden ”AI Data Structuring”. Vanliga anpassningar är att lägga till ASIN/varumärke, hämta funktionspunkter och skriva till ett annat resultatschema (till exempel separata kolumner för ”aktuellt pris” och ”listpris”). Om du vill byta modell ersätter du OpenAI Chat Engine med din föredragna leverantör och behåller samma strukturerade output-format så att Sheets förblir konsekvent.

Varför misslyckas min Scrape.do-anslutning i det här arbetsflödet?

Oftast handlar det om en ogiltig eller saknad SCRAPEDO_TOKEN i HTTP-förfrågan. Kontrollera din token i Scrape.do, uppdatera värdet i n8n och kör om en enskild URL först. Om HTML:en kommer tillbaka tom kan du ha nått planbegränsningar eller skicka fel URL-format (vissa förkortade Amazon-länkar omdirigerar på ett konstigt sätt). Mindre vanligt, men verkligt: ditt arbetsflöde kan bearbeta för många URL:er för snabbt, så en lägre batchstorlek kan stabilisera körningen.

Vad är kapaciteten för den här Amazon rows automation-lösningen?

Den skalar främst med din n8n-plan och dina Scrape.do/AI-gränser. På n8n Cloud Starter kör de flesta team utan problem små till medelstora veckobatchar; om du kör egen hosting är antalet körningar inte flaskhalsen, utan din server och leverantörernas rate limits. I praktiken: börja med 20–50 URL:er per körning, bekräfta noggrannhet och öka sedan batchstorleken när du ser stabila resultat.

Är den här Amazon rows automation bättre än att använda Zapier eller Make?

Ofta, ja, eftersom du behöver batchning, HTML-rensning och strukturerad AI-extraktion i ett och samma flöde, och n8n klarar det utan att det blir en hög med betalda steg. Zapier och Make kan fungera, men skrapning i flera steg plus parsning blir snabbt dyrt och pilligt. n8n ger dig också alternativet att köra självhostat, vilket spelar roll när detta blir en veckorutin. Samtidigt: om ditt mål bara är ”kopiera ett värde från en sida” kan de verktygen kännas snabbare. Prata med en automationsexpert om du vill ha en second opinion på vad som passar din stack.

När detta väl rullar blir dina Amazon-jämförelser en uppdateringsknapp, inte en återkommande uppgift. Arbetsflödet tar hand om det repetitiva så att du kan lägga tiden på att fatta beslutet.

Kontakta oss

Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.

×

Använd mall

Få direkt tillgång till denna n8n-arbetsflödes JSON-fil

Launch login modal Launch register modal