Att jämföra Amazon-produkter i ett kalkylark låter enkelt. Sedan lägger du hela eftermiddagen på att öppna flikar, jaga pris- och betygsändringar och klistra in röriga utdrag som aldrig hamnar i linje.
Den här Amazon rows automation träffar först marknadsförare som gör konkurrentanalys. Men e-handelsansvariga som följer prissättning och analytiker som bygger dataset känner samma friktion. Du landar i halvfärdiga ark och siffror du inte litar fullt ut på.
Det här arbetsflödet hämtar URL:er från Google Sheets, skrapar stabilt med Scrape.do och skriver tillbaka korrekt formaterade rader (namn, pris, betyg, recensioner, beskrivning). Du får se hur det fungerar, vad du behöver och var team vanligtvis kör fast.
Så fungerar automatiseringen
Se hur detta löser problemet:
n8n Workflow Template: Scrape.do + Google Sheets: strukturerade Amazon-rader
flowchart LR
subgraph sg0["When clicking Test workflow Flow"]
direction LR
n0@{ icon: "mdi:play-circle", form: "rounded", label: "When clicking Test workflow", pos: "b", h: 48 }
n1@{ icon: "mdi:brain", form: "rounded", label: "OpenAI Chat Model", pos: "b", h: 48 }
n2@{ icon: "mdi:robot", form: "rounded", label: "Structured Output Parser", pos: "b", h: 48 }
n3@{ icon: "mdi:database", form: "rounded", label: "1. Get Product URLs from Goo..", pos: "b", h: 48 }
n4@{ icon: "mdi:swap-vertical", form: "rounded", label: "2. Loop Through Each URL", pos: "b", h: 48 }
n5["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/httprequest.dark.svg' width='40' height='40' /></div><br/>3. Scrape Product Page HTML"]
n6["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/html.dark.svg' width='40' height='40' /></div><br/>4. Extract Raw Data Elements"]
n7@{ icon: "mdi:robot", form: "rounded", label: "5. Clean & Structure Data wi..", pos: "b", h: 48 }
n8@{ icon: "mdi:swap-vertical", form: "rounded", label: "6. Format Final JSON Output", pos: "b", h: 48 }
n9@{ icon: "mdi:database", form: "rounded", label: "7. Save Product Data to Goog..", pos: "b", h: 48 }
n1 -.-> n7
n4 --> n5
n2 -.-> n7
n5 --> n6
n8 --> n9
n0 --> n3
n6 --> n7
n7 --> n8
n9 --> n4
n3 --> n4
end
%% Styling
classDef trigger fill:#e8f5e9,stroke:#388e3c,stroke-width:2px
classDef ai fill:#e3f2fd,stroke:#1976d2,stroke-width:2px
classDef aiModel fill:#e8eaf6,stroke:#3f51b5,stroke-width:2px
classDef decision fill:#fff8e1,stroke:#f9a825,stroke-width:2px
classDef database fill:#fce4ec,stroke:#c2185b,stroke-width:2px
classDef api fill:#fff3e0,stroke:#e65100,stroke-width:2px
classDef code fill:#f3e5f5,stroke:#7b1fa2,stroke-width:2px
classDef disabled stroke-dasharray: 5 5,opacity: 0.5
class n0 trigger
class n2,n7 ai
class n1 aiModel
class n3,n9 database
class n5 api
classDef customIcon fill:none,stroke:none
class n5,n6 customIcon
Utmaningen: Amazon-research blir copy-paste-kaos
Amazon-sidor är toppen för kunder och usla för kalkylark. En produkt visar priset på ett tydligt ställe, en annan gömmer det bakom en variantväljare, och plötsligt har din ”snabba jämförelse” fem webbläsarfönster och en post-it med gissningar. Även när du får fram rätt siffror måste du ändå normalisera dem till kolumner så att du kan sortera, filtrera och faktiskt fatta ett beslut. Och värst av allt är att datan snabbt blir inaktuell: du gör allt jobbet, sedan ändras priserna i morgon och ditt ark blir tyst fel.
Det drar snabbt iväg. Här är var det oftast faller isär.
- Manuell kontroll av 20 produkter kan sluka runt 2 timmar, och du missar ändå saker som förändringar i antal recensioner.
- Olika sidlayouter ger inkonsekventa rader, så jämförelserna slutar vara jämförbara.
- Enkla skrapor blir ofta blockerade eller returnerar ofullständig HTML, vilket gör att du lägger tid på felsökning i stället för research.
- När du behöver veckovisa uppdateringar blir jobbet en återkommande syssla som aldrig blir ”klar”.
Lösningen: skrapa Amazon-URL:er från Sheets och skriv tillbaka strukturerade rader
Det här arbetsflödet gör ditt Google Sheet till kontrollcentret för Amazon-produktresearch. Du behåller en enkel lista med produkt-URL:er i en ”input”-flik och kör sedan automatiseringen när du vill ha färsk data. n8n läser URL:erna, bearbetar dem i batchar och skickar varje URL till Scrape.do via en HTTP-förfrågan så att du får sidans HTML pålitligt (även när Amazon försöker blockera automatiserad trafik). Därefter rensar arbetsflödet HTML:en och plockar ut det som är relevant. Till sist verifierar och strukturerar ett OpenAI-drivet extraktionssteg fälten, så att outputen blir konsekvent även när Amazons layout förändras. Resultaten läggs till i en ”results”-flik i Google Sheets, redo att sortera och jämföra.
Arbetsflödet startar med en manuell trigger och läser sedan produktlänkar från Google Sheets. Scrape.do hämtar varje sida, AI gör rörig HTML till förutsägbara fält och Google Sheets får en snygg rad per produkt. Ingen flikjonglering.
Vad som förändras: före vs. efter
| Det här försvinner | Effekten du märker |
|---|---|
|
|
Praktisk effekt
Säg att du följer 30 konkurrentprodukter varje vecka. Manuellt lägger du kanske 5 minuter per produkt på att öppna sidan, hitta pris, betyg och antal recensioner och sedan formatera raden, vilket blir cirka 2,5 timmar totalt. Med det här arbetsflödet klistrar du in de 30 URL:erna i Google Sheets och kör: en minut att starta, sedan bearbetar den i batchar och skriver strukturerade rader tillbaka automatiskt. Du får samma dataset utan det repetitiva arbetet.
Krav
- n8n-instans (testa n8n Cloud gratis)
- Alternativ för egen hosting om du föredrar det (Hostinger fungerar bra)
- Google Sheets för inlistan och resultattabellen.
- Scrape.do för att hämta Amazon-HTML pålitligt.
- Scrape.do API-token (hämta den i din Scrape.do-dashboard).
- OpenAI- eller OpenRouter-API-nyckel (hämta den på din leverantörs sida för API-nycklar).
Svårighetsnivå: Medel. Du klistrar in inloggningsuppgifter, ställer in Sheet-ID/fliknamn och mappar några kolumner.
Behöver du hjälp att implementera detta? Prata med en automationsexpert (gratis 15-minuters konsultation).
Flödet i arbetsflödet
Du startar körningen manuellt. I n8n triggar Manual Launch Trigger arbetsflödet när du vill uppdatera, vilket passar perfekt för veckovis research eller inför ett prissättningsbeslut.
Google Sheets står för URL-kön. Arbetsflödet läser din spårningsflik (den som innehåller Amazon-produktlänkar) och förbereder URL:erna för batchbearbetning så att du inte överbelastar något.
Scrape.do hämtar produktens HTML. n8n skickar varje URL via en HTTP Request-nod med din Scrape.do-token och tar sedan bort irrelevanta script och markup så att nästa steg får ett mer strukturerat underlag.
AI gör röriga sidor till konsekventa kolumner. OpenAI Chat Model plus en parser för strukturerad output extraherar namn, pris, betyg, antal recensioner och en användbar beskrivning och formaterar allt till förutsägbara JSON-fält.
Google Sheets får en korrekt formaterad rad per produkt. Sista steget lägger till resultaten i din resultatflik, så att du kan filtrera på betyg, sortera på pris eller exportera till Excel om det är ditt rapportflöde.
Du kan enkelt justera vilka fält som extraheras för att inkludera till exempel varumärke, ASIN eller punktlistade funktioner utifrån dina behov. Se hela implementationsguiden nedan för anpassningsalternativ.
Steg-för-steg-guide för implementering
Steg 1: konfigurera den manuella triggern
Starta arbetsflödet manuellt så att ni kan validera varje steg innan ni kör i större skala.
- Lägg till en Manual Launch Trigger-nod som arbetsflödets trigger.
- Koppla Manual Launch Trigger till Retrieve Product Links för att starta datapipelinen.
Steg 2: anslut Google Sheets
Hämta produkt-URL:er från ett Google Sheet och förbered ett målark för strukturerade utdata.
- Öppna Retrieve Product Links och ställ in Document på
[YOUR_ID](exempel: Amazon Product List). - Ställ in Sheet på
[YOUR_ID](exempel: Sheet1) i Retrieve Product Links. - Inloggningsuppgifter krävs: Anslut era googleSheetsOAuth2Api-inloggningsuppgifter i Retrieve Product Links.
- Öppna Append to Sheets och ställ in Operation på
append. - Ställ in Document på
[YOUR_ID]och Sheet på[YOUR_ID](exempel: Sheet2) i Append to Sheets. - Inloggningsuppgifter krävs: Anslut era googleSheetsOAuth2Api-inloggningsuppgifter i Append to Sheets.
url så att Fetch Page HTML kan använda {{$json.url}}.Steg 3: batcha och skrapa produktsidor
Dela upp URL:er i batchar och hämta varje sidas HTML via ett skrap-API.
- Koppla Retrieve Product Links till Iterate URL Batches för att aktivera batchbearbetning.
- Koppla Iterate URL Batches till Fetch Page HTML så att varje URL skrapas.
- I Fetch Page HTML, ställ in URL på
=https://api.scrape.do/?token={{$vars.SCRAPEDO_TOKEN}}&url={{ encodeURIComponent($json.url) }}&geoCode=us&render=false. - Låt Options → Timeout stå kvar på
60000för att undvika för tidiga timeouts på långsamma sidor.
$vars.SCRAPEDO_TOKEN. Säkerställ att ni har definierat denna variabel i n8n, annars kommer HTTP-anropet att misslyckas.Steg 4: extrahera råfält från HTML
Tolka produktdetaljer från HTML-svaret med CSS-selektorer.
- Koppla Fetch Page HTML till Extract Raw Fields.
- Ställ in Operation i Extract Raw Fields på
extractHtmlContent. - Granska extraktionsnycklarna och selektorerna, till exempel productTitle med
#productTitle, h1[data-automation-id="product-title"], .product-titleoch price med.a-price .a-offscreen, .a-price-whole, .a-price-fraction, .priceToPay .a-price .a-offscreen.
Steg 5: konfigurera AI för datastrukturering
Använd en LLM för att omvandla råskrapade fält till ett rent, strukturerat JSON-utdata.
- Koppla Extract Raw Fields till AI Data Structuring.
- I AI Data Structuring, ställ in Text på
={{ JSON.stringify($json, null, 2) }}. - Säkerställ att Has Output Parser är aktiverat i AI Data Structuring.
- Koppla OpenAI Chat Engine till AI Data Structuring som språkmodell.
- I OpenAI Chat Engine, ställ in Model på
gpt-4o-mini, Max Tokens på500, Temperature på0och Response Format påjson_object. - Koppla Structured Result Parser till AI Data Structuring som output parser och behåll schemat som det är angivet.
Steg 6: förbered och append strukturdata
Platta ut AI-svaret och append det till ert Google Sheet för utdata.
- Koppla AI Data Structuring till Prepare JSON Fields.
- I Prepare JSON Fields, ställ in Field to Split Out på
output. - Ställ in Fields to Include på
output.name, output.description, output.rating, output.reviews, output.price. - Koppla Prepare JSON Fields till Append to Sheets.
- Verifiera att Append to Sheets är konfigurerad för att automatiskt mappa indata i Columns.
Steg 7: testa och aktivera ert arbetsflöde
Kör ett manuellt test för att verifiera skrapning, AI-strukturering och appendning till arket innan ni aktiverar.
- Klicka på Execute Workflow och bekräfta att Manual Launch Trigger triggar korrekt.
- Kontrollera att Fetch Page HTML returnerar HTML och att Extract Raw Fields genererar värden som
productTitleochprice. - Verifiera att AI Data Structuring matar ut ett JSON-objekt med
name,description,rating,reviewsochprice. - Bekräfta att nya rader appendas i målarket av Append to Sheets.
- När allt är verifierat, spara arbetsflödet och växla det till Active för produktionsanvändning.
Se upp för
- Google Sheets-autentisering kan löpa ut eller kräva specifika behörigheter. Om saker går sönder, kolla först n8n Credentials-skärmen och bekräfta att Sheet:et är delat med det anslutna Google-kontot.
- Om du använder Wait-noder eller extern rendering varierar processtiderna. Öka väntetiden om efterföljande noder fallerar på tomma svar.
- Standardprompter i AI-noder är generiska. Lägg in er tonalitet tidigt, annars kommer du att redigera output för alltid.
Vanliga frågor
Oftast cirka 30 minuter om ditt Google Sheet och dina API-nycklar är redo.
Ja. Du kopplar främst konton, klistrar in tokens och matchar kolumner i Google Sheets.
Ja. n8n har ett gratis alternativ för egen hosting och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volymer. Du behöver också räkna in användning av Scrape.do och kostnader för AI-API (ofta några cent per körning, beroende på hur många produkter du bearbetar).
Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller egen hosting på en VPS. För egen hosting är Hostinger VPS prisvärd och kör n8n bra. Egen hosting ger obegränsade körningar men kräver grundläggande serverhantering.
Du kan ändra vad som extraheras genom att uppdatera rensningssteget ”Extract Raw Fields” och prompterna som används i noden ”AI Data Structuring”. Vanliga anpassningar är att lägga till ASIN/varumärke, hämta funktionspunkter och skriva till ett annat resultatschema (till exempel separata kolumner för ”aktuellt pris” och ”listpris”). Om du vill byta modell ersätter du OpenAI Chat Engine med din föredragna leverantör och behåller samma strukturerade output-format så att Sheets förblir konsekvent.
Oftast handlar det om en ogiltig eller saknad SCRAPEDO_TOKEN i HTTP-förfrågan. Kontrollera din token i Scrape.do, uppdatera värdet i n8n och kör om en enskild URL först. Om HTML:en kommer tillbaka tom kan du ha nått planbegränsningar eller skicka fel URL-format (vissa förkortade Amazon-länkar omdirigerar på ett konstigt sätt). Mindre vanligt, men verkligt: ditt arbetsflöde kan bearbeta för många URL:er för snabbt, så en lägre batchstorlek kan stabilisera körningen.
Den skalar främst med din n8n-plan och dina Scrape.do/AI-gränser. På n8n Cloud Starter kör de flesta team utan problem små till medelstora veckobatchar; om du kör egen hosting är antalet körningar inte flaskhalsen, utan din server och leverantörernas rate limits. I praktiken: börja med 20–50 URL:er per körning, bekräfta noggrannhet och öka sedan batchstorleken när du ser stabila resultat.
Ofta, ja, eftersom du behöver batchning, HTML-rensning och strukturerad AI-extraktion i ett och samma flöde, och n8n klarar det utan att det blir en hög med betalda steg. Zapier och Make kan fungera, men skrapning i flera steg plus parsning blir snabbt dyrt och pilligt. n8n ger dig också alternativet att köra självhostat, vilket spelar roll när detta blir en veckorutin. Samtidigt: om ditt mål bara är ”kopiera ett värde från en sida” kan de verktygen kännas snabbare. Prata med en automationsexpert om du vill ha en second opinion på vad som passar din stack.
När detta väl rullar blir dina Amazon-jämförelser en uppdateringsknapp, inte en återkommande uppgift. Arbetsflödet tar hand om det repetitiva så att du kan lägga tiden på att fatta beslutet.
Kontakta oss
Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.