Att kopiera Amazon-listningar till ett kalkylark låter enkelt. Sedan gör du det för 50 produkter, över några sökningar, och din “snabba uppgift” blir en rörig, felbenägen syssla.
E-handelsanalytiker märker det först, eftersom prisavstämningar och antal recensioner ändras hela tiden. Marknadsundersökare och byråteam har samma huvudvärk när de måste bevisa trender med felfri data. Den här Amazon scraping Sheets-automationen tar dig från URL-lista till strukturerade rader, utan copy-paste-rouletten.
Nedan hittar du flödet, vad det löser, vad du behöver och hur du anpassar det till din spårningssetup.
Så fungerar den här automationslösningen
Se hur den löser problemet:
n8n Workflow Template: Bright Data till Google Sheets, insamlad Amazon-data
flowchart LR
subgraph sg0["Manual Execution Start Flow"]
direction LR
n0@{ icon: "mdi:brain", form: "rounded", label: "OpenRouter Chat Engine", pos: "b", h: 48 }
n1@{ icon: "mdi:robot", form: "rounded", label: "Structured Result Parser", pos: "b", h: 48 }
n2["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/httprequest.dark.svg' width='40' height='40' /></div><br/>Fetch Page Content"]
n3@{ icon: "mdi:play-circle", form: "rounded", label: "Manual Execution Start", pos: "b", h: 48 }
n4@{ icon: "mdi:swap-vertical", form: "rounded", label: "Batch URL Iterator", pos: "b", h: 48 }
n5@{ icon: "mdi:database", form: "rounded", label: "Retrieve Target URLs", pos: "b", h: 48 }
n6["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/code.svg' width='40' height='40' /></div><br/>Sanitize Markup"]
n7@{ icon: "mdi:robot", form: "rounded", label: "Extract Product Data", pos: "b", h: 48 }
n8@{ icon: "mdi:database", form: "rounded", label: "Append Results Sheet", pos: "b", h: 48 }
n9@{ icon: "mdi:swap-vertical", form: "rounded", label: "Expand Output Items", pos: "b", h: 48 }
n4 --> n2
n2 --> n6
n6 --> n7
n9 --> n8
n8 --> n4
n7 --> n9
n5 --> n4
n0 -.-> n7
n1 -.-> n7
n3 --> n5
end
%% Styling
classDef trigger fill:#e8f5e9,stroke:#388e3c,stroke-width:2px
classDef ai fill:#e3f2fd,stroke:#1976d2,stroke-width:2px
classDef aiModel fill:#e8eaf6,stroke:#3f51b5,stroke-width:2px
classDef decision fill:#fff8e1,stroke:#f9a825,stroke-width:2px
classDef database fill:#fce4ec,stroke:#c2185b,stroke-width:2px
classDef api fill:#fff3e0,stroke:#e65100,stroke-width:2px
classDef code fill:#f3e5f5,stroke:#7b1fa2,stroke-width:2px
classDef disabled stroke-dasharray: 5 5,opacity: 0.5
class n3 trigger
class n1,n7 ai
class n0 aiModel
class n5,n8 database
class n2 api
class n6 code
classDef customIcon fill:none,stroke:none
class n2,n6 customIcon
Utmaningen: spåra Amazon-listningar utan kalkylarkskaos
Om du följer Amazons sökresultat för prissättning, social proof eller konkurrentrörelser är den jobbiga delen inte att “hitta” produkterna. Det är allt efteråt. Du klickar in i resultaten, kopierar namn, klistrar in priser, kollar betyg för hand och försöker sedan hålla arket i synk medan Amazon möblerar om sidan. En missad kolumn eller en extra radbrytning och din datamängd blir i praktiken opålitlig. Det värsta är den mentala belastningen. Du gör repetitivt arbete samtidigt som du ska upptäcka förändringar som faktiskt spelar roll.
Det eskalerar snabbt. Här är var det oftast fallerar i riktiga team.
- Manuell kopiering gör det lätt att blanda ihop produkter som ser likadana ut i resultatlistan.
- Amazon-sidor innehåller mycket extra markup, så det du klistrar in är ofta fullt av skräp som förstör strukturerade kolumner.
- När du spårar flera sökord får du inkonsekventa format mellan flikar, vilket gör att rapporteringen tar längre tid än den borde.
- “Snabba kontroller” varje vecka blir i tysthet några timmar repetitivt arbete.
Lösningen: Bright Data-scraping + AI-extraktion till Google Sheets
Det här flödet börjar med en enkel lista med URL:er till Amazons sökresultat i Google Sheets. När du kör det hämtar n8n in URL:erna i batcher, hämtar varje sidas råa HTML via Bright Datas Web Unlocker och rensar sedan HTML:en så att bara produktrelevanta element återstår. Det rensade sidinnehållet skickas till en LLM (GPT-4 via en OpenRouter/LangChain-setup) som extraherar strukturerade produktfält som namn, beskrivning, betyg, antal recensioner och pris. Till sist expanderar n8n de extraherade objekten och lägger till dem i ett resultatark, rad för rad, så att du får en prydlig tabell som du kan sortera, filtrera och visualisera. Det är ett komplett flöde från “URL:er att spåra” till “resultat du kan använda”.
Flödet startar när du triggar det manuellt i n8n, vilket är smidigt för kontrollerade körningar. Det läser URL:er från Google Sheets, itererar igenom dem i batcher, scrapar varje sida via Bright Data och använder sedan AI för att göra rörig markup till konsekventa kolumner. Sista steget skriver tillbaka allt till Google Sheets så att din spårning förblir samlad på ett ställe.
Vad som förändras: före vs. efter
| Det här tar bort | Effekten du märker |
|---|---|
|
|
Praktisk effekt i verkligheten
Säg att du spårar 20 Amazon-sök-URL:er varje vecka och vill ha fem fält per produkt (namn, beskrivning, betyg, recensioner, pris). Om du lägger cirka 10 minuter per URL på att kopiera, klistra in och städa upp kolumner blir det ungefär 3 timmar i veckan. Med det här flödet klistrar du in URL:erna en gång, kör det och väntar tills batchen är klar. I praktiken handlar det oftast om några minuters uppsättningstid, och sedan dyker resultaten upp i Google Sheets utan att du rör varje rad.
Krav
- n8n-instans (testa n8n Cloud gratis)
- Alternativ för self-hosting om du föredrar det (Hostinger fungerar bra)
- Google Sheets för URL-inmatning och lagring av resultat
- Bright Data (Web Unlocker) för att hämta Amazons HTML på ett tillförlitligt sätt
- OpenRouter API-nyckel (hämta den i din OpenRouter-dashboard)
Kunskapsnivå: Medel. Du kopplar in autentiseringar och mappar Sheet-ID:n, men du bygger ingen app från grunden.
Behöver du hjälp att implementera detta? Prata med en automationsexpert (gratis 15-minuters konsultation).
Flödet steg för steg
En manuell körning drar igång. Du startar flödet i n8n när du är redo att uppdatera din datamängd (perfekt för veckovis spårning, revisioner eller dagar med kundrapportering).
Google Sheets levererar mål-URL:erna. Flödet läser din “spåra”-lista och går igenom den med batchning så att du kan skala utan att belasta externa tjänster på en gång.
Bright Data hämtar sidan, sedan rensas HTML:en. En HTTP-förfrågan hämtar den råa markupen och ett kodsteg tar bort script, styling och irrelevanta taggar så att AI:n ser en enklare sida med fokus på produktinnehåll.
AI gör rörig markup till strukturerade fält. LangChain/OpenRouter GPT-4-upplägget extraherar produktdetaljer i en förutsägbar JSON-struktur, som sedan expanderas till individuella objekt så att varje produkt blir en rad.
Google Sheets tar emot resultaten. n8n lägger till de sista raderna i ditt resultatark och håller tabellen strukturerad för filtrering, övervakning och jämförelse av förändringar vecka för vecka.
Du kan enkelt ändra vilka fält som extraheras (till exempel lägga till lagerstatus eller SKU) så att det matchar det du rapporterar på. Se den fullständiga implementationsguiden nedan för anpassningsalternativ.
Steg-för-steg-guide för implementering
Steg 1: Konfigurera den manuella triggern
Det här arbetsflödet startar manuellt så att ni kan verifiera resultaten från scraping och parsing innan ni kör i större skala.
- Lägg till noden Manual Execution Start som trigger.
- Lämna standardinställningarna som de är (inga parametrar krävs).
- Koppla Manual Execution Start till Retrieve Target URLs.
Steg 2: Anslut Google Sheets
Hämta mål-URL:er och spara utdata i Google Sheets.
- Öppna Retrieve Target URLs och ställ in Sheet Name till
{{TRACK_SHEET_GID}}. - Ställ in Document ID till
{{WEB_SHEET_ID}}. - Autentiseringsuppgifter krävs: Anslut era googleSheetsOAuth2Api-autentiseringsuppgifter i Retrieve Target URLs.
- Öppna Append Results Sheet och ställ in Operation till
append. - Ställ in Sheet Name till
{{RESULTS_SHEET_GID}}och Document ID till{{WEB_SHEET_ID}}. - Mappa kolumner till värden: name →
{{ $json.output.name }}, price →{{ $json.output.price }}, rating →{{ $json.output.rating }}, reviews →{{ $json.output.reviews }}, description →{{ $json.output.description }}. - Autentiseringsuppgifter krävs: Anslut era googleSheetsOAuth2Api-autentiseringsuppgifter i Append Results Sheet.
{{TRACK_SHEET_GID}} och {{RESULTS_SHEET_GID}} pekar på rätt flikar, inte dokument-ID:t.Steg 3: Sätt upp URL-batchning och hämtning av sidor
Batcha igenom URL:erna och hämta sedan sidans HTML via Bright Data.
- Koppla Retrieve Target URLs till Batch URL Iterator.
- Koppla Batch URL Iterator till Fetch Page Content (huvudutgången).
- I Fetch Page Content, ställ in URL till
https://api.brightdata.com/requestoch Method tillPOST. - Aktivera Send Body och Send Headers.
- Ställ in body-parametrar: zone →
web_unlocker1, url →{{ $json.url }}, format →raw. - Ställ in header-parametern Authorization till
{{BRIGHTDATA_TOKEN}}.
{{BRIGHTDATA_TOKEN}} inte är satt som en miljövariabel kommer förfrågan att misslyckas med ett autentiseringsfel.Steg 4: Rensa och parsa produktdata med AI
Rensa HTML och extrahera strukturerade produktdetaljer med hjälp av LLM-kedjan.
- Koppla Fetch Page Content till Sanitize Markup.
- I Sanitize Markup, behåll den angivna JavaScript Code för att generera
cleanedHtml. - Koppla Sanitize Markup till Extract Product Data.
- I Extract Product Data, ställ in Text till
{{ $json.cleanedHtml }}och behåll Prompt Type somdefine. - Säkerställ att meddelandet refererar till nyckelordsuttrycket:
{{ $(‘Batch URL Iterator’).item.json.url.split(’/s?k=’)[1].split(’&’)[0] }}. - Koppla OpenRouter Chat Engine till Extract Product Data som språkmodell.
- Koppla Structured Result Parser till Extract Product Data som utdata-parser.
Steg 5: Expandera och spara resultat
Dela upp AI-utdata i poster, lägg till dem i resultatfliken och loopa vidare till nästa batch.
- Koppla Extract Product Data till Expand Output Items.
- I Expand Output Items, ställ in Field to Split Out till
outputoch Include tillallOtherFields. - Koppla Expand Output Items till Append Results Sheet.
- Koppla Append Results Sheet tillbaka till Batch URL Iterator för att fortsätta batchningen.
Steg 6: Testa och aktivera ert arbetsflöde
Kör ett manuellt test för att bekräfta scraping, parsing och utdata till arket innan ni aktiverar användning i produktion.
- Klicka på Execute Workflow för att starta Manual Execution Start.
- Bekräfta att Fetch Page Content returnerar HTML och att Sanitize Markup ger ut
cleanedHtml. - Verifiera att Extract Product Data ger strukturerade poster som matchar schemat i Structured Result Parser.
- Kontrollera Append Results Sheet för nya rader med name, price, rating, reviews och description.
- När allt fungerar, växla arbetsflödet till Active för produktion (ersätt den manuella triggern med en schemalagd trigger vid behov).
Se upp med
- Autentiseringar för Google Sheets kan löpa ut eller kräva specifika behörigheter. Om något slutar fungera, kontrollera först n8n-skärmen Credentials och åtkomstprompten för Google-kontot.
- Om du använder Wait-noder eller extern rendering varierar processtiderna. Öka väntetiden om efterföljande noder misslyckas på tomma svar.
- Standardprompter i AI-noder är generiska. Lägg in er tonalitet tidigt, annars kommer du att redigera utdata för alltid.
Vanliga frågor
Cirka 30 minuter om dina nycklar och Sheets är redo.
Ja, men du vill ha någon som är bekväm med att koppla konton. Setupen är mest autentiseringar, Sheet-ID:n och en snabb testkörning.
Ja. n8n har ett gratis self-hosted-alternativ och en gratis provperiod på n8n Cloud. Molnplaner börjar på 20 USD/månad för högre volym. Du behöver också räkna in Bright Data-användning och OpenRouter LLM-kostnader per körning.
Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller self-hosting på en VPS. För self-hosting är Hostinger VPS prisvärd och klarar n8n bra. Self-hosting ger dig obegränsade körningar men kräver grundläggande serverhantering.
Du kan ändra vilka fält AI:n extraherar genom att justera schemat i Structured Result Parser och prompten i steget Extract Product Data. Vanliga justeringar är att lägga till lagerstatus, behålla ASIN-/SKU-liknande identifierare när de finns, eller hämta säljare/varumärkesfält för konkurrentrapporter. Om du i stället vill scrapa Walmart eller eBay brukar du behålla samma mönster: hämta HTML, sanera den och uppdatera extraktionsinstruktionerna så att modellen vet vilka element som är viktiga.
Oftast beror det på en ogiltig eller utgången Bright Data-token, eller att token inte är vald i autentiseringen för HTTP Request. Det kan också fallera om mål-URL:en är felaktigt formaterad, eller om Bright Data stryper dig efter för många förfrågningar under en kort tidsperiod. Kontrollera först körningsutdata i HTTP Request-noden; där visas vanligtvis ett auth- eller rate limit-meddelande som du kan agera på.
Den skalar bra eftersom den bearbetar URL:er i batcher, så du kan köra hundratals URL:er per jobb om dina Bright Data- och LLM-kvoter tillåter det.
För det här användningsfallet är n8n oftast bättre eftersom du behöver batchning, HTML-rensning och ett AI-extraktionssteg som gynnas av mer kontroll. Zapier och Make kan göra HTTP-anrop, men lång eller rörig HTML blir snabbt jobbigt, och utdata med många objekt kan bli dyrt eller klumpigt. n8n ger dig också möjlighet att self-hosta, vilket spelar roll när du kör stora researchjobb. Samtidigt: om du bara scrapar ett par URL:er en gång i månaden kan ett enklare verktyg vara “tillräckligt”. Prata med en automationsexpert om du vill ha en snabb rekommendation utifrån din volym.
När det här väl rullar slutar Amazon-spårning att vara en fruktad kalkylarkssyssla. Du får mer strukturerad data, snabbare uppdateringar och mer tid till det som faktiskt betyder något: att fatta beslut utifrån vad som har förändrats.
Kontakta oss
Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.