Du hittar en ”bra” prisnedgång på Amazon, kopierar detaljer till ett kalkylark, öppnar produktsidan, dubbelkollar rabatten och gör sedan om det. Och igen. När du är klar har kampanjfönstret hunnit flytta sig och du litar fortfarande inte på datan.
Den här automatiseringen för Amazon prisbevakning slår hårdast mot e-handelsanalytiker, men affiliate-marknadsförare och små produktteam känner av den också. Poängen är enkel: bygg en korrekt formaterad, sökbar deal-historik utan att vakta flikar hela dagen.
Det här flödet använder Decodo för att skrapa listor med prisnedgångar, OpenAI för att strukturera och analysera dem, och lägger sedan till allt i Google Sheets. Du får se vad det fångar, vad det förändrar i din vardag och vad du behöver se upp med.
Så fungerar automatiseringen
Se hur detta löser problemet:
n8n Workflow Template: Decodo + Google Sheets: spåra Amazon-prissänkningar
flowchart LR
subgraph sg0["Manual Execution Start Flow"]
direction LR
n0@{ icon: "mdi:play-circle", form: "rounded", label: "Manual Execution Start", pos: "b", h: 48 }
n1@{ icon: "mdi:swap-vertical", form: "rounded", label: "Assign Input Parameters", pos: "b", h: 48 }
n2@{ icon: "mdi:swap-vertical", form: "rounded", label: "Expand Array Items", pos: "b", h: 48 }
n3@{ icon: "mdi:swap-vertical", form: "rounded", label: "Iterate Product Batches", pos: "b", h: 48 }
n4@{ icon: "mdi:robot", form: "rounded", label: "Analyze Sentiment Tone", pos: "b", h: 48 }
n5["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/merge.svg' width='40' height='40' /></div><br/>Combine Summary & Sentiment"]
n6@{ icon: "mdi:database", form: "rounded", label: "Modify Google Spreadsheet", pos: "b", h: 48 }
n7@{ icon: "mdi:robot", form: "rounded", label: "Structured Output Reader", pos: "b", h: 48 }
n8@{ icon: "mdi:robot", form: "rounded", label: "LLM Structured Extraction", pos: "b", h: 48 }
n9@{ icon: "mdi:cog", form: "rounded", label: "Aggregate Results", pos: "b", h: 48 }
n10@{ icon: "mdi:cog", form: "rounded", label: "Decodo Scrape Request", pos: "b", h: 48 }
n11@{ icon: "mdi:brain", form: "rounded", label: "OpenAI Chat Engine", pos: "b", h: 48 }
n12@{ icon: "mdi:cog", form: "rounded", label: "Product Page Scraper", pos: "b", h: 48 }
n13@{ icon: "mdi:brain", form: "rounded", label: "OpenAI Sentiment Model", pos: "b", h: 48 }
n14@{ icon: "mdi:robot", form: "rounded", label: "Generate Content Summary", pos: "b", h: 48 }
n15@{ icon: "mdi:brain", form: "rounded", label: "OpenAI Summary Model", pos: "b", h: 48 }
n5 --> n9
n10 --> n8
n9 --> n6
n2 --> n3
n3 --> n12
n1 --> n10
n11 -.-> n8
n14 --> n5
n4 --> n5
n6 --> n3
n12 --> n4
n12 --> n14
n7 -.-> n8
n8 --> n2
n0 --> n1
n15 -.-> n14
n13 -.-> n4
end
%% Styling
classDef trigger fill:#e8f5e9,stroke:#388e3c,stroke-width:2px
classDef ai fill:#e3f2fd,stroke:#1976d2,stroke-width:2px
classDef aiModel fill:#e8eaf6,stroke:#3f51b5,stroke-width:2px
classDef decision fill:#fff8e1,stroke:#f9a825,stroke-width:2px
classDef database fill:#fce4ec,stroke:#c2185b,stroke-width:2px
classDef api fill:#fff3e0,stroke:#e65100,stroke-width:2px
classDef code fill:#f3e5f5,stroke:#7b1fa2,stroke-width:2px
classDef disabled stroke-dasharray: 5 5,opacity: 0.5
class n0 trigger
class n4,n7,n8,n14 ai
class n11,n13,n15 aiModel
class n6 database
classDef customIcon fill:none,stroke:none
class n5 customIcon
Utmaningen: att hålla en pålitlig Amazon-deallogg
Prisnedgångar ser enkla ut tills du försöker följa dem konsekvent. Ena dagen fångar du produktnamn men glömmer länkarna. Nästa dag sparar du länkar men prisfältet är stökigt, eller så saknas ”besparing”. Sedan kommer den mänskliga delen: du skummar beskrivningar, försöker avgöra om en deal är värd att trycka på och lämnar vaga anteckningar som du inte kan använda senare. Efter en vecka blir ditt ”spårningsark” en brusig dump som inte hjälper dig att se trender eller vinnare.
Det eskalerar snabbt. Här är var det faller isär i verkligt arbete.
- Du lägger cirka 10 minuter per produkt på att växla mellan en listningssida, produktsidan och ditt kalkylark.
- Ostrukturerad info (titlar, priser, besparingstext) klistras in i olika format, så filtrering och diagram blir ett evighetsjobb.
- Det är lätt att missa sammanhang, så dina ”deal-anteckningar” blir tunna och du får undersöka samma produkt igen senare.
- När belastningen ökar slutar du spåra i några dagar, vilket saboterar alla försök till trendanalys.
Lösningen: skrapa, strukturera och logga prisnedgångar automatiskt
Det här flödet skapar en enkel pipeline: hämta en lista med Amazon-prisnedgångar (via en CamelCamelCamel-URL för ”daily drops”), berika varje produkt med djupare siddata och skriv resultaten till ett Google Sheet som du faktiskt kan använda. Det börjar med en indata-URL som du styr, sedan skrapar Decodo listningsinnehållet och hämtar råa produktdetaljer. Därefter omvandlar OpenAI den stökiga texten till strukturerade fält (tänk: konsekvent namn, aktuellt pris, besparing och produktlänk). Sedan loopar flödet igenom varje produkt-URL, skrapar produktsidan och kör två AI-analyser: en lättläst sammanfattning samt sentiment och nyckelämnen. Till sist slås allt ihop, aggregeras och läggs till i ditt kalkylark ”Pricedrop Info” så att din deal-historik hålls strukturerad automatiskt.
Flödet startar när du kör det manuellt (eller schemalägger det senare). Decodo fångar prisnedgångsobjekt och OpenAI formaterar utdata till förutsägbara JSON-fält. Varje produkt besöks igen för berikning, och den slutliga datamängden hamnar i Google Sheets redo för filtrering, anteckningar och trendspårning.
Vad som förändras: före vs. efter
| Det här eliminerar | Effekten du märker |
|---|---|
|
|
Effekt i praktiken
Säg att du spårar 20 produkter med prisnedgång varje morgon. Manuellt tar även en ”snabb” process kanske 10 minuter per artikel när du öppnar listningen, klickar in på produkten, kopierar fält och skriver en anteckning, vilket är runt 3 timmar. Med det här flödet klistrar du in drop-URL:en en gång, låter det köra och granskar de färdiga raderna i Google Sheets; din aktiva tid blir snarare runt 15 minuter, plus att du väntar medan processen går i bakgrunden. Det är ungefär 2+ timmar tillbaka de dagar du faktiskt följer upp aktivt.
Krav
- n8n-instans (testa n8n Cloud gratis)
- Alternativ för egen hosting om du föredrar det (Hostinger fungerar bra)
- Decodo för att skrapa Amazons prisnedgångssidor
- Google Sheets för att lagra din deal-historik
- OpenAI API-nyckel (hämta den i OpenAI-dashboarden)
Kunskapsnivå: Medel. Du kopplar upp autentisering, installerar en community-nod och redigerar några indatafält.
Behöver du hjälp att implementera detta? Prata med en automationsexpert (gratis 15-minuters konsultation).
Flödets steg
Körtrigger och indata-setup. Du startar flödet manuellt och det läser din price_drop_url (standard pekar på CamelCamelCamels daily drops, men du kan byta).
Skrapa drop-listningarna. Decodo hämtar listningssidan och returnerar produkterna den hittar, inklusive titlar, prisinfo, besparingstext och länkar. Det här är råmaterialet, och det är ofta stökigt.
Strukturera och berika datan. OpenAI formaterar det skrapade innehållet till korrekt formaterade JSON-fält, sedan loopar flödet igenom varje produkt i batchar och skrapar produktsidan för mer kontext. Därefter följer två AI-pass: en sammanfattning du kan skumma och sentimentinsikter (ton, poäng och nyckelämnen) som hjälper vid snabb triage.
Skriv till Google Sheets. Flödet slår ihop sammanfattnings- och sentimentutdata, aggregerar resultat och lägger till nya rader i ditt målark (kalkylarket ”Pricedrop Info” i den medföljande uppsättningen).
Du kan enkelt ändra price_drop_url för att spåra ett annat drop-flöde utifrån dina behov. Se hela implementationsguiden nedan för anpassningsalternativ.
Steg-för-steg-guide för implementering
Steg 1: konfigurera den manuella triggern
Starta arbetsflödet med en manuell trigger och definiera bas-URL:en som används för att skrapa prisfall.
- Lägg till och öppna Manual Execution Start för att bekräfta att det är triggernoden.
- Öppna Assign Input Parameters och sätt price_drop_url till
https://camelcamelcamel.com/top_drops?t=daily. - Anslut Manual Execution Start → Assign Input Parameters så att det matchar körflödet.
Steg 2: anslut Decodo-skrapning
Skrapa sidan med prisfall och skicka det extraherade innehållet vidare till LLM-extraktionssteget.
- Öppna Decodo Scrape Request och sätt URL till
{{ $json.price_drop_url }}. - Låt Headless vara satt till
falseoch Markdown vara satt tilltrue. - Inloggningsuppgifter krävs: Anslut era decodoApi-inloggningsuppgifter i Decodo Scrape Request.
- Anslut Assign Input Parameters → Decodo Scrape Request → LLM Structured Extraction.
Steg 3: konfigurera LLM Structured Extraction
Använd en LLM för att tolka den skrapade markdownen till strukturerad JSON för vidare bearbetning.
- Öppna LLM Structured Extraction och sätt Text till
Extract clean, structured JSON data from the following text: {{ $json.results[0].content }}. - Säkerställ att Has Output Parser är aktiverat så att Structured Output Reader kan validera schemat.
- Öppna Structured Output Reader och bekräfta att JSON-schemat matchar de nödvändiga produktfälten (id, title, price, savings, link).
- Inloggningsuppgifter krävs: Anslut era openAiApi-inloggningsuppgifter i OpenAI Chat Engine.
Steg 4: bearbeta produkter i batchar och kör parallell AI-analys
Dela upp den strukturerade arrayen i enskilda objekt, skrapa varje produktsida och kör sentiment- och sammanfattningsanalys parallellt.
- Öppna Expand Array Items och sätt Field To Split Out till
output. - Anslut LLM Structured Extraction → Expand Array Items → Iterate Product Batches.
- Öppna Product Page Scraper och sätt URL till
{{ $json.link }}, med Headless satt tillfalseoch Markdown satt tilltrue. - Inloggningsuppgifter krävs: Anslut era decodoApi-inloggningsuppgifter i Product Page Scraper.
- Product Page Scraper skickar output till både Analyze Sentiment Tone och Generate Content Summary parallellt.
- För Analyze Sentiment Tone, sätt Text till
Perform a detailed sentiment analysis on the following content: {{ $json.results[0].content }}. - Inloggningsuppgifter krävs: Anslut era openAiApi-inloggningsuppgifter i OpenAI Sentiment Model (språkmodellen för Analyze Sentiment Tone).
- För Generate Content Summary, sätt Text till
Generate a clear, accurate, and comprehensive summary of the following content: - {{ $json.results[0].content }}. - Inloggningsuppgifter krävs: Anslut era openAiApi-inloggningsuppgifter i OpenAI Summary Model (språkmodellen för Generate Content Summary).
- Anslut båda AI-noderna till Combine Summary & Sentiment för att slå ihop deras output.
Steg 5: konfigurera aggregering och output till Google Sheets
Aggregera sammanslagna resultat och lägg till eller uppdatera dem i ert Google-ark, och loopa sedan till nästa batch.
- Anslut Combine Summary & Sentiment → Aggregate Results.
- Öppna Aggregate Results och behåll Aggregate satt till
aggregateAllItemData. - Öppna Modify Google Spreadsheet och sätt Operation till
appendOrUpdate. - Sätt Document till
[YOUR_ID]och Sheet tillSheet1(gid=0). - Mappa kolumnen output till
{{ $json.data.toJsonString() }}. - Inloggningsuppgifter krävs: Anslut era googleSheetsOAuth2Api-inloggningsuppgifter i Modify Google Spreadsheet.
- Anslut Modify Google Spreadsheet tillbaka till Iterate Product Batches för att fortsätta batchbearbetningen.
Steg 6: testa och aktivera ert arbetsflöde
Kör ett manuellt test för att säkerställa att skrapning, extraktion, AI-analys och uppdatering av kalkylarket lyckas hela vägen.
- Klicka på Execute Workflow från Manual Execution Start för att köra ett fullständigt test.
- Verifiera att Decodo Scrape Request returnerar markdown-innehåll och att LLM Structured Extraction producerar en strukturerad array.
- Bekräfta att både Analyze Sentiment Tone och Generate Content Summary returnerar giltig JSON och slås ihop korrekt i Combine Summary & Sentiment.
- Kontrollera att Modify Google Spreadsheet lägger till eller uppdaterar rader i ert målark.
- När allt ser korrekt ut, växla arbetsflödet till Active för produktion.
Saker att se upp med
- Decodo-autentisering kan gå ut eller kräva specifika behörigheter. Om något slutar fungera, kontrollera först tokenstatus i Decodo-dashboarden och dina planbegränsningar.
- Om du använder Wait-noder eller extern rendering varierar processtiderna. Öka väntetiden om noder längre ned fallerar på tomma svar.
- Standardprompter i AI-noder är generiska. Lägg in er tonalitet tidigt, annars kommer du redigera utdata i all oändlighet.
Vanliga frågor
Cirka en timme om dina konton och API-nycklar är klara.
Ja, men du vill ha någon som är bekväm med att koppla upp autentisering och testa några körningar. Den enda ”pilliga” delen är att installera Decodo community-noden på egenhostad n8n.
Ja. n8n har ett gratis alternativ för egen hosting och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna in OpenAI API-användning och din Decodo-plan för skrapning.
Två alternativ: n8n Cloud (hanterat, enklast setup) eller egen hosting på en VPS. För egen hosting är Hostinger VPS prisvärt och hanterar n8n bra. Egen hosting ger dig obegränsade exekveringar men kräver grundläggande serverdrift.
Börja med att ändra indata-URL:en i noden ”Assign Input Parameters” så att du skrapar exakt det CamelCamelCamel-flöde du bryr dig om (dagligen, veckovis, kategorisidor). Om du vill ha fler kolumner, redigera schemat i ”Structured Output Reader” så att OpenAI returnerar fält som varumärke, betyg eller tillgänglighet. Du kan också justera prompterna i ”Generate Content Summary” och ”Analyze Sentiment Tone” så att de matchar hur ditt team utvärderar deals, till exempel genom att lyfta vidareförsäljningspotential eller identifiera ”promo-floskler”.
Oftast beror det på en ogiltig eller utgången API-token, så skapa en ny i Decodo och uppdatera autentiseringen i n8n. Det kan också handla om planbegränsningar eller blockerade mål, särskilt om du skrapar för aggressivt eller träffar samma domän upprepade gånger. Om det bara fallerar i steget som berikar produktsidan, minska batchstorleken och försök igen. Kontrollera slutligen att du kör egenhostad n8n eftersom Decodo-noden är en community-nod.
Om du kör egen hosting beror kapaciteten främst på din server och dina Decodo/OpenAI-gränser.
Ofta, ja. Zapier och Make har det tufft när du behöver skrapning i flera steg, loopa över dussintals produkter och köra två AI-analyser per artikel utan att kostnaderna skenar. n8n är också mer flexibelt för strukturerade utdata (JSON-parsning, aggregering, sammanfogning) och kan köras egenhostat, vilket är viktigt här på grund av Decodo community-noden. Om du bara loggar en handfull deals som triggas manuellt från ett formulär kan de verktygen räcka. För en riktig pipeline för prisintelligens passar n8n bättre. Prata med en automationsexpert om du vill ha en snabb rekommendation för din setup.
När detta väl rullar slutar ditt kalkylark att vara ett stökigt kladdblock och börjar fungera som en riktig deal-databas. Flödet hanterar den repetitiva insamlingen och rensningen så att du kan fokusera på vad du ska göra med datan.
Kontakta oss
Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.