Behöver ert företag hjälp med att implementera AI? Kontakta oss och få prisoffert här →
AI Skolan
januari 22, 2026

Decodo + Google Sheets: spåra Amazon-prissänkningar

Rickard Andersson Partner, Nodenordic.se

Du hittar en ”bra” prisnedgång på Amazon, kopierar detaljer till ett kalkylark, öppnar produktsidan, dubbelkollar rabatten och gör sedan om det. Och igen. När du är klar har kampanjfönstret hunnit flytta sig och du litar fortfarande inte på datan.

Den här automatiseringen för Amazon prisbevakning slår hårdast mot e-handelsanalytiker, men affiliate-marknadsförare och små produktteam känner av den också. Poängen är enkel: bygg en korrekt formaterad, sökbar deal-historik utan att vakta flikar hela dagen.

Det här flödet använder Decodo för att skrapa listor med prisnedgångar, OpenAI för att strukturera och analysera dem, och lägger sedan till allt i Google Sheets. Du får se vad det fångar, vad det förändrar i din vardag och vad du behöver se upp med.

Så fungerar automatiseringen

Se hur detta löser problemet:

n8n Workflow Template: Decodo + Google Sheets: spåra Amazon-prissänkningar

Utmaningen: att hålla en pålitlig Amazon-deallogg

Prisnedgångar ser enkla ut tills du försöker följa dem konsekvent. Ena dagen fångar du produktnamn men glömmer länkarna. Nästa dag sparar du länkar men prisfältet är stökigt, eller så saknas ”besparing”. Sedan kommer den mänskliga delen: du skummar beskrivningar, försöker avgöra om en deal är värd att trycka på och lämnar vaga anteckningar som du inte kan använda senare. Efter en vecka blir ditt ”spårningsark” en brusig dump som inte hjälper dig att se trender eller vinnare.

Det eskalerar snabbt. Här är var det faller isär i verkligt arbete.

  • Du lägger cirka 10 minuter per produkt på att växla mellan en listningssida, produktsidan och ditt kalkylark.
  • Ostrukturerad info (titlar, priser, besparingstext) klistras in i olika format, så filtrering och diagram blir ett evighetsjobb.
  • Det är lätt att missa sammanhang, så dina ”deal-anteckningar” blir tunna och du får undersöka samma produkt igen senare.
  • När belastningen ökar slutar du spåra i några dagar, vilket saboterar alla försök till trendanalys.

Lösningen: skrapa, strukturera och logga prisnedgångar automatiskt

Det här flödet skapar en enkel pipeline: hämta en lista med Amazon-prisnedgångar (via en CamelCamelCamel-URL för ”daily drops”), berika varje produkt med djupare siddata och skriv resultaten till ett Google Sheet som du faktiskt kan använda. Det börjar med en indata-URL som du styr, sedan skrapar Decodo listningsinnehållet och hämtar råa produktdetaljer. Därefter omvandlar OpenAI den stökiga texten till strukturerade fält (tänk: konsekvent namn, aktuellt pris, besparing och produktlänk). Sedan loopar flödet igenom varje produkt-URL, skrapar produktsidan och kör två AI-analyser: en lättläst sammanfattning samt sentiment och nyckelämnen. Till sist slås allt ihop, aggregeras och läggs till i ditt kalkylark ”Pricedrop Info” så att din deal-historik hålls strukturerad automatiskt.

Flödet startar när du kör det manuellt (eller schemalägger det senare). Decodo fångar prisnedgångsobjekt och OpenAI formaterar utdata till förutsägbara JSON-fält. Varje produkt besöks igen för berikning, och den slutliga datamängden hamnar i Google Sheets redo för filtrering, anteckningar och trendspårning.

Vad som förändras: före vs. efter

Effekt i praktiken

Säg att du spårar 20 produkter med prisnedgång varje morgon. Manuellt tar även en ”snabb” process kanske 10 minuter per artikel när du öppnar listningen, klickar in på produkten, kopierar fält och skriver en anteckning, vilket är runt 3 timmar. Med det här flödet klistrar du in drop-URL:en en gång, låter det köra och granskar de färdiga raderna i Google Sheets; din aktiva tid blir snarare runt 15 minuter, plus att du väntar medan processen går i bakgrunden. Det är ungefär 2+ timmar tillbaka de dagar du faktiskt följer upp aktivt.

Krav

  • n8n-instans (testa n8n Cloud gratis)
  • Alternativ för egen hosting om du föredrar det (Hostinger fungerar bra)
  • Decodo för att skrapa Amazons prisnedgångssidor
  • Google Sheets för att lagra din deal-historik
  • OpenAI API-nyckel (hämta den i OpenAI-dashboarden)

Kunskapsnivå: Medel. Du kopplar upp autentisering, installerar en community-nod och redigerar några indatafält.

Behöver du hjälp att implementera detta? Prata med en automationsexpert (gratis 15-minuters konsultation).

Flödets steg

Körtrigger och indata-setup. Du startar flödet manuellt och det läser din price_drop_url (standard pekar på CamelCamelCamels daily drops, men du kan byta).

Skrapa drop-listningarna. Decodo hämtar listningssidan och returnerar produkterna den hittar, inklusive titlar, prisinfo, besparingstext och länkar. Det här är råmaterialet, och det är ofta stökigt.

Strukturera och berika datan. OpenAI formaterar det skrapade innehållet till korrekt formaterade JSON-fält, sedan loopar flödet igenom varje produkt i batchar och skrapar produktsidan för mer kontext. Därefter följer två AI-pass: en sammanfattning du kan skumma och sentimentinsikter (ton, poäng och nyckelämnen) som hjälper vid snabb triage.

Skriv till Google Sheets. Flödet slår ihop sammanfattnings- och sentimentutdata, aggregerar resultat och lägger till nya rader i ditt målark (kalkylarket ”Pricedrop Info” i den medföljande uppsättningen).

Du kan enkelt ändra price_drop_url för att spåra ett annat drop-flöde utifrån dina behov. Se hela implementationsguiden nedan för anpassningsalternativ.

Steg-för-steg-guide för implementering

Steg 1: konfigurera den manuella triggern

Starta arbetsflödet med en manuell trigger och definiera bas-URL:en som används för att skrapa prisfall.

  1. Lägg till och öppna Manual Execution Start för att bekräfta att det är triggernoden.
  2. Öppna Assign Input Parameters och sätt price_drop_url till https://camelcamelcamel.com/top_drops?t=daily.
  3. Anslut Manual Execution StartAssign Input Parameters så att det matchar körflödet.

Steg 2: anslut Decodo-skrapning

Skrapa sidan med prisfall och skicka det extraherade innehållet vidare till LLM-extraktionssteget.

  1. Öppna Decodo Scrape Request och sätt URL till {{ $json.price_drop_url }}.
  2. Låt Headless vara satt till false och Markdown vara satt till true.
  3. Inloggningsuppgifter krävs: Anslut era decodoApi-inloggningsuppgifter i Decodo Scrape Request.
  4. Anslut Assign Input ParametersDecodo Scrape RequestLLM Structured Extraction.
Om skrapningen returnerar tomt innehåll, verifiera att mål-URL:en laddar utan att kräva inloggning eller CAPTCHA.

Steg 3: konfigurera LLM Structured Extraction

Använd en LLM för att tolka den skrapade markdownen till strukturerad JSON för vidare bearbetning.

  1. Öppna LLM Structured Extraction och sätt Text till Extract clean, structured JSON data from the following text: {{ $json.results[0].content }}.
  2. Säkerställ att Has Output Parser är aktiverat så att Structured Output Reader kan validera schemat.
  3. Öppna Structured Output Reader och bekräfta att JSON-schemat matchar de nödvändiga produktfälten (id, title, price, savings, link).
  4. Inloggningsuppgifter krävs: Anslut era openAiApi-inloggningsuppgifter i OpenAI Chat Engine.
Inloggningsuppgifter krävs: Structured Output Reader är en undernod—lägg till OpenAI-inloggningsuppgifter i OpenAI Chat Engine, inte i parsern.

Steg 4: bearbeta produkter i batchar och kör parallell AI-analys

Dela upp den strukturerade arrayen i enskilda objekt, skrapa varje produktsida och kör sentiment- och sammanfattningsanalys parallellt.

  1. Öppna Expand Array Items och sätt Field To Split Out till output.
  2. Anslut LLM Structured ExtractionExpand Array ItemsIterate Product Batches.
  3. Öppna Product Page Scraper och sätt URL till {{ $json.link }}, med Headless satt till false och Markdown satt till true.
  4. Inloggningsuppgifter krävs: Anslut era decodoApi-inloggningsuppgifter i Product Page Scraper.
  5. Product Page Scraper skickar output till både Analyze Sentiment Tone och Generate Content Summary parallellt.
  6. För Analyze Sentiment Tone, sätt Text till Perform a detailed sentiment analysis on the following content: {{ $json.results[0].content }}.
  7. Inloggningsuppgifter krävs: Anslut era openAiApi-inloggningsuppgifter i OpenAI Sentiment Model (språkmodellen för Analyze Sentiment Tone).
  8. För Generate Content Summary, sätt Text till Generate a clear, accurate, and comprehensive summary of the following content: - {{ $json.results[0].content }}.
  9. Inloggningsuppgifter krävs: Anslut era openAiApi-inloggningsuppgifter i OpenAI Summary Model (språkmodellen för Generate Content Summary).
  10. Anslut båda AI-noderna till Combine Summary & Sentiment för att slå ihop deras output.
⚠️ Vanlig fallgrop: Om de parallella grenarna inte båda är anslutna till Combine Summary & Sentiment tappar ni antingen sammanfattningen eller sentimentdatan.

Steg 5: konfigurera aggregering och output till Google Sheets

Aggregera sammanslagna resultat och lägg till eller uppdatera dem i ert Google-ark, och loopa sedan till nästa batch.

  1. Anslut Combine Summary & SentimentAggregate Results.
  2. Öppna Aggregate Results och behåll Aggregate satt till aggregateAllItemData.
  3. Öppna Modify Google Spreadsheet och sätt Operation till appendOrUpdate.
  4. Sätt Document till [YOUR_ID] och Sheet till Sheet1 (gid=0).
  5. Mappa kolumnen output till {{ $json.data.toJsonString() }}.
  6. Inloggningsuppgifter krävs: Anslut era googleSheetsOAuth2Api-inloggningsuppgifter i Modify Google Spreadsheet.
  7. Anslut Modify Google Spreadsheet tillbaka till Iterate Product Batches för att fortsätta batchbearbetningen.

Steg 6: testa och aktivera ert arbetsflöde

Kör ett manuellt test för att säkerställa att skrapning, extraktion, AI-analys och uppdatering av kalkylarket lyckas hela vägen.

  1. Klicka på Execute Workflow från Manual Execution Start för att köra ett fullständigt test.
  2. Verifiera att Decodo Scrape Request returnerar markdown-innehåll och att LLM Structured Extraction producerar en strukturerad array.
  3. Bekräfta att både Analyze Sentiment Tone och Generate Content Summary returnerar giltig JSON och slås ihop korrekt i Combine Summary & Sentiment.
  4. Kontrollera att Modify Google Spreadsheet lägger till eller uppdaterar rader i ert målark.
  5. När allt ser korrekt ut, växla arbetsflödet till Active för produktion.
🔒

Lås upp fullständig steg-för-steg-guide

Få den kompletta implementeringsguiden + nedladdningsbar mall

Saker att se upp med

  • Decodo-autentisering kan gå ut eller kräva specifika behörigheter. Om något slutar fungera, kontrollera först tokenstatus i Decodo-dashboarden och dina planbegränsningar.
  • Om du använder Wait-noder eller extern rendering varierar processtiderna. Öka väntetiden om noder längre ned fallerar på tomma svar.
  • Standardprompter i AI-noder är generiska. Lägg in er tonalitet tidigt, annars kommer du redigera utdata i all oändlighet.

Vanliga frågor

Hur snabbt kan jag implementera den här automatiseringen för Amazon prisbevakning?

Cirka en timme om dina konton och API-nycklar är klara.

Kan icke-tekniska team implementera den här Amazon prisbevakningen?

Ja, men du vill ha någon som är bekväm med att koppla upp autentisering och testa några körningar. Den enda ”pilliga” delen är att installera Decodo community-noden på egenhostad n8n.

Är n8n gratis att använda för det här flödet för Amazon prisbevakning?

Ja. n8n har ett gratis alternativ för egen hosting och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna in OpenAI API-användning och din Decodo-plan för skrapning.

Var kan jag hosta n8n för att köra den här automatiseringen?

Två alternativ: n8n Cloud (hanterat, enklast setup) eller egen hosting på en VPS. För egen hosting är Hostinger VPS prisvärt och hanterar n8n bra. Egen hosting ger dig obegränsade exekveringar men kräver grundläggande serverdrift.

Hur anpassar jag den här lösningen för Amazon prisbevakning till mina specifika utmaningar?

Börja med att ändra indata-URL:en i noden ”Assign Input Parameters” så att du skrapar exakt det CamelCamelCamel-flöde du bryr dig om (dagligen, veckovis, kategorisidor). Om du vill ha fler kolumner, redigera schemat i ”Structured Output Reader” så att OpenAI returnerar fält som varumärke, betyg eller tillgänglighet. Du kan också justera prompterna i ”Generate Content Summary” och ”Analyze Sentiment Tone” så att de matchar hur ditt team utvärderar deals, till exempel genom att lyfta vidareförsäljningspotential eller identifiera ”promo-floskler”.

Varför misslyckas min Decodo-anslutning i det här flödet?

Oftast beror det på en ogiltig eller utgången API-token, så skapa en ny i Decodo och uppdatera autentiseringen i n8n. Det kan också handla om planbegränsningar eller blockerade mål, särskilt om du skrapar för aggressivt eller träffar samma domän upprepade gånger. Om det bara fallerar i steget som berikar produktsidan, minska batchstorleken och försök igen. Kontrollera slutligen att du kör egenhostad n8n eftersom Decodo-noden är en community-nod.

Vilken kapacitet har den här lösningen för Amazon prisbevakning?

Om du kör egen hosting beror kapaciteten främst på din server och dina Decodo/OpenAI-gränser.

Är den här automatiseringen för Amazon prisbevakning bättre än att använda Zapier eller Make?

Ofta, ja. Zapier och Make har det tufft när du behöver skrapning i flera steg, loopa över dussintals produkter och köra två AI-analyser per artikel utan att kostnaderna skenar. n8n är också mer flexibelt för strukturerade utdata (JSON-parsning, aggregering, sammanfogning) och kan köras egenhostat, vilket är viktigt här på grund av Decodo community-noden. Om du bara loggar en handfull deals som triggas manuellt från ett formulär kan de verktygen räcka. För en riktig pipeline för prisintelligens passar n8n bättre. Prata med en automationsexpert om du vill ha en snabb rekommendation för din setup.

När detta väl rullar slutar ditt kalkylark att vara ett stökigt kladdblock och börjar fungera som en riktig deal-databas. Flödet hanterar den repetitiva insamlingen och rensningen så att du kan fokusera på vad du ska göra med datan.

Kontakta oss

Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.

×

Använd mall

Få direkt tillgång till denna n8n-arbetsflödes JSON-fil

Launch login modal Launch register modal