Du hämtar priser från en webbplats, klistrar in dem i ett kalkylark, snyggar till formateringen och inser sedan att du kopierade fel titel. Igen. Det är inte “svårt” arbete, men det är den typen som tyst stjäl hela eftermiddagen.
Det här drabbar virtuella assistenter och researchers hela tiden. Men dataanalytiker och små byråteam känner också av det. Med den här Sheets Gmail-automationen lägger du in en URL till en boklistning i Google Sheets och får en felfri, sorterad CSV-rapport i din inkorg.
Nedan ser du exakt vad arbetsflödet automatiserar, vilka resultat du kan förvänta dig och vad du behöver för att köra det stabilt utan att behöva vaka över det.
Så fungerar automatiseringen
Hela n8n-arbetsflödet, från trigger till slutresultat:
n8n Workflow Template: Google Sheets + Gmail: sorterade bokprisrapporter
flowchart LR
subgraph sg0["Trigger- Watches For new URL in Spreadsheet Flow"]
direction LR
n0@{ icon: "mdi:cog", form: "rounded", label: "Convert to CSV File", pos: "b", h: 48 }
n1["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/html.dark.svg' width='40' height='40' /></div><br/>Extract all books from the p.."]
n2@{ icon: "mdi:cog", form: "rounded", label: "Sort by price", pos: "b", h: 48 }
n3["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/html.dark.svg' width='40' height='40' /></div><br/>Extract individual book price"]
n4@{ icon: "mdi:message-outline", form: "rounded", label: "Send CSV via e-mail", pos: "b", h: 48 }
n5@{ icon: "mdi:play-circle", form: "rounded", label: "Trigger- Watches For new URL..", pos: "b", h: 48 }
n6["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/httprequest.dark.svg' width='40' height='40' /></div><br/>Scrape Website Content with .."]
n7@{ icon: "mdi:swap-vertical", form: "rounded", label: "Split HTML Array into Indivi..", pos: "b", h: 48 }
n2 --> n0
n0 --> n4
n3 --> n2
n1 --> n7
n7 --> n3
n6 --> n1
n5 --> n6
end
%% Styling
classDef trigger fill:#e8f5e9,stroke:#388e3c,stroke-width:2px
classDef ai fill:#e3f2fd,stroke:#1976d2,stroke-width:2px
classDef aiModel fill:#e8eaf6,stroke:#3f51b5,stroke-width:2px
classDef decision fill:#fff8e1,stroke:#f9a825,stroke-width:2px
classDef database fill:#fce4ec,stroke:#c2185b,stroke-width:2px
classDef api fill:#fff3e0,stroke:#e65100,stroke-width:2px
classDef code fill:#f3e5f5,stroke:#7b1fa2,stroke-width:2px
classDef disabled stroke-dasharray: 5 5,opacity: 0.5
class n5 trigger
class n6 api
classDef customIcon fill:none,stroke:none
class n1,n3,n6 customIcon
Problemet: manuell prisbevakning blir snabbt rutinjobb
Om du följer bokpriser (eller priser för andra katalogprodukter) är den jobbiga delen nästan aldrig att “hitta” sidan. Det är efterarbetet. Du kopierar titlar, klistrar in priser, tar bort valutasymboler, rättar trasiga rader och sorterar sedan på pris så att en kund snabbt ser vad som är dyrast. Gör du detta över några sidor så bränner du lätt cirka 2 timmar i veckan på uppgifter som inte förbättrar insikten alls. Ännu värre: ett missat objekt eller en klistring i fel kolumn gör att rapporten känns slarvig, vilket är det sista du vill när du skickar uppdateringar till intressenter.
Det växer snabbt. Här är var det oftast faller isär.
- Du behöver formatera om skrapad text till något kalkylarksvänligt varje gång.
- Sortering efter pris blir ett manuellt moment, och det är lätt att missa en dyr avvikare.
- Copy/paste-fel smyger sig in när du växlar mellan webbläsarflikar, Sheets och e-postutkast.
- Kunduppdateringar blir försenade eftersom “rapporten” fortfarande sätts ihop i sista minuten.
Lösningen: Google Sheets → skrapa → CSV → leverans via Gmail
Det här arbetsflödet gör en rörig, repetitiv rapportuppgift till en enkel “lägg till en URL och vänta”-process. Det börjar med att övervaka ditt Google Sheet efter en ny rad som innehåller en URL till en produktlistning (till exempel en kategorisida med böcker). När en URL dyker upp skickar n8n den till Dumpling AI för att hämta rensad HTML, som är mycket enklare att parsa än rå sidkälla. Arbetsflödet extraherar sedan varje bokblock från sidan med CSS-selektorer, plockar ut titel och pris för varje objekt och sorterar allt efter pris i fallande ordning. Till sist konverteras den strukturerade datan till en CSV-fil och mejlas till dig via Gmail som bilaga, redo att vidarebefordra till en kund eller lägga i en delad mapp.
Arbetsflödet startar när en ny URL läggs till i Google Sheets. Dumpling AI hämtar sidan, och sedan extraherar HTML-parsningen titel och pris på ett felfritt sätt. Därifrån sorterar n8n listan och skickar en färdig CSV till Gmail utan extra handpåläggning.
Det du får: automatisering vs. resultat
| Vad det här arbetsflödet automatiserar | Resultat du får |
|---|---|
|
|
Exempel: så här ser det ut i praktiken
Säg att du följer 10 sidor med boklistningar varje vecka åt en kund. Manuell hantering kan ta cirka 10 minuter per sida för att kopiera titlar och priser, och sedan ytterligare 20 minuter för att rensa och sortera, vilket blir ungefär 2 timmar totalt. Med det här arbetsflödet är “jobbet” att lägga in 10 URL:er i Google Sheets (kanske 5 minuter) och sedan vänta på att CSV-mejlen landar. Även om skrapning och bearbetning tar ytterligare 10–15 minuter i bakgrunden får du ändå tillbaka nästan hela de där 2 timmarna.
Det här behöver du
- n8n-instans (testa n8n Cloud gratis)
- Alternativ för egen hosting om du föredrar det (Hostinger fungerar bra)
- Google Sheets för att lagra URL:erna som triggar körningar.
- Gmail för att mejla CSV-rapporter automatiskt.
- Dumpling AI API-nyckel (hämta den i din Dumpling AI-dashboard).
Kunskapsnivå: Nybörjare. Du kopplar konton, klistrar in CSS-selektorer och testar en exempel-URL.
Vill du inte sätta upp detta själv? Prata med en automationsexpert (gratis 15-minuters konsultation).
Så fungerar det
En ny URL dyker upp i Google Sheets. Arbetsflödet använder en Google Sheets-trigger som bevakar nya rader, så du behöver inte klicka på “kör” eller exportera något.
Sidan skrapas och rensas. n8n skickar URL:en till Dumpling AI via en HTTP-request och ber om rensad HTML-output, som vanligtvis är mer stabil att parsa än rå markup.
Bokdata extraheras och sorteras. Ett HTML-parsningssteg hämtar varje bokcontainer (till exempel “.row > li”), och sedan plockar ett annat parsningssteg ut fälten titel och pris (som “h3 > a” och “.price_color”). När listan är strukturerad sorterar n8n på pris i fallande ordning.
En CSV-rapport byggs och mejlas. Arbetsflödet konverterar JSON till en CSV-fil, och sedan skickar Gmail den som bilaga till den adress du väljer.
Du kan enkelt ändra vilka fält du extraherar för att även få med författare, tillgänglighet eller produkt-URL utifrån dina behov. Se den fullständiga implementationsguiden nedan för anpassningsalternativ.
Steg-för-steg-guide för implementering
Steg 1: konfigurera Google Sheets-triggern
Konfigurera triggern så att arbetsflödet startar när en ny rad läggs till i ert ark med bok-URL:er.
- Lägg till och öppna Sheet Row Watcher.
- Ställ in Event på
rowAdded. - Välj ert kalkylark i Document via URL:en
https://docs.google.com/spreadsheets/d/1pb4WLqv2EruLM1z9-utehcINolSj0vlUqZionyLoRUs/edit?usp=drivesdk. - Välj bladnamnet
Sheet1i Sheet Name. - Ställ in pollningen till Every Minute i Poll Times.
- Inloggningsuppgifter krävs: Anslut era
googleSheetsTriggerOAuth2Api-uppgifter.
Steg 2: anslut tjänsten för HTML-hämtning
Konfigurera HTTP-förfrågan för att hämta webbsidan som anges i den nya rader i arket.
- Öppna Dumpling HTML Fetch och ställ in Method på
POST. - Ställ in URL till
https://app.dumplingai.com/api/v1/scrape. - Aktivera Send Body och Send Headers.
- Ställ in Body Content Type på
JSON. - Ställ in JSON Body till
{ "url": "{{ $('Sheet Row Watcher')}}", "format": "html", "cleaned": "True" }. - Ställ in Authentication på
genericCredentialTypeoch Generic Auth Type påhttpHeaderAuth. - Lägg till en header-parameter med Name
Content-Typeoch Valueapplication/json. - Inloggningsuppgifter krävs: Anslut era
httpHeaderAuth-uppgifter (ochhttpBasicAuthom er endpoint kräver det).
Steg 3: konfigurera HTML-tolkning och uppdelning av objekt
Extrahera bokblocken och tolka varje boks titel och pris.
- Öppna Capture Book Blocks och ställ in Operation på
extractHtmlContent. - Ställ in Data Property Name på
content. - I Extraction Values, ställ in Key på
books, CSS Selector på.row > li, Return Array på True och Return Value påhtml. - Öppna Split Book Items och ställ in Field To Split Out på
books. - Öppna Parse Book Details och ställ in Operation på
extractHtmlContent. - Ställ in Data Property Name på
books. - I Extraction Values, lägg till Key
titlemed CSS Selectorh3 > aoch Return Valueattributemed Attributetitle. - Lägg till ytterligare ett extraktionsvärde med Key
priceoch CSS Selector.price_color.
Steg 4: konfigurera sortering och e-postutskick
Sortera den tolkade datan, konvertera den till en CSV-fil och mejla rapporten.
- Öppna Order by Price och ställ in Field Name på
pricemed Orderdescending. - Öppna Build CSV File och behåll standardinställningarna för att konvertera inkommande objekt till en fil.
- Öppna Email CSV Report och ställ in Subject till
bookstore csv. - Ställ in Message till
Hey, here's the scraped data from the online bookstore!och Email Type tilltext. - I Attachments, säkerställ att den binära bilagan är aktiverad för att inkludera CSV-filen som genereras av Build CSV File.
- Inloggningsuppgifter krävs: Anslut era
gmailOAuth2-uppgifter.
Steg 5: testa och aktivera ert arbetsflöde
Kör ett manuellt test och aktivera sedan arbetsflödet för löpande övervakning.
- Klicka på Execute Workflow och lägg till en ny rad med en giltig bok-URL i ert Google-ark.
- Verifiera att Dumpling HTML Fetch returnerar HTML-innehåll och att Parse Book Details ger ut fälten
titleochprice. - Bekräfta att Build CSV File skapar en CSV-fil och att Email CSV Report skickar ett mejl med bilagan.
- När testet lyckas, växla arbetsflödet till Active för användning i produktion.
Vanliga fallgropar
- Google Sheets-autentisering kan löpa ut eller kräva specifika behörigheter. Om något slutar fungera, kontrollera först status på autentiseringskopplingen i n8n och åtkomsten för Google-kontot.
- Dumpling AI-skrapning kan misslyckas om webbplatsen blockerar botar eller om URL:en oväntat omdirigerar. När HTML-output ser tom ut, kontrollera exakt URL i ditt Sheet och testa Dumpling-requesten med samma parametrar.
- Priser extraheras ofta som strängar, inte tal. Om sorteringen verkar “fel” beror det oftast på att valutasymbol eller text fortfarande finns kvar, så justera parsningen eller lägg till ett rensningssteg innan sortering.
Vanliga frågor
Cirka 30 minuter om dina konton redan är anslutna.
Nej. Du kommer mest att klistra in autentiseringsuppgifter och bekräfta att CSS-selektorerna matchar webbplatsen du skrapar.
Ja. n8n har ett gratis alternativ för egen hosting och en gratis testperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna in Dumpling AI:s användningskrediter per skrapförfrågan.
Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller egen hosting på en VPS. För egen hosting är Hostinger VPS prisvärd och hanterar n8n bra. Egen hosting ger obegränsat antal körningar men kräver grundläggande serverhantering.
Ja, och det är ärligt talat det bästa sättet att få ut mer värde. Lägg till nya CSS-selektorer i HTML-parsningssteget “Parse Book Details” för att hämta fält som författare, tillgänglighet och produktlänk. Om du vill att mejlet ska gå direkt till en kund automatiskt behåller du samma steg för att bygga CSV och ändrar bara mottagaren i Gmail-noden. Du kan också byta logiken i “Order by Price” för att sortera alfabetiskt eller efter lagerstatus, om det är det din rapport behöver.
Oftast beror det på utgången OAuth-åtkomst eller saknade Gmail-behörigheter i det anslutna Google-kontot. Anslut Gmail-credential på nytt i n8n och kör sedan en test-URL för att bekräfta att steget “Email CSV Report” kan skicka bilagor. Om din inkorg har striktare säkerhetsinställningar kan du även behöva tillåta appanslutningen i inställningarna för ditt Google-konto.
Några hundra URL:er per månad är realistiskt i de flesta upplägg, och egen hosting kan skala längre om din server klarar belastningen.
Ofta ja, eftersom den här typen av arbetsflöde gynnas av flexibel parsning, sortering och filbyggande på ett ställe. Zapier och Make kan göra delar av det, men skrapning + HTML-parsning + sortering kan bli krångligt (och dyrt) när du går bortom enkla tvåstegs-zaps. n8n ger dig också möjligheten till egen hosting, vilket spelar roll om du kör många URL:er eller vill ha färre plattformsbegränsningar. Om du bara behöver ett grundläggande “ny rad → skicka mejl”-flöde fungerar Zapier bra. Prata med en automationsexpert om du vill ha en snabb rekommendation för din exakta volym.
När detta väl rullar blir “bygg rapporten” till “lägg till URL:en”. Arbetsflödet tar hand om de repetitiva delarna så att du kan lägga tiden på besluten som rapporten faktiskt ska stödja.
Kontakta oss
Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.