Manuella blogggranskningar är den värsta sortens ”viktigt arbete”. Du öppnar en webbplats, klickar runt, kopierar en URL, klistrar in den i ett kalkylark, hämtar sedan sidtext och inser att du missade fem inlägg och att dina flikar nu är totalt kaos.
Innehållsstrateger känner av det här när de bygger en innehållsplan. SEO-specialister stöter på det under tekniska granskningar och innehållsgranskningar. Och byråer som försöker onboarda nya kunder snabbt hamnar oftast i samma rutin: crawl-och-kopiera. Den här automatiseringen med Dumpling AI Sheets gör om röran till ett strukturerat kalkylark i ett enda körningstillfälle.
Du får se hur arbetsflödet crawlar en webbplats, behåller bara blogg-liknande URL:er, skrapar sidtexten och lägger till allt i Google Sheets så att du kan planera och prioritera snabbare.
Så här fungerar automatiseringen
Hela n8n-arbetsflödet, från trigger till slutresultat:
n8n Workflow Template: Dumpling AI till Google Sheets: bloggaudits klara
flowchart LR
subgraph sg0["Form Submission Flow"]
direction LR
n0["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/form.svg' width='40' height='40' /></div><br/>Form Submission "]
n1@{ icon: "mdi:database", form: "rounded", label: "Create Blog Audit Sheet", pos: "b", h: 48 }
n2@{ icon: "mdi:swap-vertical", form: "rounded", label: "Set Sheet Headers", pos: "b", h: 48 }
n3["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/code.svg' width='40' height='40' /></div><br/>Format Header Row"]
n4["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/httprequest.dark.svg' width='40' height='40' /></div><br/>Insert Headers into Sheet"]
n5["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/httprequest.dark.svg' width='40' height='40' /></div><br/>Dumpling AI: Crawl Website"]
n6["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/code.svg' width='40' height='40' /></div><br/>Extract Blog URLs"]
n7["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/httprequest.dark.svg' width='40' height='40' /></div><br/>Dumpling AI: Scrape Blog Pages"]
n8@{ icon: "mdi:swap-vertical", form: "rounded", label: "Prepare Row Data", pos: "b", h: 48 }
n9@{ icon: "mdi:database", form: "rounded", label: "Save Blog Data to Google She..", pos: "b", h: 48 }
n0 --> n1
n8 --> n9
n6 --> n7
n3 --> n4
n2 --> n3
n1 --> n2
n4 --> n5
n5 --> n6
n7 --> n8
end
%% Styling
classDef trigger fill:#e8f5e9,stroke:#388e3c,stroke-width:2px
classDef ai fill:#e3f2fd,stroke:#1976d2,stroke-width:2px
classDef aiModel fill:#e8eaf6,stroke:#3f51b5,stroke-width:2px
classDef decision fill:#fff8e1,stroke:#f9a825,stroke-width:2px
classDef database fill:#fce4ec,stroke:#c2185b,stroke-width:2px
classDef api fill:#fff3e0,stroke:#e65100,stroke-width:2px
classDef code fill:#f3e5f5,stroke:#7b1fa2,stroke-width:2px
classDef disabled stroke-dasharray: 5 5,opacity: 0.5
class n0 trigger
class n1,n9 database
class n4,n5,n7 api
class n3,n6 code
classDef customIcon fill:none,stroke:none
class n0,n3,n4,n5,n6,n7 customIcon
Problemet: blogggranskningar blir flikhoppande och copy-paste
En ”snabb innehållsgranskning” låter enkel tills du gör den mer än en gång. Du måste hitta varje blogginlägg (och inte blanda ihop dem med kategorisidor), kopiera URL:en, hämta tillräckligt med text för att förstå vad inlägget handlar om och sedan hålla allt organiserat så att du kan sortera och filtrera senare. Ett missat inlägg ändrar dina slutsatser. En felaktig inklistring flyttar rader och förstör i tysthet dina anteckningar. Efter en timme tänker du inte längre på strategi. Du försöker bara hålla kalkylarket strukturerat.
Det drar snabbt iväg. Och friktionen blir ännu större när du granskar flera kunders webbplatser under en vecka.
- Du lägger cirka 2 timmar per webbplats bara på att samla URL:er och grovt sidinnehåll innan analysen ens börjar.
- Inlägg missas när de ligger under lite andra sökvägar, så granskningen ser ”komplett” ut men är det inte.
- Att klistra in textstycken i Sheets skapar trasiga rader, konstig formatering och oavsiktliga överskrivningar.
- Team kan inte upprepa processen konsekvent, vilket gör granskningar svåra att jämföra månad för månad.
Lösningen: crawla, filtrera bloggens URL:er, skrapa text och logga till Sheets
Det här arbetsflödet ersätter den manuella loopen ”öppna webbplatsen, leta upp inlägg, kopiera till ett kalkylark” med en enda inmatning och ett strukturerat resultat. Det startar när en kund (eller någon i ditt team) skickar in en webbplats-URL via en n8n-formulärtrigger. n8n skapar direkt ett nytt Google Sheet som namnges efter webbplatsen och skriver sedan en rubrikrad så att datan förblir strukturerad. Därefter crawlar Dumpling AI webbplatsen för att hitta interna sidor (crawldjup/gräns är som standard satt till cirka 10 sidor). När URL:erna kommer tillbaka filtrerar arbetsflödet ner dem till bloggliknande sökvägar som /blog/, /articles/ eller /posts/. Till sist skrapar det texten på varje bloggsida och lägger till rader i Google Sheets med URL, crawlad sida och webbplatsens innehåll.
Arbetsflödet startar med en enkel formulärinmatning. Sedan sköter Dumpling AI upptäckt och skrapning medan n8n rensar och mappar fälten. Du får ett Google Sheet som du kan sortera, tagga och göra om till en leveransbar granskning.
Vad du får: automatisering vs. resultat
| Vad det här arbetsflödet automatiserar | Resultat du får |
|---|---|
|
|
Exempel: så här ser det ut
Säg att du granskar en kundwebbplats med runt 30 blogginlägg. Manuellt kanske du lägger cirka 3 minuter per inlägg på att hitta det, kopiera URL:en och hämta tillräckligt med text för att förstå ämnet, vilket blir ungefär 90 minuter. Lägg till uppsättning och städning i Sheets så är du nära 2 timmar. Med det här arbetsflödet skickar du in URL:en (cirka 2 minuter) och låter sedan crawl och skrapning köra (ofta 10–20 minuter beroende på webbplats). Ditt ark är redo att granskas, redan strukturerat.
Det du behöver
- n8n-instans (prova n8n Cloud gratis)
- Alternativ för egen hosting om du föredrar det (Hostinger fungerar bra)
- Dumpling AI för att crawla och skrapa webbplatssidor
- Google Sheets för att lagra granskningar i ett delat kalkylark
- Dumpling AI API-nyckel (hämta den i din Dumpling AI-dashboard)
Kunskapsnivå: Medel. Du kopplar konton, lägger in en API-nyckel och justerar ett par filter om webbplatsens struktur är ovanlig.
Vill du inte sätta upp detta själv? Prata med en automationspecialist (gratis 15-minuters konsultation).
Så fungerar det
En webbplats-URL skickas in. Arbetsflödet börjar med en inkommande formulärtrigger som fångar webbplatsen du vill granska. En inmatning. Det är allt.
Ett strukturerat granskningsark skapas. n8n skapar ett nytt Google Sheet och lägger in rubriker som URL, crawlad sida och webbplatsens innehåll, så att du inte börjar med ett tomt dokument (eller en rörig kopia av en gammal mall).
Dumpling AI crawlar, och sedan behåller arbetsflödet bara bloggsidor. Crawlen hittar interna URL:er och ett filtreringssteg smalnar av listan till vanliga bloggmönster som /blog/ eller /articles/. Om din webbplats använder något annat kan du justera mönstren.
Varje inlägg skrapas och skrivs till Sheets. Dumpling AI hämtar sidtexten, n8n mappar den till radfält och lägger sedan till resultaten så att ditt granskningsark fylls på automatiskt när sidorna bearbetas.
Du kan enkelt ändra URL-mönstren så att de matchar ditt CMS och dina namngivningskonventioner utifrån dina behov. Se hela implementationsguiden nedan för anpassningsalternativ.
Steg-för-steg-guide för implementering
Steg 1: konfigurera formulärtriggern
Konfigurera det inkommande formuläret som startar arbetsflödet och fångar klientens URL som används i alla efterföljande steg.
- Lägg till noden Inbound Form Trigger.
- Ställ in Form Title på
blog content strategy. - Under Form Fields lägger ni till ett fält med Field Label satt till
Client URLoch aktiverar Required Field.
Steg 2: anslut Google Sheets
Skapa ett dedikerat kalkylark för varje granskning och förbered det för att skriva rubriker och lägga till rader.
- Lägg till noden Generate Audit Spreadsheet och ställ in Resource på
spreadsheet. - Ställ in Title till uttrycket
={{ $json["Client URL"].trim().split(/›|>|»/)[0].trim().split(".")[0] }}. - I Sheets UI ställer ni in bladets titel till
Blog content audit. - Inloggningsuppgifter krävs: anslut era googleSheetsOAuth2Api-inloggningsuppgifter i Generate Audit Spreadsheet.
Steg 3: konfigurera rubrikförberedelse
Definiera kolumnerna i arket och konvertera dem till en array som kan skrivas till Google Sheets.
- Lägg till noden Assign Sheet Columns och ställ in ett strängfält med namnet rows till
Url,Crawled_pages,website_content. - Lägg till noden Structure Header Array och behåll den angivna koden som bygger
datafrån$json.rows. - Koppla Assign Sheet Columns → Structure Header Array → Write Headers to Sheet.
- I Write Headers to Sheet ställer ni in URL till
=https://sheets.googleapis.com/v4/spreadsheets/{{ $('Generate Audit Spreadsheet').first().json.spreadsheetId }}/values/{{ $('Generate Audit Spreadsheet').first().json.sheets[0].properties.title }}!A:Z. - Ställ in Method på
PUToch aktivera Send Body och Send Query. - Ställ in body-parametern range till
={{ $('Generate Audit Spreadsheet').first().json.sheets[0].properties.title }}!A:Zoch values till={{ $json.data }}. - Ställ in query-parametern valueInputOption till
RAW. - Inloggningsuppgifter krävs: anslut era googleSheetsOAuth2Api-inloggningsuppgifter i Write Headers to Sheet.
Steg 4: konfigurera Dumpling crawl- och scrape-anropen
Skicka klientens URL till Dumpling för crawling, ta fram blogglänkar och skrapa sedan varje blogg-URL.
- Lägg till Dumpling Crawl Request och ställ in URL till
https://app.dumplingai.com/api/v1/crawlmed MethodPOST. - Aktivera Send Body och lägg till body-parametrarna: url =
={{ $('Inbound Form Trigger').item.json["Client URL"] }}, limit ==10. - Inloggningsuppgifter krävs: anslut era httpHeaderAuth-inloggningsuppgifter i Dumpling Crawl Request.
- Lägg till Derive Blog Links och behåll den angivna JavaScript-koden för att extrahera blogg-URL:er.
- Lägg till Dumpling Scrape Request med URL
https://app.dumplingai.com/api/v1/scrapeoch MethodPOST. - Ställ in body-parametern url till
={{ $json.blogUrl }}. - Inloggningsuppgifter krävs: anslut era httpHeaderAuth-inloggningsuppgifter i Dumpling Scrape Request.
Steg 5: konfigurera utdata till Sheets
Mappa de skrapade resultaten till en rad-payload och lägg till datan i det genererade kalkylarket.
- Lägg till Map Row Payload och ställ in fälten: Url =
={{ $('Inbound Form Trigger').item.json["Client URL"] }}, Crawled_pages =={{ $('Derive Blog Links').item.json.blogUrl }}, website_content =={{ $json.content }}. - Lägg till Append Rows to Sheets med Operation satt till
append. - Ställ in Sheet Name (ID-läge) till
={{ $('Generate Audit Spreadsheet').item.json.sheets[0].properties.sheetId }}. - Ställ in Document ID (URL-läge) till
={{ $('Generate Audit Spreadsheet').item.json.spreadsheetUrl }}. - Inloggningsuppgifter krävs: anslut era googleSheetsOAuth2Api-inloggningsuppgifter i Append Rows to Sheets.
Sista steget: testa och aktivera ert arbetsflöde
Verifiera körningen från start till mål och aktivera arbetsflödet för skarp användning.
- Klicka på Execute Workflow och skicka in ett testvärde i Inbound Form Trigger för
Client URL. - Bekräfta att ett nytt kalkylark skapas av Generate Audit Spreadsheet och att rubriker skrivs av Write Headers to Sheet.
- Verifiera att Dumpling Crawl Request och Dumpling Scrape Request returnerar innehåll och att Append Rows to Sheets lägger till rader för varje blogg-URL.
- När det fungerar växlar ni arbetsflödet till Active för att ta emot formulärinskick i produktion.
Vanliga fallgropar
- Dumpling AI-autentiseringsuppgifter kan löpa ut eller kräva specifika behörigheter. Om något skapar fel, kontrollera först status för din API-nyckel i Dumpling AI-dashboarden.
- Om du använder Wait-noder eller extern rendering varierar bearbetningstiderna. Öka väntetiden om nedströmsnoder misslyckas på tomma svar.
- Åtkomst till Google Sheets misslyckas ofta för att det anslutna kontot saknar skrivbehörighet i målets Drive. Bekräfta Google-anslutningen i n8n och testa genom att skapa ett kalkylark manuellt med samma konto.
Vanliga frågor
Cirka 30 minuter om dina konton och din API-nyckel är redo.
Nej. Du kommer främst att koppla konton och klistra in din Dumpling AI API-nyckel. Den enda ”tekniska” delen är att justera mönstren för blogg-URL:er om webbplatsen använder en anpassad struktur.
Ja. n8n har ett gratis alternativ för egen hosting och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna in kostnader för Dumpling AI-användning, som beror på crawl- och skrapvolym.
Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller egen hosting på en VPS. För egen hosting är Hostinger VPS prisvärd och hanterar n8n bra. Egen hosting ger dig obegränsade körningar men kräver grundläggande serveradministration.
Ja, och det bör du sannolikt göra om webbplatsen använder en annan struktur. Uppdatera mönstren i steget ”Derive Blog Links” så att det matchar sökvägar som /news/, /insights/ eller vad CMS:et nu använder. Du kan också sänka eller höja crawl-gränsen i Dumpling crawl request-noden beroende på hur stor webbplatsen är. Om webbplatsen har flera språk, lägg till ytterligare ett filter så att du bara behåller den språkvariant du bryr dig om.
Oftast är det behörigheter. Google-kontot som är anslutet i n8n måste kunna skapa och redigera Sheets i målets Drive, inte bara visa dem. Anslut Google Sheets på nytt i n8n, kör sedan arbetsflödet igen och följ stegen ”Generate Audit Spreadsheet” och ”Append Rows” efter ett specifikt felmeddelande. Om du arbetar i en Workspace kan en administratörspolicy också blockera appåtkomst tills den godkänns.
Det beror på din crawl-gräns och din n8n-plan. Det här arbetsflödet är inställt på att crawla cirka 10 sidor som standard, men du kan höja det för större webbplatser. På n8n Cloud spelar din månatliga körningskvot roll; om du kör egen hosting finns ingen körningsgräns, men dina serverresurser och Dumpling AI-begränsningar gäller fortfarande.
Ofta, ja. n8n hanterar förgreningar, kodbaserad filtrering och arbetsflöden i stil med ”loopa över objekt” för skrapning mer naturligt, och du kan köra egen hosting om du vill göra många granskningar utan att oroa dig för prissättning per uppgift. Zapier och Make kan göra delar av detta, men crawl i flera steg plus regex-filtrering plus rad-för-rad-tillägg kan bli dyrt och pilligt. Den andra stora skillnaden är kontroll: i n8n kan du se, inspektera och ändra varje steg när en webbplats beter sig märkligt. Om du är osäker, prata med en automationspecialist och få en rak rekommendation utifrån din volym och budget.
När detta väl rullar börjar din ”granskning” med en länk och slutar med ett kalkylark som går att använda. Det är faktiskt skillnaden mellan att jobba med innehållsstrategi och att fastna i kalkylarkssysslor.
Kontakta oss
Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.