Behöver ert företag hjälp med att implementera AI? Kontakta oss och få prisoffert här →
AI Skolan
januari 22, 2026

Dumpling AI till Google Sheets: bloggaudits klara

Rickard Andersson Partner, Nodenordic.se

Manuella blogggranskningar är den värsta sortens ”viktigt arbete”. Du öppnar en webbplats, klickar runt, kopierar en URL, klistrar in den i ett kalkylark, hämtar sedan sidtext och inser att du missade fem inlägg och att dina flikar nu är totalt kaos.

Innehållsstrateger känner av det här när de bygger en innehållsplan. SEO-specialister stöter på det under tekniska granskningar och innehållsgranskningar. Och byråer som försöker onboarda nya kunder snabbt hamnar oftast i samma rutin: crawl-och-kopiera. Den här automatiseringen med Dumpling AI Sheets gör om röran till ett strukturerat kalkylark i ett enda körningstillfälle.

Du får se hur arbetsflödet crawlar en webbplats, behåller bara blogg-liknande URL:er, skrapar sidtexten och lägger till allt i Google Sheets så att du kan planera och prioritera snabbare.

Så här fungerar automatiseringen

Hela n8n-arbetsflödet, från trigger till slutresultat:

n8n Workflow Template: Dumpling AI till Google Sheets: bloggaudits klara

Problemet: blogggranskningar blir flikhoppande och copy-paste

En ”snabb innehållsgranskning” låter enkel tills du gör den mer än en gång. Du måste hitta varje blogginlägg (och inte blanda ihop dem med kategorisidor), kopiera URL:en, hämta tillräckligt med text för att förstå vad inlägget handlar om och sedan hålla allt organiserat så att du kan sortera och filtrera senare. Ett missat inlägg ändrar dina slutsatser. En felaktig inklistring flyttar rader och förstör i tysthet dina anteckningar. Efter en timme tänker du inte längre på strategi. Du försöker bara hålla kalkylarket strukturerat.

Det drar snabbt iväg. Och friktionen blir ännu större när du granskar flera kunders webbplatser under en vecka.

  • Du lägger cirka 2 timmar per webbplats bara på att samla URL:er och grovt sidinnehåll innan analysen ens börjar.
  • Inlägg missas när de ligger under lite andra sökvägar, så granskningen ser ”komplett” ut men är det inte.
  • Att klistra in textstycken i Sheets skapar trasiga rader, konstig formatering och oavsiktliga överskrivningar.
  • Team kan inte upprepa processen konsekvent, vilket gör granskningar svåra att jämföra månad för månad.

Lösningen: crawla, filtrera bloggens URL:er, skrapa text och logga till Sheets

Det här arbetsflödet ersätter den manuella loopen ”öppna webbplatsen, leta upp inlägg, kopiera till ett kalkylark” med en enda inmatning och ett strukturerat resultat. Det startar när en kund (eller någon i ditt team) skickar in en webbplats-URL via en n8n-formulärtrigger. n8n skapar direkt ett nytt Google Sheet som namnges efter webbplatsen och skriver sedan en rubrikrad så att datan förblir strukturerad. Därefter crawlar Dumpling AI webbplatsen för att hitta interna sidor (crawldjup/gräns är som standard satt till cirka 10 sidor). När URL:erna kommer tillbaka filtrerar arbetsflödet ner dem till bloggliknande sökvägar som /blog/, /articles/ eller /posts/. Till sist skrapar det texten på varje bloggsida och lägger till rader i Google Sheets med URL, crawlad sida och webbplatsens innehåll.

Arbetsflödet startar med en enkel formulärinmatning. Sedan sköter Dumpling AI upptäckt och skrapning medan n8n rensar och mappar fälten. Du får ett Google Sheet som du kan sortera, tagga och göra om till en leveransbar granskning.

Vad du får: automatisering vs. resultat

Exempel: så här ser det ut

Säg att du granskar en kundwebbplats med runt 30 blogginlägg. Manuellt kanske du lägger cirka 3 minuter per inlägg på att hitta det, kopiera URL:en och hämta tillräckligt med text för att förstå ämnet, vilket blir ungefär 90 minuter. Lägg till uppsättning och städning i Sheets så är du nära 2 timmar. Med det här arbetsflödet skickar du in URL:en (cirka 2 minuter) och låter sedan crawl och skrapning köra (ofta 10–20 minuter beroende på webbplats). Ditt ark är redo att granskas, redan strukturerat.

Det du behöver

  • n8n-instans (prova n8n Cloud gratis)
  • Alternativ för egen hosting om du föredrar det (Hostinger fungerar bra)
  • Dumpling AI för att crawla och skrapa webbplatssidor
  • Google Sheets för att lagra granskningar i ett delat kalkylark
  • Dumpling AI API-nyckel (hämta den i din Dumpling AI-dashboard)

Kunskapsnivå: Medel. Du kopplar konton, lägger in en API-nyckel och justerar ett par filter om webbplatsens struktur är ovanlig.

Vill du inte sätta upp detta själv? Prata med en automationspecialist (gratis 15-minuters konsultation).

Så fungerar det

En webbplats-URL skickas in. Arbetsflödet börjar med en inkommande formulärtrigger som fångar webbplatsen du vill granska. En inmatning. Det är allt.

Ett strukturerat granskningsark skapas. n8n skapar ett nytt Google Sheet och lägger in rubriker som URL, crawlad sida och webbplatsens innehåll, så att du inte börjar med ett tomt dokument (eller en rörig kopia av en gammal mall).

Dumpling AI crawlar, och sedan behåller arbetsflödet bara bloggsidor. Crawlen hittar interna URL:er och ett filtreringssteg smalnar av listan till vanliga bloggmönster som /blog/ eller /articles/. Om din webbplats använder något annat kan du justera mönstren.

Varje inlägg skrapas och skrivs till Sheets. Dumpling AI hämtar sidtexten, n8n mappar den till radfält och lägger sedan till resultaten så att ditt granskningsark fylls på automatiskt när sidorna bearbetas.

Du kan enkelt ändra URL-mönstren så att de matchar ditt CMS och dina namngivningskonventioner utifrån dina behov. Se hela implementationsguiden nedan för anpassningsalternativ.

Steg-för-steg-guide för implementering

Steg 1: konfigurera formulärtriggern

Konfigurera det inkommande formuläret som startar arbetsflödet och fångar klientens URL som används i alla efterföljande steg.

  1. Lägg till noden Inbound Form Trigger.
  2. Ställ in Form Titleblog content strategy.
  3. Under Form Fields lägger ni till ett fält med Field Label satt till Client URL och aktiverar Required Field.

Steg 2: anslut Google Sheets

Skapa ett dedikerat kalkylark för varje granskning och förbered det för att skriva rubriker och lägga till rader.

  1. Lägg till noden Generate Audit Spreadsheet och ställ in Resourcespreadsheet.
  2. Ställ in Title till uttrycket ={{ $json["Client URL"].trim().split(/›|>|»/)[0].trim().split(".")[0] }}.
  3. I Sheets UI ställer ni in bladets titel till Blog content audit.
  4. Inloggningsuppgifter krävs: anslut era googleSheetsOAuth2Api-inloggningsuppgifter i Generate Audit Spreadsheet.

Steg 3: konfigurera rubrikförberedelse

Definiera kolumnerna i arket och konvertera dem till en array som kan skrivas till Google Sheets.

  1. Lägg till noden Assign Sheet Columns och ställ in ett strängfält med namnet rows till Url,Crawled_pages,website_content.
  2. Lägg till noden Structure Header Array och behåll den angivna koden som bygger data från $json.rows.
  3. Koppla Assign Sheet ColumnsStructure Header ArrayWrite Headers to Sheet.
  4. I Write Headers to Sheet ställer ni in URL till =https://sheets.googleapis.com/v4/spreadsheets/{{ $('Generate Audit Spreadsheet').first().json.spreadsheetId }}/values/{{ $('Generate Audit Spreadsheet').first().json.sheets[0].properties.title }}!A:Z.
  5. Ställ in MethodPUT och aktivera Send Body och Send Query.
  6. Ställ in body-parametern range till ={{ $('Generate Audit Spreadsheet').first().json.sheets[0].properties.title }}!A:Z och values till ={{ $json.data }}.
  7. Ställ in query-parametern valueInputOption till RAW.
  8. Inloggningsuppgifter krävs: anslut era googleSheetsOAuth2Api-inloggningsuppgifter i Write Headers to Sheet.

⚠️ Vanlig fallgrop: Om Generate Audit Spreadsheet inte körs först kommer URL-uttrycket i Write Headers to Sheet att misslyckas eftersom kalkylarks-ID saknas.

Steg 4: konfigurera Dumpling crawl- och scrape-anropen

Skicka klientens URL till Dumpling för crawling, ta fram blogglänkar och skrapa sedan varje blogg-URL.

  1. Lägg till Dumpling Crawl Request och ställ in URL till https://app.dumplingai.com/api/v1/crawl med Method POST.
  2. Aktivera Send Body och lägg till body-parametrarna: url = ={{ $('Inbound Form Trigger').item.json["Client URL"] }}, limit = =10.
  3. Inloggningsuppgifter krävs: anslut era httpHeaderAuth-inloggningsuppgifter i Dumpling Crawl Request.
  4. Lägg till Derive Blog Links och behåll den angivna JavaScript-koden för att extrahera blogg-URL:er.
  5. Lägg till Dumpling Scrape Request med URL https://app.dumplingai.com/api/v1/scrape och Method POST.
  6. Ställ in body-parametern url till ={{ $json.blogUrl }}.
  7. Inloggningsuppgifter krävs: anslut era httpHeaderAuth-inloggningsuppgifter i Dumpling Scrape Request.

Behåll koden i Derive Blog Links som den är för att säkerställa att URL:er avdupliceras och filtreras utifrån bloggspecifika mönster.

Steg 5: konfigurera utdata till Sheets

Mappa de skrapade resultaten till en rad-payload och lägg till datan i det genererade kalkylarket.

  1. Lägg till Map Row Payload och ställ in fälten: Url = ={{ $('Inbound Form Trigger').item.json["Client URL"] }}, Crawled_pages = ={{ $('Derive Blog Links').item.json.blogUrl }}, website_content = ={{ $json.content }}.
  2. Lägg till Append Rows to Sheets med Operation satt till append.
  3. Ställ in Sheet Name (ID-läge) till ={{ $('Generate Audit Spreadsheet').item.json.sheets[0].properties.sheetId }}.
  4. Ställ in Document ID (URL-läge) till ={{ $('Generate Audit Spreadsheet').item.json.spreadsheetUrl }}.
  5. Inloggningsuppgifter krävs: anslut era googleSheetsOAuth2Api-inloggningsuppgifter i Append Rows to Sheets.

Sista steget: testa och aktivera ert arbetsflöde

Verifiera körningen från start till mål och aktivera arbetsflödet för skarp användning.

  1. Klicka på Execute Workflow och skicka in ett testvärde i Inbound Form Trigger för Client URL.
  2. Bekräfta att ett nytt kalkylark skapas av Generate Audit Spreadsheet och att rubriker skrivs av Write Headers to Sheet.
  3. Verifiera att Dumpling Crawl Request och Dumpling Scrape Request returnerar innehåll och att Append Rows to Sheets lägger till rader för varje blogg-URL.
  4. När det fungerar växlar ni arbetsflödet till Active för att ta emot formulärinskick i produktion.
🔒

Lås upp fullständig steg-för-steg-guide

Få den kompletta implementeringsguiden + nedladdningsbar mall

Vanliga fallgropar

  • Dumpling AI-autentiseringsuppgifter kan löpa ut eller kräva specifika behörigheter. Om något skapar fel, kontrollera först status för din API-nyckel i Dumpling AI-dashboarden.
  • Om du använder Wait-noder eller extern rendering varierar bearbetningstiderna. Öka väntetiden om nedströmsnoder misslyckas på tomma svar.
  • Åtkomst till Google Sheets misslyckas ofta för att det anslutna kontot saknar skrivbehörighet i målets Drive. Bekräfta Google-anslutningen i n8n och testa genom att skapa ett kalkylark manuellt med samma konto.

Vanliga frågor

Hur lång tid tar det att sätta upp den här Dumpling AI Sheets-automationen?

Cirka 30 minuter om dina konton och din API-nyckel är redo.

Behöver jag kunna koda för att automatisera blogggranskningar med Dumpling AI Sheets?

Nej. Du kommer främst att koppla konton och klistra in din Dumpling AI API-nyckel. Den enda ”tekniska” delen är att justera mönstren för blogg-URL:er om webbplatsen använder en anpassad struktur.

Är n8n gratis att använda för det här Dumpling AI Sheets-arbetsflödet?

Ja. n8n har ett gratis alternativ för egen hosting och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna in kostnader för Dumpling AI-användning, som beror på crawl- och skrapvolym.

Var kan jag hosta n8n för att köra den här automationslösningen?

Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller egen hosting på en VPS. För egen hosting är Hostinger VPS prisvärd och hanterar n8n bra. Egen hosting ger dig obegränsade körningar men kräver grundläggande serveradministration.

Kan jag anpassa det här Dumpling AI Sheets-arbetsflödet för en webbplats som inte använder /blog/-URL:er?

Ja, och det bör du sannolikt göra om webbplatsen använder en annan struktur. Uppdatera mönstren i steget ”Derive Blog Links” så att det matchar sökvägar som /news/, /insights/ eller vad CMS:et nu använder. Du kan också sänka eller höja crawl-gränsen i Dumpling crawl request-noden beroende på hur stor webbplatsen är. Om webbplatsen har flera språk, lägg till ytterligare ett filter så att du bara behåller den språkvariant du bryr dig om.

Varför misslyckas min Google Sheets-anslutning i det här arbetsflödet?

Oftast är det behörigheter. Google-kontot som är anslutet i n8n måste kunna skapa och redigera Sheets i målets Drive, inte bara visa dem. Anslut Google Sheets på nytt i n8n, kör sedan arbetsflödet igen och följ stegen ”Generate Audit Spreadsheet” och ”Append Rows” efter ett specifikt felmeddelande. Om du arbetar i en Workspace kan en administratörspolicy också blockera appåtkomst tills den godkänns.

Hur många sidor kan den här Dumpling AI Sheets-automationen hantera?

Det beror på din crawl-gräns och din n8n-plan. Det här arbetsflödet är inställt på att crawla cirka 10 sidor som standard, men du kan höja det för större webbplatser. På n8n Cloud spelar din månatliga körningskvot roll; om du kör egen hosting finns ingen körningsgräns, men dina serverresurser och Dumpling AI-begränsningar gäller fortfarande.

Är den här Dumpling AI Sheets-automationen bättre än att använda Zapier eller Make?

Ofta, ja. n8n hanterar förgreningar, kodbaserad filtrering och arbetsflöden i stil med ”loopa över objekt” för skrapning mer naturligt, och du kan köra egen hosting om du vill göra många granskningar utan att oroa dig för prissättning per uppgift. Zapier och Make kan göra delar av detta, men crawl i flera steg plus regex-filtrering plus rad-för-rad-tillägg kan bli dyrt och pilligt. Den andra stora skillnaden är kontroll: i n8n kan du se, inspektera och ändra varje steg när en webbplats beter sig märkligt. Om du är osäker, prata med en automationspecialist och få en rak rekommendation utifrån din volym och budget.

När detta väl rullar börjar din ”granskning” med en länk och slutar med ett kalkylark som går att använda. Det är faktiskt skillnaden mellan att jobba med innehållsstrategi och att fastna i kalkylarkssysslor.

Kontakta oss

Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.

×

Använd mall

Få direkt tillgång till denna n8n-arbetsflödes JSON-fil

Launch login modal Launch register modal