Att kopiera delar av en webbsida in i ett kalkylark låter enkelt. Sedan ändras sidlayouten, de ”viktiga” detaljerna göms undan och ditt team sitter plötsligt med fem olika versioner av samma ”sammanfattning”.
Den här Decodo Sheets-automationen slår hårt mot HR– och compliance-team, eftersom ni behöver konsekventa fält. Men researchers och drift-/ops-personer känner av det också när de ska göra länkar till användbara anteckningar och rapporter.
Du sätter upp ett workflow som tar valfri offentlig URL, extraherar strukturerad data, skapar en strukturerad, faktabaserad sammanfattning och loggar allt i Google Sheets så att du kan sortera, filtrera och återanvända det.
Så här fungerar den här automationen
Här är hela workflowet du kommer att sätta upp:
n8n Workflow Template: Decodo + Google Sheets: strukturerade URL-sammanfattningar
flowchart LR
subgraph sg0["When clicking ‘Execute workflow’ Flow"]
direction LR
n0@{ icon: "mdi:play-circle", form: "rounded", label: "When clicking ‘Execute workf..", pos: "b", h: 48 }
n1@{ icon: "mdi:cog", form: "rounded", label: "Decodo", pos: "b", h: 48 }
n2@{ icon: "mdi:swap-vertical", form: "rounded", label: "Set the Input Fields", pos: "b", h: 48 }
n3@{ icon: "mdi:robot", form: "rounded", label: "Structured Data Extractor", pos: "b", h: 48 }
n4["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/code.svg' width='40' height='40' /></div><br/>Extract the JSON"]
n5@{ icon: "mdi:robot", form: "rounded", label: "Summarize Content", pos: "b", h: 48 }
n6["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/merge.svg' width='40' height='40' /></div><br/>Merge"]
n7@{ icon: "mdi:database", form: "rounded", label: "Append or update row in sheet", pos: "b", h: 48 }
n8@{ icon: "mdi:brain", form: "rounded", label: "Google Gemini Chat Model for..", pos: "b", h: 48 }
n9@{ icon: "mdi:brain", form: "rounded", label: "Google Gemini Chat Model for..", pos: "b", h: 48 }
n6 --> n7
n1 --> n3
n1 --> n5
n4 --> n6
n5 --> n6
n2 --> n1
n3 --> n4
n8 -.-> n5
n0 --> n2
n9 -.-> n3
end
%% Styling
classDef trigger fill:#e8f5e9,stroke:#388e3c,stroke-width:2px
classDef ai fill:#e3f2fd,stroke:#1976d2,stroke-width:2px
classDef aiModel fill:#e8eaf6,stroke:#3f51b5,stroke-width:2px
classDef decision fill:#fff8e1,stroke:#f9a825,stroke-width:2px
classDef database fill:#fce4ec,stroke:#c2185b,stroke-width:2px
classDef api fill:#fff3e0,stroke:#e65100,stroke-width:2px
classDef code fill:#f3e5f5,stroke:#7b1fa2,stroke-width:2px
classDef disabled stroke-dasharray: 5 5,opacity: 0.5
class n0 trigger
class n3,n5 ai
class n8,n9 aiModel
class n7 database
class n4 code
classDef customIcon fill:none,stroke:none
class n4,n6 customIcon
Varför det här spelar roll: gör röriga sidor till användbara poster
Webbsidor är skrivna för människor, inte för ditt kalkylark. En sida har en prydlig ”Om”-sektion, en annan gömmer nyckeldetaljer i en sidopanel och en tredje laddar innehåll dynamiskt så att du råkar kopiera fel. Efter en vecka av länkinsamling blir ditt ark en hög med halvifyllda rader, inkonsekventa benämningar och anteckningar som ”TODO: sammanfatta senare” som aldrig blir klara. Det värsta är den mentala belastningen. Du kan inte lita på datan, så du dubbelkollar allt, vilket gör att jobbet du redan gjort ändå inte är ”klart”.
Friktionen byggs på. Här är var det brukar falla isär.
- Två personer tolkar samma sida olika, så era ”strukturerade fält” slutar vara strukturerade.
- Manuell copy-paste glider över i fel, särskilt med namn, datum och rolltitlar.
- När du behöver återanvända informationen senare slösar du runt 2 timmar på att läsa om original-länkarna.
- Enkla scrapers kan hämta text, men de levererar inte korrekt formaterad JSON plus en användbar sammanfattning för beslutsfattare.
Det du bygger: URL-till-Sheets-extraktion med strukturerad JSON + sammanfattningar
Det här workflowet tar en offentlig URL och gör om den till något verksamheten faktiskt kan använda. Du startar det manuellt (eller anpassar det senare till webhook/schemalagda körningar), och skickar URL:en till Decodo för att scrapa sidinnehållet pålitligt. Därifrån skapar ett AI-steg två leveranser parallellt: ett strukturerat JSON-objekt som matchar ditt schema och en kort, faktabaserad sammanfattning som känns som en chefsanteckning i stället för en vägg av text. Ett litet parsningsteg städar upp den AI-genererade JSON:en så att den inte skapar fel i efterföljande steg. Till sist slår workflowet ihop de strukturerade fälten och sammanfattningen och skriver en ny rad (eller uppdaterar en befintlig) i Google Sheets.
Workflowet börjar med din URL-input. Decodo samlar in sidinnehållet, sedan extraherar AI-modellerna fält och genererar sammanfattningen. Google Sheets blir ert system of record, så datan är sökbar och redo för rapportering.
Det du bygger
| Det som automatiseras | Det du uppnår |
|---|---|
|
|
Förväntade resultat
Säg att du granskar 20 länkar i veckan för rekrytering, compliance eller konkurrensanalys. Manuellt är det lätt att lägga cirka 10 minuter per länk på att läsa, kopiera och formatera, plus ytterligare några minuter på att skriva en sammanfattning, vilket landar runt 4 timmar per vecka. Med det här workflowet: du klistrar in URL:en en gång, väntar på bearbetningen och raden hamnar i Google Sheets med strukturerade fält och en strukturerad, faktabaserad sammanfattning. Din aktiva tid sjunker till ungefär 20 minuter för hela batchen, och arket förblir konsekvent.
Innan du börjar
- n8n-instans (testa n8n Cloud gratis)
- Alternativ för self-hosting om du föredrar det (Hostinger funkar bra)
- Decodo för att scrapa offentliga webbsidor pålitligt
- Google Sheets för att lagra rader för rapportering
- Decodo API-uppgifter (hämta Basic Auth-token i Decodo Dashboard)
Svårighetsnivå: Medel. Du kopplar några inloggningar och kan justera prompts, men du skriver ingen egen scraper.
Vill du att någon bygger detta åt dig? Prata med en automationsexpert (gratis 15-minuters konsultation).
Steg för steg
Du anger en URL. Workflowet startar från en manuell starttrigger och mappar sedan din inmatade URL till de fält resten av workflowet förväntar sig.
Decodo scrapar sidinnehållet. Det här är delen där du ”hämtar råmaterialet”. I stället för att du letar runt på sidan returnerar Decodo innehållet i ett format som en AI-modell kan jobba med konsekvent.
AI extraherar strukturerad data och genererar sammanfattningen. En AI-gren producerar JSON-fält (det du vill ha i kolumner), medan en annan producerar en kort sammanfattning som du kan ge till en intressent. Under huven använder workflowet en chattmodell för att hålla utdata konsekventa över många olika sidformat.
Korrekt formaterade resultat loggas i Google Sheets. Ett parsningsteg gör om JSON-texten till tillförlitlig data, sedan kombinerar ett merge-steg fälten och sammanfattningen, och Google Sheets lägger till eller uppdaterar en rad.
Du kan enkelt ändra extraktionsschemat så att det matchar dina egna kolumner utifrån dina behov. Se hela implementationsguiden nedan för alternativ för anpassning.
Steg-för-steg-guide för implementation
Steg 1: Konfigurera den manuella triggern
Konfigurera startpunkten så att ni kan köra workflowet vid behov under test.
- Lägg till noden Manual Launch Trigger som er workflow-trigger.
- Behåll standardinställningarna eftersom Manual Launch Trigger inte har några parametrar.
- Säkerställ att kopplingen går från Manual Launch Trigger till Map Input Parameters.
Steg 2: Anslut Decodo och mappa indataparametrar
Definiera URL:en som ska skrapas och autentisera Decodo-förfrågan.
- Öppna Map Input Parameters och sätt fältet url till
https://example.com/[CONFIGURE_YOUR_API_KEY]. - I Decodo Scrape Request sätter ni url till
{{ $json.url }}. - Sätt headless till
falseoch markdown tilltruei Decodo Scrape Request. - Inloggningsuppgifter krävs: Anslut era
decodoApi-uppgifter i Decodo Scrape Request.
[CONFIGURE_YOUR_API_KEY] i Map Input Parameters måste ersättas med en giltig URL, annars misslyckas skrapningen.Steg 3: Sätt upp strukturerad parsning och sammanfattning
Konfigurera LLM-parsning och sammanfattning, inklusive den parallella exekveringsvägen efter skrapningen.
- I Structured Data Parser sätter ni text till
Parse and Extract the following content {{ $json.results[0].content }} in JSON Schema. - I Content Summary Builder sätter ni text till
Analyze and Summarize the {{ $json.data.results[0].content }} Do not output your own thoughts or suggestions or recommendations. Instead, just output the summary.. - Bekräfta att Decodo Scrape Request skickar output parallellt till både Structured Data Parser och Content Summary Builder.
- Öppna Gemini Data Model och sätt modelName till
models/gemini-2.0-flash-exp. - Öppna Gemini Summary Model och sätt modelName till
models/gemini-2.0-flash-exp. - Inloggningsuppgifter krävs: Anslut era
googlePalmApi-uppgifter i Gemini Data Model och Gemini Summary Model. Dessa tillhandahåller språkmodellen för Structured Data Parser och Content Summary Builder.
Steg 4: Parsea, slå ihop och förbered utdata
Rensa LLM:ens JSON-utdata, slå ihop den med sammanfattningen och förbered den för lagring.
- I Parse JSON Output behåller ni den angivna jsCode som tar bort code fences och parsar JSON.
- Verifiera kopplingen från Structured Data Parser till Parse JSON Output.
- Anslut Parse JSON Output och Content Summary Builder till Combine Outputs för att slå ihop båda dataströmmarna.
Steg 5: Konfigurera utdata till Google Sheets
Lägg till eller uppdatera de sammanslagna resultaten i ert Google Sheet.
- Öppna Update Sheet Row och sätt operation till
appendOrUpdate. - Sätt documentId till ert mål-kalkylark (för närvarande
[YOUR_ID]). - Sätt sheetName till
gid=0(Sheet1) eller välj ert avsedda blad. - Säkerställ att kolumnmappningen använder output med värdet
{{ $json.toJsonString() }}. - Inloggningsuppgifter krävs: Anslut era
googleSheetsOAuth2Api-uppgifter i Update Sheet Row.
Steg 6: Testa och aktivera ert workflow
Kör workflowet manuellt och validera utdata innan ni aktiverar det för produktion.
- Klicka på Execute Workflow på Manual Launch Trigger för att köra ett test.
- Bekräfta att Combine Outputs tar emot både den parsade JSON:en och sammanfattningen.
- Verifiera att Update Sheet Row lägger till eller uppdaterar en rad med JSON-strängen i kolumnen output.
- När testet lyckas, växla workflowet till Active för produktionsanvändning.
Felsökningstips
- Decodo-inloggningar kan löpa ut eller kräva specifika behörigheter. Om något skapar fel, kontrollera först din token i Decodo Dashboard och dina Basic Auth-inställningar.
- Om du använder Wait-noder eller extern rendering varierar processtiderna. Öka väntetiden om efterföljande noder fallerar på tomma svar.
- Standardprompts i AI-noder är generiska. Lägg in er tonalitet tidigt, annars kommer du att sitta och redigera utdata i all evighet.
Snabba svar
Cirka 30 minuter om dina Decodo- och Google-inloggningar är redo.
Nej. Du kopplar främst konton och justerar prompts och fält i n8n.
Ja. n8n har ett gratis self-hosted-alternativ och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna in Decodo-användning plus Gemini/OpenAI-modellkostnader, vilket vanligtvis landar på några ören per körning för typiska sidor.
Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller self-hosting på en VPS. För self-hosting är Hostinger VPS prisvärd och hanterar n8n bra. Self-hosting ger dig obegränsade körningar men kräver grundläggande serverhantering.
Ja, och det borde du förmodligen. Uppdatera extraktionsprompten i Structured Data Parser så att den matchar ditt JSON-schema (till exempel: författare, publiceringsdatum, företag, roll, policykrav). Om du vill ha en annan skrivstil, justera prompten i Content Summary Builder så att den ger en ”executive”-ton, en teknisk brief eller till och med punktlistor. Du kan också byta ut steget Update Sheet Row mot Notion, en databas eller Slack när du är redo att skicka resultaten vidare.
Oftast beror det på en utgången eller felaktig Basic Auth-token från Decodo Dashboard. Uppdatera inloggningsuppgifterna i noden Decodo Scrape Request och kör sedan en test-URL för att bekräfta att du får tillbaka innehåll. Om sidan blockerar botar eller kräver inloggning kan Decodo returnera delvis innehåll, vilket också kan göra att AI-utdata ser ”trasiga” ut.
Om du kör self-hosted beror volymen främst på din server och dina Decodo-/AI-rate limits.
För den här typen av workflow är n8n oftast bättre eftersom du kan köra flerstegslogik (scrapa, extrahera fält, parsa JSON, slå ihop utdata och skriva till Sheets) utan att betala extra för varje gren. Du får också mer kontroll över felhantering, vilket är viktigt när AI ibland returnerar felformaterad JSON. En annan praktisk fördel är self-hosting, som tar bort körningsbegränsningar om du bearbetar många URL:er. Zapier eller Make kan fortfarande fungera om du gör väldigt lätt berikning, men när du behöver parsning och sammanslagning blir det snabbt pilligt. Om du vill ha en second opinion, prata med en automationsexpert.
När det här väl rullar blir varje ny länk en prydlig rad du kan lita på. Workflowet tar hand om det repetitiva, så att du faktiskt kan använda informationen i stället för att omformatera den.
Kontakta oss
Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.