Att hålla koll på ”nya saker” online låter enkelt – tills det blir femton öppna flikar, halvt kopierade länkar och ett kalkylark som ingen litar helt på.
Det är här Sheets scraping automation snabbt betalar sig. Marknadschefer som jagar konkurrentrörelser märker det först. En grundare som gör veckovis research märker det också. Detsamma gäller en konsult som bygger en marknadskarta åt en kund.
Det här arbetsflödet bevakar nyligen tillagda n8n-communityarbetsflöden, extraherar detaljerna som spelar roll och lägger till felfria rader i Google Sheets. Du får lära dig vad det automatiserar, vad du behöver koppla in och hur du anpassar det till din researchprocess.
Så fungerar den här automatiseringen
Här är hela arbetsflödet du kommer att sätta upp:
n8n Workflow Template: ScrapeGraphAI + Google Sheets: forskningsflöde klart
flowchart LR
subgraph sg0["Manual Start Flow"]
direction LR
n0@{ icon: "mdi:play-circle", form: "rounded", label: "Manual Start Trigger", pos: "b", h: 48 }
n2@{ icon: "mdi:cog", form: "rounded", label: "Scrape Community Listing", pos: "b", h: 48 }
n3@{ icon: "mdi:brain", form: "rounded", label: "Gemini Chat Engine", pos: "b", h: 48 }
n4@{ icon: "mdi:robot", form: "rounded", label: "Structured Output Mapper", pos: "b", h: 48 }
n5@{ icon: "mdi:brain", form: "rounded", label: "OpenAI Chat Engine", pos: "b", h: 48 }
n6@{ icon: "mdi:robot", form: "rounded", label: "Parse Recent Additions", pos: "b", h: 48 }
n7@{ icon: "mdi:swap-vertical", form: "rounded", label: "Map Workflow List", pos: "b", h: 48 }
n8@{ icon: "mdi:swap-vertical", form: "rounded", label: "Expand Workflow Items", pos: "b", h: 48 }
n9@{ icon: "mdi:swap-vertical", form: "rounded", label: "Iterate Workflow Batches", pos: "b", h: 48 }
n10@{ icon: "mdi:cog", form: "rounded", label: "Scrape Workflow Detail", pos: "b", h: 48 }
n11@{ icon: "mdi:brain", form: "rounded", label: "Gemini Content Model", pos: "b", h: 48 }
n12@{ icon: "mdi:robot", form: "rounded", label: "Clean Article Markdown", pos: "b", h: 48 }
n13@{ icon: "mdi:swap-vertical", form: "rounded", label: "Assign Clean Content", pos: "b", h: 48 }
n14@{ icon: "mdi:robot", form: "rounded", label: "Generate Summary", pos: "b", h: 48 }
n15@{ icon: "mdi:brain", form: "rounded", label: "Gemini Extract Model", pos: "b", h: 48 }
n16@{ icon: "mdi:robot", form: "rounded", label: "Extract Workflow Fields", pos: "b", h: 48 }
n17["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/merge.svg' width='40' height='40' /></div><br/>Combine Details"]
n18@{ icon: "mdi:database", form: "rounded", label: "Append Sheet Row", pos: "b", h: 48 }
n17 --> n18
n18 --> n9
n7 --> n8
n8 --> n9
n13 --> n14
n12 --> n13
n9 --> n10
n2 --> n6
n5 -.-> n4
n16 --> n17
n14 --> n17
n10 --> n16
n10 --> n12
n6 --> n7
n3 -.-> n6
n4 -.-> n6
n15 -.-> n16
n11 -.-> n12
n0 --> n2
end
subgraph sg1["Utility: Scheduled Run Flow"]
direction LR
n1@{ icon: "mdi:play-circle", form: "rounded", label: "Utility: Scheduled Run Trigger", pos: "b", h: 48 }
end
%% Styling
classDef trigger fill:#e8f5e9,stroke:#388e3c,stroke-width:2px
classDef ai fill:#e3f2fd,stroke:#1976d2,stroke-width:2px
classDef aiModel fill:#e8eaf6,stroke:#3f51b5,stroke-width:2px
classDef decision fill:#fff8e1,stroke:#f9a825,stroke-width:2px
classDef database fill:#fce4ec,stroke:#c2185b,stroke-width:2px
classDef api fill:#fff3e0,stroke:#e65100,stroke-width:2px
classDef code fill:#f3e5f5,stroke:#7b1fa2,stroke-width:2px
classDef disabled stroke-dasharray: 5 5,opacity: 0.5
class n0,n1 trigger
class n4,n6,n12,n14,n16 ai
class n3,n5,n11,n15 aiModel
class n18 database
classDef customIcon fill:none,stroke:none
class n17 customIcon
Varför det här är viktigt: research blir utspridd
Manuell research havererar på tråkiga, dyra sätt. Du hittar något nytt, öppnar det, skummar igenom det och säger till dig själv att du ska ”logga det senare”. Senare blir aldrig. Eller värre: du loggar det med saknade fält, inkonsekventa namn och sammanfattningar som inte betyder något om två veckor. Den verkliga kostnaden är inte bara kopieringen. Det är kontextbytena, att du tvivlar på dina egna anteckningar och den ständiga känslan av att du missar något viktigt eftersom ditt system läcker.
Det drar iväg snabbt. Här brukar det oftast brista.
- Man kopierar titeln men glömmer URL:en och slösar sedan tid på att hitta källan igen.
- ”Snabba sammanfattningar” blir personlig stenografi som ingen annan förstår.
- Olika teammedlemmar spårar olika fält, så arket blir omöjligt att filtrera på ett konsekvent sätt.
- När volymen ökar halkar loggningen efter och backloggen dör tyst.
Det du bygger: ett liveflöde för research i Google Sheets
Det här arbetsflödet fungerar som en liten researchassistent som aldrig blir trött. Det börjar med att skrapa sidan för n8n:s arbetsflödeskatalog och identifiera vad som finns i sektionen ”Recently Added”. Sedan tar det varje nyupptäckt arbetsflödeslänk, besöker detaljsidan och rensar innehållet så att det viktiga inte begravs i menyer och irrelevant text. Därefter extraherar AI konsekventa fält (som författare, kategori, pris och ID:n) till strukturerad data och skapar en kort italiensk sammanfattning så att raden är användbar även om du aldrig öppnar länken igen. Till sist slås allt ihop och läggs till som en ny rad i Google Sheets, redo att sökas, filtreras och delas.
Arbetsflödet startar med en manuell körning (eller en schemalagd trigger om du slår på den). ScrapeGraphAI hämtar listsidan och varje detaljsida, och sedan hjälper Google Gemini och OpenAI till att rensa, extrahera och sammanfatta innehållet. Google Sheets blir din ”single source of truth”, uppdaterad automatiskt.
Det du bygger
| Det som automatiseras | Det du uppnår |
|---|---|
|
|
Förväntade resultat
Säg att ditt team granskar cirka 20 nyligen tillagda arbetsflöden varje vecka. Manuellt är det lätt att lägga kanske 6 minuter per objekt (öppna, skumma, kopiera titel, kopiera URL, gissa kategorier, skriva en notis), vilket blir ungefär 2 timmar. Med det här arbetsflödet triggar du en körning, väntar på skrapning och AI-bearbetning och sedan är arket uppdaterat. Din ”tidskostnad” blir en snabb stickprovskontroll, kanske 10 minuter totalt.
Innan du börjar
- n8n-instans (prova n8n Cloud gratis)
- Alternativ för egen drift om du föredrar det (Hostinger fungerar bra)
- ScrapeGraphAI för AI-driven webbskrapning.
- Google Sheets för att lagra dina researchrader.
- Google Gemini API-nyckel (hämta den från Google AI Studio / Google Cloud).
- OpenAI API-nyckel (hämta den från OpenAI Dashboard).
Kunskapsnivå: Medel. Du kopplar några credentials, bekräftar kolumner i arket och justerar prompts om du vill ha andra fält.
Vill du att någon bygger detta åt dig? Prata med en automationsexpert (gratis 15-minuters konsultation).
Steg för steg
En körning triggas. Du kan starta den manuellt för testning och sedan gå över till ett schema när du är nöjd med uppdateringstakten.
Listsidan skrapas och tolkas. ScrapeGraphAI hämtar huvudsidan för arbetsflöden till korrekt formaterad Markdown, och därefter identifierar en LLM-kedja sektionen ”Recently Added” och returnerar en strukturerad lista med titlar och URL:er.
Varje arbetsflödessida rensas och nyckelfält extraheras. Arbetsflödet loopar igenom varje URL, skrapar detaljsidan, tar bort utfyllnad och använder en informationsextraktor för att mappa fält till ett förutsägbart schema. Det är här Gemini/OpenAI gör grovjobbet.
Resultaten hamnar i Google Sheets. De extraherade detaljerna och den genererade italienska sammanfattningen slås ihop till ett objekt och läggs sedan till som en ny rad i ditt kalkylark.
Du kan enkelt ändra extraktionsschemat för att få med extra kolumner (som ”use case” eller ”industry”) utifrån dina behov. Se hela implementationsguiden nedan för anpassningsalternativ.
Steg-för-steg-guide för implementation
Steg 1: konfigurera den manuella triggern
Det här arbetsflödet startar manuellt och kan vid behov schemaläggas senare. Konfigurera triggernoderna för att styra när scrapingen börjar.
- Lägg till Manual Start Trigger som primär trigger för test- och utvecklingskörningar.
- Om ni vill ha automatiserade körningar senare, behåll Utility: Scheduled Run Trigger i canvasen och konfigurera dess schemaregler (den är för närvarande inte ansluten till flödet).
- Anslut Manual Start Trigger till Scrape Community Listing för att matcha exekveringsflödet.
Steg 2: anslut ScrapegraphAI för community-listningen
Scrapa n8n:s huvudsida för community-arbetsflöden för att hämta avsnittet ”Recently Added” i Markdown.
- Lägg till Scrape Community Listing och ställ in Resource till
markdownify. - Ställ in Website URL till
https://n8n.io/workflows/. - Aktivera Render Heavy JS.
- Inloggningsuppgifter krävs: Anslut era scrapegraphAIApi-inloggningsuppgifter i Scrape Community Listing.
Steg 3: sätt upp AI-parsning och expandering av arbetsflödeslista
Använd AI för att extrahera arbetsflödestitlar och URL:er från den scrapade Markdownen, och expandera dem sedan till individuella objekt.
- Konfigurera Gemini Chat Engine som språkmodell för Parse Recent Additions. Inloggningsuppgifter krävs: Anslut era googlePalmApi-inloggningsuppgifter.
- Konfigurera OpenAI Chat Engine (modell
gpt-5-mini) och anslut den till Structured Output Mapper. Inloggningsuppgifter krävs: Anslut era openAiApi-inloggningsuppgifter i OpenAI Chat Engine. - I Structured Output Mapper, låt Auto Fix vara aktiverat och ställ in Input Schema till det tillhandahållna JSON-schemat för
workflows. - I Parse Recent Additions, ställ in Text till
{{ $json.result }}och låt Has Output Parser vara aktiverat. Structured Output Mapper är en sub-nod—autentisering ska läggas till i OpenAI Chat Engine, inte i parsern. - I Map Workflow List, tilldela workflows till
{{ $json.output.workflows }}. - I Expand Workflow Items, ställ in Field to Split Out till
workflowsoch anslut den till Iterate Workflow Batches.
Steg 4: scrapa varje arbetsflöde och kör parallell extrahering
För varje arbetsflödes-URL, scrapa detaljsidan och kör två parallella AI-processer: fältextrahering och Markdown-rensning.
- Konfigurera Scrape Workflow Detail med Resource satt till
markdownify, Website URL satt till{{ $json.url }}och Render Heavy JS aktiverat. Inloggningsuppgifter krävs: Anslut era scrapegraphAIApi-inloggningsuppgifter. - Säkerställ att Scrape Workflow Detail skickar output till både Extract Workflow Fields och Clean Article Markdown parallellt.
- Anslut Gemini Extract Model som språkmodell för Extract Workflow Fields. Inloggningsuppgifter krävs: Anslut era googlePalmApi-inloggningsuppgifter.
- I Extract Workflow Fields, ställ in Text till
{{ $json.result }}och behåll attributen förcategories,author,price,title,urlochid. - Anslut Gemini Content Model som språkmodell för Clean Article Markdown. Inloggningsuppgifter krävs: Anslut era googlePalmApi-inloggningsuppgifter.
- I Clean Article Markdown, ställ in Text till
{{ $json.result }}.
Steg 5: generera sammanfattning och kombinera detaljer
Rensa Markdownen, generera en italiensk sammanfattning med Gemini och slå ihop alla fält till en enda post.
- I Assign Clean Content, ställ in content till
{{ $json.text }}. - Konfigurera Generate Summary med Model satt till
models/gemini-2.5-flashoch System Message satt tillRiassumi in italiano lo scopo di questo flusso e gli strumenti utilizzati. Sii conciso e chiaro senza preamboli. Usa plain text. - Ställ in meddelandeinnehållet i Generate Summary till
{{ $json.content }}. Inloggningsuppgifter krävs: Anslut era googlePalmApi-inloggningsuppgifter. - I Combine Details, ställ in Mode till
combineoch Combine By tillcombineAll, och anslut sedan både Generate Summary och Extract Workflow Fields till den.
Steg 6: konfigurera output till Google Sheets
Lägg till de sammanslagna arbetsflödesdetaljerna och sammanfattningen i ert Google Sheet.
- Lägg till Append Sheet Row och ställ in Operation till
append. - Välj målbladet med Document ID satt till
[YOUR_ID]och Sheet Name satt tillgid=0. - Mappa kolumner med dessa uttryck: ID
{{ $json.output.id }}, URL{{ $json.output.url }}, PRICE{{ $json.output.price }}, TITLE{{ $json.output.title }}, AUTHOR{{ $json.output.author }}, SUMMARY{{ $('Generate Summary').item.json.content.parts[0].text }}, CATEGORIES{{ $json.output.categories }}. - Inloggningsuppgifter krävs: Anslut era googleSheetsOAuth2Api-inloggningsuppgifter i Append Sheet Row.
Steg 7: testa och aktivera ert arbetsflöde
Validera hela arbetsflödet från början till slut och aktivera det för löpande användning.
- Klicka på Execute Workflow med start från Manual Start Trigger för att köra ett test.
- Verifiera att Scrape Community Listing returnerar Markdown och att Parse Recent Additions ger en
workflows-array. - Bekräfta att Scrape Workflow Detail matar både Extract Workflow Fields och Clean Article Markdown parallellt, och att Combine Details tar emot båda grenarna.
- Kontrollera ert Google Sheet för att säkerställa att en ny rad visas med ID, titel, sammanfattning och kategorier.
- När ni är nöjda, växla arbetsflödet till Active. Om ni planerar att automatisera, anslut Utility: Scheduled Run Trigger till samma ingångspunkt som den manuella triggern.
Felsökningstips
- ScrapeGraphAI-credentials kan löpa ut eller kräva specifika behörigheter. Om något skapar fel, kontrollera först kontoinställningarna i ScrapeGraphAI och din credential-post i n8n.
- Om du använder Wait-noder eller extern rendering varierar processtiderna. Öka väntetiden om noder längre ned faller på tomma svar.
- Standardprompter i AI-noder är generiska. Lägg in er tonalitet tidigt, annars kommer du att sitta och redigera outputen för alltid.
- Google Sheets-tillägg kan ”fungera” utan fel men hamna i fel kalkylblad. Dubbelkolla spreadsheet-ID och fliknamnet (det här arbetsflödet förväntar sig ett ark som heter Foglio1 om du inte ändrar det).
Snabba svar
Cirka 30 minuter om dina API:er är redo.
Nej. Du kopplar mest credentials och justerar några prompts. Den enda ”tekniska” delen är att matcha extraherade fält mot kolumnerna i ditt Sheet.
Ja. n8n har ett gratisalternativ för egen drift och en gratis provperiod på n8n Cloud. Cloud-planer startar på 20 USD/månad för högre volym. Du behöver också räkna in ScrapeGraphAI samt användning av AI-modeller (Gemini/OpenAI), vilket för de flesta team är några dollar i månaden om du inte kör det konstant.
Två alternativ: n8n Cloud (hanterat, enklast att sätta upp) eller egen drift på en VPS. För egen drift är Hostinger VPS prisvärd och hanterar n8n bra. Egen drift ger dig obegränsade körningar men kräver grundläggande serverhantering.
Ja, och det bör du troligen. Du kan ändra prompten ”Parse Recent Additions” för att rikta in dig på en annan sektion eller webbplats, och sedan justera ”Extract Workflow Fields” till ett nytt schema (till exempel lägga till kolumner som ”use case”, ”target team” eller ”difficulty”). Om du vill ha sammanfattningar på engelska i stället för italienska byter du instruktionen i ”Generate Summary”. Du kan också ersätta Google Sheets med en annan destination senare, men Sheets är den enklaste platsen att börja på.
Oftast beror det på en ogiltig eller utgången API-nyckel. Uppdatera ScrapeGraphAI-credentials i n8n, kör sedan arbetsflödet igen och titta på första skrapsteget för ett tydligt felmeddelande. Om nyckeln är korrekt kan du slå i rate limits eller så blockerar målsidan förfrågningar tillfälligt. Sänk i så fall schemat och testa igen senare.
I praktiken klarar det dussintals nya objekt per körning, men gränsen styrs av din n8n-plan och dina AI-/skrapkvoter.
För AI-tung skrapning och rensning i flera steg brukar n8n passa bättre än Zapier eller Make. Du kan köra mer komplex logik utan att betala extra för varje gren, och egen drift tar bort exekveringsgränser om din server klarar det. Dessutom bygger arbetsflöden som detta på strukturerad output-parsning och extraktionssteg som helt enkelt är mer flexibla i n8n. Zapier eller Make kan fortfarande fungera om du håller det enkelt, som ”RSS in, rad i Sheet ut”, men den här pipelinen är mer än så. Prata med en automationsexpert om du vill ha en snabb rekommendation utifrån din volym och dina krav på datakvalitet.
När det här väl rullar slutar din ”researchprocess” att vara en hög öppna flikar och blir i stället ett levande dataset. Sätt upp det, finjustera fälten en gång och låt arket hålla sig uppdaterat.
Kontakta oss
Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.