Behöver ert företag hjälp med att implementera AI? Kontakta oss och få prisoffert här →
AI Skolan
januari 22, 2026

ScrapeGraphAI + Google Sheets: forskningsflöde klart

Rickard Andersson Partner, Nodenordic.se

Att hålla koll på ”nya saker” online låter enkelt – tills det blir femton öppna flikar, halvt kopierade länkar och ett kalkylark som ingen litar helt på.

Det är här Sheets scraping automation snabbt betalar sig. Marknadschefer som jagar konkurrentrörelser märker det först. En grundare som gör veckovis research märker det också. Detsamma gäller en konsult som bygger en marknadskarta åt en kund.

Det här arbetsflödet bevakar nyligen tillagda n8n-communityarbetsflöden, extraherar detaljerna som spelar roll och lägger till felfria rader i Google Sheets. Du får lära dig vad det automatiserar, vad du behöver koppla in och hur du anpassar det till din researchprocess.

Så fungerar den här automatiseringen

Här är hela arbetsflödet du kommer att sätta upp:

n8n Workflow Template: ScrapeGraphAI + Google Sheets: forskningsflöde klart

Varför det här är viktigt: research blir utspridd

Manuell research havererar på tråkiga, dyra sätt. Du hittar något nytt, öppnar det, skummar igenom det och säger till dig själv att du ska ”logga det senare”. Senare blir aldrig. Eller värre: du loggar det med saknade fält, inkonsekventa namn och sammanfattningar som inte betyder något om två veckor. Den verkliga kostnaden är inte bara kopieringen. Det är kontextbytena, att du tvivlar på dina egna anteckningar och den ständiga känslan av att du missar något viktigt eftersom ditt system läcker.

Det drar iväg snabbt. Här brukar det oftast brista.

  • Man kopierar titeln men glömmer URL:en och slösar sedan tid på att hitta källan igen.
  • ”Snabba sammanfattningar” blir personlig stenografi som ingen annan förstår.
  • Olika teammedlemmar spårar olika fält, så arket blir omöjligt att filtrera på ett konsekvent sätt.
  • När volymen ökar halkar loggningen efter och backloggen dör tyst.

Det du bygger: ett liveflöde för research i Google Sheets

Det här arbetsflödet fungerar som en liten researchassistent som aldrig blir trött. Det börjar med att skrapa sidan för n8n:s arbetsflödeskatalog och identifiera vad som finns i sektionen ”Recently Added”. Sedan tar det varje nyupptäckt arbetsflödeslänk, besöker detaljsidan och rensar innehållet så att det viktiga inte begravs i menyer och irrelevant text. Därefter extraherar AI konsekventa fält (som författare, kategori, pris och ID:n) till strukturerad data och skapar en kort italiensk sammanfattning så att raden är användbar även om du aldrig öppnar länken igen. Till sist slås allt ihop och läggs till som en ny rad i Google Sheets, redo att sökas, filtreras och delas.

Arbetsflödet startar med en manuell körning (eller en schemalagd trigger om du slår på den). ScrapeGraphAI hämtar listsidan och varje detaljsida, och sedan hjälper Google Gemini och OpenAI till att rensa, extrahera och sammanfatta innehållet. Google Sheets blir din ”single source of truth”, uppdaterad automatiskt.

Det du bygger

Förväntade resultat

Säg att ditt team granskar cirka 20 nyligen tillagda arbetsflöden varje vecka. Manuellt är det lätt att lägga kanske 6 minuter per objekt (öppna, skumma, kopiera titel, kopiera URL, gissa kategorier, skriva en notis), vilket blir ungefär 2 timmar. Med det här arbetsflödet triggar du en körning, väntar på skrapning och AI-bearbetning och sedan är arket uppdaterat. Din ”tidskostnad” blir en snabb stickprovskontroll, kanske 10 minuter totalt.

Innan du börjar

  • n8n-instans (prova n8n Cloud gratis)
  • Alternativ för egen drift om du föredrar det (Hostinger fungerar bra)
  • ScrapeGraphAI för AI-driven webbskrapning.
  • Google Sheets för att lagra dina researchrader.
  • Google Gemini API-nyckel (hämta den från Google AI Studio / Google Cloud).
  • OpenAI API-nyckel (hämta den från OpenAI Dashboard).

Kunskapsnivå: Medel. Du kopplar några credentials, bekräftar kolumner i arket och justerar prompts om du vill ha andra fält.

Vill du att någon bygger detta åt dig? Prata med en automationsexpert (gratis 15-minuters konsultation).

Steg för steg

En körning triggas. Du kan starta den manuellt för testning och sedan gå över till ett schema när du är nöjd med uppdateringstakten.

Listsidan skrapas och tolkas. ScrapeGraphAI hämtar huvudsidan för arbetsflöden till korrekt formaterad Markdown, och därefter identifierar en LLM-kedja sektionen ”Recently Added” och returnerar en strukturerad lista med titlar och URL:er.

Varje arbetsflödessida rensas och nyckelfält extraheras. Arbetsflödet loopar igenom varje URL, skrapar detaljsidan, tar bort utfyllnad och använder en informationsextraktor för att mappa fält till ett förutsägbart schema. Det är här Gemini/OpenAI gör grovjobbet.

Resultaten hamnar i Google Sheets. De extraherade detaljerna och den genererade italienska sammanfattningen slås ihop till ett objekt och läggs sedan till som en ny rad i ditt kalkylark.

Du kan enkelt ändra extraktionsschemat för att få med extra kolumner (som ”use case” eller ”industry”) utifrån dina behov. Se hela implementationsguiden nedan för anpassningsalternativ.

Steg-för-steg-guide för implementation

Steg 1: konfigurera den manuella triggern

Det här arbetsflödet startar manuellt och kan vid behov schemaläggas senare. Konfigurera triggernoderna för att styra när scrapingen börjar.

  1. Lägg till Manual Start Trigger som primär trigger för test- och utvecklingskörningar.
  2. Om ni vill ha automatiserade körningar senare, behåll Utility: Scheduled Run Trigger i canvasen och konfigurera dess schemaregler (den är för närvarande inte ansluten till flödet).
  3. Anslut Manual Start Trigger till Scrape Community Listing för att matcha exekveringsflödet.

Tips: Låt Utility: Scheduled Run Trigger vara frånkopplad tills ni är redo att automatisera arbetsflödet, och koppla sedan om den så att den startar samma kedja som den manuella triggern.

Steg 2: anslut ScrapegraphAI för community-listningen

Scrapa n8n:s huvudsida för community-arbetsflöden för att hämta avsnittet ”Recently Added” i Markdown.

  1. Lägg till Scrape Community Listing och ställ in Resource till markdownify.
  2. Ställ in Website URL till https://n8n.io/workflows/.
  3. Aktivera Render Heavy JS.
  4. Inloggningsuppgifter krävs: Anslut era scrapegraphAIApi-inloggningsuppgifter i Scrape Community Listing.

Steg 3: sätt upp AI-parsning och expandering av arbetsflödeslista

Använd AI för att extrahera arbetsflödestitlar och URL:er från den scrapade Markdownen, och expandera dem sedan till individuella objekt.

  1. Konfigurera Gemini Chat Engine som språkmodell för Parse Recent Additions. Inloggningsuppgifter krävs: Anslut era googlePalmApi-inloggningsuppgifter.
  2. Konfigurera OpenAI Chat Engine (modell gpt-5-mini) och anslut den till Structured Output Mapper. Inloggningsuppgifter krävs: Anslut era openAiApi-inloggningsuppgifter i OpenAI Chat Engine.
  3. I Structured Output Mapper, låt Auto Fix vara aktiverat och ställ in Input Schema till det tillhandahållna JSON-schemat för workflows.
  4. I Parse Recent Additions, ställ in Text till {{ $json.result }} och låt Has Output Parser vara aktiverat. Structured Output Mapper är en sub-nod—autentisering ska läggas till i OpenAI Chat Engine, inte i parsern.
  5. I Map Workflow List, tilldela workflows till {{ $json.output.workflows }}.
  6. I Expand Workflow Items, ställ in Field to Split Out till workflows och anslut den till Iterate Workflow Batches.

⚠️ Vanlig fallgrop: Om Parse Recent Additions returnerar tom output, bekräfta att avsnittet ”Recently Added” fortfarande finns på målsidan och att prompten är på avsett språk.

Steg 4: scrapa varje arbetsflöde och kör parallell extrahering

För varje arbetsflödes-URL, scrapa detaljsidan och kör två parallella AI-processer: fältextrahering och Markdown-rensning.

  1. Konfigurera Scrape Workflow Detail med Resource satt till markdownify, Website URL satt till {{ $json.url }} och Render Heavy JS aktiverat. Inloggningsuppgifter krävs: Anslut era scrapegraphAIApi-inloggningsuppgifter.
  2. Säkerställ att Scrape Workflow Detail skickar output till både Extract Workflow Fields och Clean Article Markdown parallellt.
  3. Anslut Gemini Extract Model som språkmodell för Extract Workflow Fields. Inloggningsuppgifter krävs: Anslut era googlePalmApi-inloggningsuppgifter.
  4. I Extract Workflow Fields, ställ in Text till {{ $json.result }} och behåll attributen för categories, author, price, title, url och id.
  5. Anslut Gemini Content Model som språkmodell för Clean Article Markdown. Inloggningsuppgifter krävs: Anslut era googlePalmApi-inloggningsuppgifter.
  6. I Clean Article Markdown, ställ in Text till {{ $json.result }}.

Tips: Parallell exekvering är avgörande här—Scrape Workflow Detail måste mata både extraherings- och rensningsvägen så att Combine Details får komplett data senare.

Steg 5: generera sammanfattning och kombinera detaljer

Rensa Markdownen, generera en italiensk sammanfattning med Gemini och slå ihop alla fält till en enda post.

  1. I Assign Clean Content, ställ in content till {{ $json.text }}.
  2. Konfigurera Generate Summary med Model satt till models/gemini-2.5-flash och System Message satt till Riassumi in italiano lo scopo di questo flusso e gli strumenti utilizzati. Sii conciso e chiaro senza preamboli. Usa plain text.
  3. Ställ in meddelandeinnehållet i Generate Summary till {{ $json.content }}. Inloggningsuppgifter krävs: Anslut era googlePalmApi-inloggningsuppgifter.
  4. I Combine Details, ställ in Mode till combine och Combine By till combineAll, och anslut sedan både Generate Summary och Extract Workflow Fields till den.

Steg 6: konfigurera output till Google Sheets

Lägg till de sammanslagna arbetsflödesdetaljerna och sammanfattningen i ert Google Sheet.

  1. Lägg till Append Sheet Row och ställ in Operation till append.
  2. Välj målbladet med Document ID satt till [YOUR_ID] och Sheet Name satt till gid=0.
  3. Mappa kolumner med dessa uttryck: ID {{ $json.output.id }}, URL {{ $json.output.url }}, PRICE {{ $json.output.price }}, TITLE {{ $json.output.title }}, AUTHOR {{ $json.output.author }}, SUMMARY {{ $('Generate Summary').item.json.content.parts[0].text }}, CATEGORIES {{ $json.output.categories }}.
  4. Inloggningsuppgifter krävs: Anslut era googleSheetsOAuth2Api-inloggningsuppgifter i Append Sheet Row.

Steg 7: testa och aktivera ert arbetsflöde

Validera hela arbetsflödet från början till slut och aktivera det för löpande användning.

  1. Klicka på Execute Workflow med start från Manual Start Trigger för att köra ett test.
  2. Verifiera att Scrape Community Listing returnerar Markdown och att Parse Recent Additions ger en workflows-array.
  3. Bekräfta att Scrape Workflow Detail matar både Extract Workflow Fields och Clean Article Markdown parallellt, och att Combine Details tar emot båda grenarna.
  4. Kontrollera ert Google Sheet för att säkerställa att en ny rad visas med ID, titel, sammanfattning och kategorier.
  5. När ni är nöjda, växla arbetsflödet till Active. Om ni planerar att automatisera, anslut Utility: Scheduled Run Trigger till samma ingångspunkt som den manuella triggern.
🔒

Lås upp fullständig steg-för-steg-guide

Få den kompletta implementeringsguiden + nedladdningsbar mall

Felsökningstips

  • ScrapeGraphAI-credentials kan löpa ut eller kräva specifika behörigheter. Om något skapar fel, kontrollera först kontoinställningarna i ScrapeGraphAI och din credential-post i n8n.
  • Om du använder Wait-noder eller extern rendering varierar processtiderna. Öka väntetiden om noder längre ned faller på tomma svar.
  • Standardprompter i AI-noder är generiska. Lägg in er tonalitet tidigt, annars kommer du att sitta och redigera outputen för alltid.
  • Google Sheets-tillägg kan ”fungera” utan fel men hamna i fel kalkylblad. Dubbelkolla spreadsheet-ID och fliknamnet (det här arbetsflödet förväntar sig ett ark som heter Foglio1 om du inte ändrar det).

Snabba svar

Hur lång tid tar det att sätta upp den här Sheets scraping automation-automatiseringen?

Cirka 30 minuter om dina API:er är redo.

Krävs det kodning för den här skrapning-till-Sheets-setupen?

Nej. Du kopplar mest credentials och justerar några prompts. Den enda ”tekniska” delen är att matcha extraherade fält mot kolumnerna i ditt Sheet.

Är n8n gratis att använda för det här Sheets scraping automation-arbetsflödet?

Ja. n8n har ett gratisalternativ för egen drift och en gratis provperiod på n8n Cloud. Cloud-planer startar på 20 USD/månad för högre volym. Du behöver också räkna in ScrapeGraphAI samt användning av AI-modeller (Gemini/OpenAI), vilket för de flesta team är några dollar i månaden om du inte kör det konstant.

Var kan jag hosta n8n för att köra den här automatiseringen?

Två alternativ: n8n Cloud (hanterat, enklast att sätta upp) eller egen drift på en VPS. För egen drift är Hostinger VPS prisvärd och hanterar n8n bra. Egen drift ger dig obegränsade körningar men kräver grundläggande serverhantering.

Kan jag modifiera det här Sheets scraping automation-arbetsflödet för andra användningsfall?

Ja, och det bör du troligen. Du kan ändra prompten ”Parse Recent Additions” för att rikta in dig på en annan sektion eller webbplats, och sedan justera ”Extract Workflow Fields” till ett nytt schema (till exempel lägga till kolumner som ”use case”, ”target team” eller ”difficulty”). Om du vill ha sammanfattningar på engelska i stället för italienska byter du instruktionen i ”Generate Summary”. Du kan också ersätta Google Sheets med en annan destination senare, men Sheets är den enklaste platsen att börja på.

Varför misslyckas min ScrapeGraphAI-anslutning i det här arbetsflödet?

Oftast beror det på en ogiltig eller utgången API-nyckel. Uppdatera ScrapeGraphAI-credentials i n8n, kör sedan arbetsflödet igen och titta på första skrapsteget för ett tydligt felmeddelande. Om nyckeln är korrekt kan du slå i rate limits eller så blockerar målsidan förfrågningar tillfälligt. Sänk i så fall schemat och testa igen senare.

Vilken volym kan det här Sheets scraping automation-arbetsflödet hantera?

I praktiken klarar det dussintals nya objekt per körning, men gränsen styrs av din n8n-plan och dina AI-/skrapkvoter.

Är den här Sheets scraping automation-automatiseringen bättre än att använda Zapier eller Make?

För AI-tung skrapning och rensning i flera steg brukar n8n passa bättre än Zapier eller Make. Du kan köra mer komplex logik utan att betala extra för varje gren, och egen drift tar bort exekveringsgränser om din server klarar det. Dessutom bygger arbetsflöden som detta på strukturerad output-parsning och extraktionssteg som helt enkelt är mer flexibla i n8n. Zapier eller Make kan fortfarande fungera om du håller det enkelt, som ”RSS in, rad i Sheet ut”, men den här pipelinen är mer än så. Prata med en automationsexpert om du vill ha en snabb rekommendation utifrån din volym och dina krav på datakvalitet.

När det här väl rullar slutar din ”researchprocess” att vara en hög öppna flikar och blir i stället ett levande dataset. Sätt upp det, finjustera fälten en gång och låt arket hålla sig uppdaterat.

Kontakta oss

Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.

×

Använd mall

Få direkt tillgång till denna n8n-arbetsflödes JSON-fil

Launch login modal Launch register modal