Nyhetsbevakning låter enkelt tills det är ditt jobb att kolla samma sajter varje dag, kopiera länkar till ett kalkylark och ändå på något sätt missa den enda rubriken du faktiskt behövde.
PR-chefer märker det när varumärkesomnämnanden slinker igenom. Marknadsanalytiker märker det när en konkurrent agerar snabbt. Innehållsteam märker det också. Den här automatiseringen för nyhetsscraping lägger in nya rubriker i Google Sheets automatiskt, så att din “nyhetslogg” hålls uppdaterad utan att du behöver passa den.
Du får se exakt vad arbetsflödet gör, vad du behöver för att köra det och hur du kan tänka kring att anpassa det för olika källor och spårningsmål.
Så fungerar den här automatiseringen
Här är hela arbetsflödet du kommer att sätta upp:
n8n Workflow Template: ScrapeGraphAI till Google Sheets för nyhetsbevakning
flowchart LR
subgraph sg0["Automated News Collection Flow"]
direction LR
n0@{ icon: "mdi:play-circle", form: "rounded", label: "Automated News Collection Tr..", pos: "b", h: 48 }
n1@{ icon: "mdi:cog", form: "rounded", label: "AI-Powered News Article Scra..", pos: "b", h: 48 }
n2@{ icon: "mdi:database", form: "rounded", label: "Google Sheets News Storage", pos: "b", h: 48 }
n3["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/code.svg' width='40' height='40' /></div><br/>News Data Formatting and Pro.."]
n1 --> n3
n0 --> n1
n3 --> n2
end
%% Styling
classDef trigger fill:#e8f5e9,stroke:#388e3c,stroke-width:2px
classDef ai fill:#e3f2fd,stroke:#1976d2,stroke-width:2px
classDef aiModel fill:#e8eaf6,stroke:#3f51b5,stroke-width:2px
classDef decision fill:#fff8e1,stroke:#f9a825,stroke-width:2px
classDef database fill:#fce4ec,stroke:#c2185b,stroke-width:2px
classDef api fill:#fff3e0,stroke:#e65100,stroke-width:2px
classDef code fill:#f3e5f5,stroke:#7b1fa2,stroke-width:2px
classDef disabled stroke-dasharray: 5 5,opacity: 0.5
class n0 trigger
class n2 database
class n3 code
classDef customIcon fill:none,stroke:none
class n3 customIcon
Varför det här spelar roll: manuell nyhetsspårning faller isär när volymen ökar
Att hänga med i rubriker är lätt när det är en sajt och en snabb genomläsning. Sedan växer listan. Några konkurrentbloggar, ett par branschpublikationer, kanske en lokal aktör som ibland nämner ditt varumärke. Plötsligt jonglerar du flikar, kopierar titlar till ett ark, fixar URL:er och försöker komma ihåg vad du redan loggade i går. Och när du missar något är det inte bara ett “oj”. Det kan innebära sen respons, en missad partnerchans eller rapportering som ser ofullständig ut inför en kund.
Det eskalerar snabbt. Här är var det brukar brista.
- Att copy-pasta rubriker och länkar går långsamt, och det är den sortens långsamhet som tömmer din uppmärksamhet för resten av dagen.
- Du får röriga spårningsrader eftersom varje sajt formaterar titlar och kategorier olika.
- Manuella kontroller missar artiklar när nyhetsflödet rör sig snabbt eller när du är upptagen med mer prioriterat arbete.
- När arket växer gör dubbletter och inkonsekventa kategorier att filtrering känns opålitlig.
Vad du bygger: skrapa nyhetssajter med AI och logga resultaten i Sheets
Det här arbetsflödet körs enligt ett schema och kontrollerar en nyhetssida du väljer (eller vilken sida som helst som listar artiklar). ScrapeGraphAI extraherar sedan de fält du faktiskt bryr dig om, som rubriktitel, URL och kategori/sektion. Därefter formar ett litet bearbetningssteg om datan så att den hamnar strukturerad i ett kalkylark, istället för att dyka upp som en konstig nästlad klump du måste fixa. Till sist lägger n8n till varje artikel som en ny rad i Google Sheets, vilket ger dig en levande nyhetslogg som hålls uppdaterad medan du fokuserar på analys, rapportering eller respons.
Arbetsflödet startar med en tidsstyrd trigger. ScrapeGraphAI hämtar de senaste artiklarna och returnerar strukturerade fält. Ett Code-steg standardiserar outputen och Google Sheets lagrar allt i de kolumner du förväntar dig (titel, url, kategori).
Det du bygger
| Vad som automatiseras | Vad du uppnår |
|---|---|
|
|
Förväntade resultat
Säg att du bevakar 5 sajter och loggar cirka 10 artiklar per sajt varje vecka. Manuellt tar det kanske 2 minuter per artikel att kopiera titeln, hämta URL:en och lägga till en kategori, vilket landar på runt 100 minuter per vecka (och det är en “bra” vecka). Med det här arbetsflödet lägger du ungefär 10 minuter på att sätta schemat och testa skrapningen, och sedan granskar du bara arket i några minuter efter varje körning. Det betyder ungefär en timme tillbaka de flesta veckor, plus färre luckor i din logg.
Innan du börjar
- n8n-instans (prova n8n Cloud gratis)
- Alternativ för egen drift om du föredrar det (Hostinger fungerar bra)
- ScrapeGraphAI för AI-extraktion av artiklar från webbsidor.
- Google Sheets för att lagra och filtrera din nyhetslogg.
- ScrapeGraphAI API-nyckel (hämta den i din ScrapeGraphAI-dashboard)
Svårighetsnivå: Nybörjare. Du kopplar in autentisering, väljer en URL att bevaka och säkerställer att kolumnerna i arket matchar arbetsflödets output.
Vill du att någon bygger detta åt dig? Prata med en automationsexpert (gratis 15-minuters konsultation).
Steg för steg
En tidsstyrd trigger kör din insamling. Du väljer frekvensen (varje timme, dagligen, bara vardagar). n8n startar arbetsflödet automatiskt, så du slipper komma ihåg att “göra grejen”.
ScrapeGraphAI extraherar artikeldata. Arbetsflödet skickar din målsajts URL till ScrapeGraphAI, tillsammans med instruktioner för att hämta fält som titel, url och kategori. Det är utformat för nyhetssidor där artiklar listas i ett flöde eller en sektion.
Ett Code-steg rensar och formar om fält. Här konverteras råextraktionen till exakt den struktur Google Sheets förväntar sig, så att varje datapunkt hamnar i rätt kolumn utan manuell efterfix.
Google Sheets lagrar outputen. Varje artikel blir en ny rad som du kan sortera, filtrera och dela. Om du vill bevaka flera källor kan du duplicera skrap-delen och ha ett gemensamt masterark.
Du kan enkelt ändra mål-URL:en för att bevaka andra publikationer, eller utöka fälten till att inkludera författare, publiceringsdatum eller en kort sammanfattning. Se den fullständiga implementationsguiden nedan för anpassningsalternativ.
Steg-för-steg-guide för implementering
Steg 1: Konfigurera schematriggern
Det här arbetsflödet startar enligt ett tidsstyrt schema för att dra igång nyhetsskrapningscykeln.
- Lägg till noden Timed Collection Trigger på er arbetsyta.
- I Timed Collection Trigger anger ni det schemaintervall ni vill köra (till exempel varje timme eller dagligen).
- Koppla Timed Collection Trigger till AI News Extraction för att matcha körflödet.
Steg 2: Anslut skrapkällan
Skrapsteget hämtar artiklar från målsajten med hjälp av en strukturerad prompt.
- Välj noden AI News Extraction.
- Ställ in Website URL till
https://www.bbc.com/. - Ställ in User Prompt till
Extract all the articles from this site. Use the following schema for response { "request_id": "5a9de102-8a43-4e89-8aae-397c9ca80a9b", "status": "completed", "website_url": "https://www.bbc.com/", "user_prompt": "Extract all the articles from this site.", "title": "'My friend died right in front of me' - Student describes moment air force jet crashed into school", "url": "https://www.bbc.com/news/articles/cglzw8y5wy5o", "category": "Asia" }. - Inloggningsuppgifter krävs: Anslut era scrapegraphAIApi-inloggningsuppgifter.
Steg 3: Konfigurera bearbetningsnoden
Data transformeras till rena fält innan den sparas i arket.
- Öppna Shape Article Fields.
- Klistra in JavaScript-koden i Code så att den mappar resultatet till
title,urlochcategoryfråninputData.result.articles. - Bekräfta att noden ger ett objekt per artikel med fälten
title,urlochcategory.
inputData.result.articles finns i inkommande JSON.Steg 4: Konfigurera utdatadestinationen
Det sista steget lägger till varje artikel i Google Sheets.
- Öppna Append Sheet Records.
- Ställ in Operation till
append. - Ställ in Document till er Google Sheets-URL (i fältet Document ID).
- Ställ in Sheet Name till
Sheet1. - Säkerställ att kolumnerna mappas för
title,urlochcategorymed Auto Map Input Data. - Inloggningsuppgifter krävs: Anslut era googleSheetsOAuth2Api-inloggningsuppgifter.
Steg 5: Testa och aktivera ert arbetsflöde
Kör ett manuellt test för att bekräfta att artiklar extraheras och läggs till i ert kalkylark.
- Klicka på Execute Workflow för att trigga Timed Collection Trigger manuellt.
- Verifiera att AI News Extraction returnerar artiklar och att Shape Article Fields ger rena fält för
title,urlochcategory. - Kontrollera ert Google Sheet för att bekräfta att nya rader lades till av Append Sheet Records.
- Slå på arbetsflödet till Active för att köra enligt schemat som ställts in i Timed Collection Trigger.
Felsökningstips
- ScrapeGraphAI-autentisering kan gå ut eller vara kopplad till kontostatus. Om det slutar fungera, kontrollera först din ScrapeGraphAI-dashboard (API-nyckelns giltighet och användningsgränser).
- Om du använder Wait-noder eller extern rendering varierar processtiderna. Öka väntetiden om noder längre fram misslyckas på grund av tomma svar.
- Standardprompter i AI-noder är generiska. Lägg in din tonalitet tidigt, annars kommer du redigera output i all evighet.
Snabba svar
Cirka 10–15 minuter om dina konton är redo.
Nej. Du klistrar mest in din webbplats-URL, kopplar autentisering och testar en körning.
Ja. n8n har ett gratis alternativ för egen drift och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna in ScrapeGraphAI API-användning baserat på hur ofta du skrapar och hur många sidor du bearbetar.
Två alternativ: n8n Cloud (hanterat, enklast att sätta upp) eller egen drift på en VPS. För egen drift är Hostinger VPS prisvärt och hanterar n8n bra. Egen drift ger dig obegränsade exekveringar men kräver grundläggande serverhantering.
Ja, och det bör du. Byt webbplats-URL:en i noden “AI News Extraction” för att rikta in dig på en annan publikation och justera sedan extraktionsprompten för att fånga extra fält som författare, datum eller en kort sammanfattning. Om du vill ha mer strukturerad spårning kan du ändra skrivbeteendet i Google Sheets från append till en upsert-liknande metod så att dubbletter inte staplas. Du kan också lägga till ett enkelt filter i code-steget “Shape Article Fields” för att bara behålla vissa kategorier.
Oftast beror det på en ogiltig eller utgången API-nyckel i n8n. Generera en ny nyckel i ScrapeGraphAI, uppdatera autentiseringen i din n8n-instans och kör sedan en enskild testexekvering igen. Om det fortfarande misslyckas, kontrollera kontogränser eller rate limits och bekräfta att målsajten inte blockerar förfrågningar eller returnerar en annan sidlayout än förväntat.
Det beror mer på din server och ScrapeGraphAI-gränser än på själva arbetsflödet, men de flesta team kör detta varje timme eller dagligen över en handfull källor utan problem.
Ofta, ja, eftersom det här arbetsflödet bygger på en community-nod och lite dataformning som är enklare att styra i n8n. n8n gör det också enkelt att lägga till förgreningar, omförsök och datarensning utan att betala extra för varje “steg”. Zapier eller Make kan fungera för väldigt enkel loggning, men skrapupplägg tenderar att bli sköra om du inte kan finjustera logiken. Om du väljer mellan verktyg är det snabbaste att kartlägga dina källor och din frekvens, och sedan välja plattformen som inte straffar dig för att iterera. Prata med en automationsexpert om du vill ha en second opinion.
När detta väl rullar blir kalkylarket vanan. Inte du. Sätt upp det, låt det samla in, och använd tiden du får tillbaka till beslut istället för merarbete.
Kontakta oss
Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.