Behöver ert företag hjälp med att implementera AI? Kontakta oss och få prisoffert här →
AI Skolan
januari 22, 2026

RSS till Google Sheets med AI-sammanfattningar

Rickard Andersson Partner, Nodenordic.se

Dina flöden känns inte som ”research”. De känns som en andra inkorg. Du öppnar tio flikar, skummar snabbt, tappar bort guldkornen och måste ändå göra om allt till något användbart.

Här gör RSS-sammanfattningsautomatisering som mest nytta. Innehållsmarknadsförare som vill hålla sig uppdaterade, grundare som gör konkurrensbevakning och analytiker som bygger veckodigester fastnar alla i samma loop: läsa, kopiera, klistra in, glömma.

Det här arbetsflödet hämtar nya artiklar från flera RSS-flöden, sammanfattar dem konsekvent med AI och loggar allt i Google Sheets så att du kan skumma, filtrera och dela utan kaos.

Så här fungerar automatiseringen

Det kompletta n8n-arbetsflödet, från trigger till slutligt resultat:

n8n Workflow Template: RSS till Google Sheets med AI-sammanfattningar

Problemet: att läsa RSS blir dubbelarbete

Att hänga med i flera RSS-flöden låter enkelt tills du faktiskt gör det i en vecka. Du skummar en artikel på morgonen och öppnar sedan samma flik igen senare eftersom du inte minns huvudpoängen. Du antecknar i ett dokument, kopierar sedan några rader till Slack och inser att du fortfarande behöver en korrekt formaterad sammanfattning till din content brief. Under tiden fortsätter flödena att publicera. Resultatet är förutsägbart: för många halvlästa items, röriga anteckningar och ett ”system” som bara fungerar när du har tid över (vilket du inte har).

Friktionen byggs på. Här är var det faller isär i verkligheten.

  • Du läser om samma artiklar eftersom det inte finns en enda plats att fånga insikterna på.
  • Manuella anteckningar blir inkonsekventa, så att skumma i efterhand blir långsamt och frustrerande.
  • Dubbletter smyger sig in när flöden återpublicerar, ändrar URL:er eller syndikerar innehåll.
  • Att dela ”insikter” blir ännu en uppgift eftersom dina sammanfattningar inte är klara att klistra in.

Lösningen: AI-sammanfattningar skickas till Google Sheets automatiskt

Det här arbetsflödet bevakar dina RSS-flöden enligt ett schema (eller körs manuellt när du vill). Det hämtar nya inlägg från de senaste X dagarna, kontrollerar i ditt Google Sheet att du inte redan har processat samma URL, och hämtar sedan hela artikelinnehållet när det faktiskt är nytt. Därefter extraherar det den användbara brödtexten, konverterar rörig HTML till korrekt formaterad markdown och skickar det till en AI-modell (via OpenRouter) för att skapa en strukturerad sammanfattning. Till sist städar arbetsflödet upp sammanfattningstexten och lägger till en snygg rad i Google Sheets, inklusive källetikett och artikelns URL, så att din ”läsning” blir en sökbar databas i stället för utspridda flikar.

Arbetsflödet startar med en schemalagd trigger som laddar din flödlista från en flik som heter ”RSS FEEDS” i Google Sheets. Det processar flöden i batchar, filtrerar till nyliga items och skapar bara sammanfattningar när URL:en inte redan är loggad. Allt landar där det ska: ett konsekvent ark som teamet kan skumma på några minuter.

Vad du får: automatisering vs. resultat

Exempel: så här ser det ut

Säg att du bevakar 12 RSS-flöden och vanligtvis skummar 5 nya artiklar per dag. Manuellt tar även ”snabbläsning” plus att kopiera anteckningar till ett dokument kanske 10 minuter per artikel, alltså runt 50 minuter om dagen, och du slutar ändå med att kolla länkar igen senare. Med det här arbetsflödet lägger du cirka 5 minuter en gång på att ställa in dina flöden och filtret ”senaste X dagar”, och sedan landar nya items i Google Sheets automatiskt med konsekventa sammanfattningar. Du går igenom arket i ett svep, vilket brukar vara under 10 minuter. Det är ungefär 40 minuter tillbaka per dag, utan att du behöver anstränga dig mer.

Det här behöver du

  • n8n-instans (prova n8n Cloud gratis)
  • Alternativ för självhosting om du föredrar det (Hostinger fungerar bra)
  • Google Sheets för att lagra flödlista och sammanfattningar.
  • OpenRouter för att köra en Gemini-modell för sammanfattningar.
  • OpenRouter API-nyckel (hämta den i din OpenRouter-dashboard).

Svårighetsgrad: Medel. Du kopplar konton, klistrar in en API-nyckel och justerar en eller två filtreringsinställningar.

Vill du inte sätta upp det här själv? Prata med en automatiseringsexpert (gratis 15-minuters konsultation).

Så fungerar det

En schemalagd körning sätter igång allt. Arbetsflödet startar varje timme enligt schema (eller så kan du köra det manuellt) och laddar sedan din RSS-katalog från Google Sheets så att flödlistan kan uppdateras av icke-tekniska kollegor.

Nyliga items filtreras och processas i batchar. n8n läser varje flöde, begränsar items till de senaste X dagarna och itererar posterna på ett kontrollerat sätt så att du inte dränker ditt ark eller din AI-leverantör med en plötslig backlog.

Dubbletter stoppas innan någon AI-kostnad uppstår. För varje artikel slår det upp URL:en i ditt befintliga Google Sheet. Om URL:en redan finns där hoppar arbetsflödet över den och går vidare. Enkelt. Effektivt.

Hela innehållet hämtas, rensas och sammanfattas. När en artikel är ny hämtar arbetsflödet sidans HTML, extraherar huvudinnehållets markup, konverterar det till markdown och skickar det till AI-agenten (OpenRouter/Gemini) för att producera en strukturerad sammanfattning med takeaways och praktiska insikter.

Slutresultatet hamnar i Google Sheets. Den rensade sammanfattningen och metadata (källetikett, URL och andra fält du väljer) läggs till som en ny rad, vilket ger dig en levande researchdatabas som du kan sortera, filtrera och dela.

Du kan enkelt justera tidsfönstret (senaste X dagar) så att det matchar din läsrytm, eller ändra sammanfattningsformatet för olika team. Se den fullständiga implementeringsguiden nedan för anpassningsalternativ.

Steg-för-steg-guide för implementering

Steg 1: Konfigurera triggertypen

Ställ in hur workflowet startar, antingen manuellt eller enligt ett schema, och skicka inledande konfigurationsvärden.

  1. Öppna Manual Execution Start om ni vill köra workflowet vid behov; inga fält krävs.
  2. Öppna Scheduled Automation Trigger och ställ in schemaregelns intervall till hours om ni vill ha automatiska körningar.
  3. I Configuration Set, ställ in Document till https://docs.google.com/spreadsheets/d/[YOUR_ID].
  4. Ställ in Articles Sheet till https://docs.google.com/spreadsheets/d/[YOUR_ID] och Rss Feeds till https://docs.google.com/spreadsheets/d/[YOUR_ID].
  5. Låt Current Time vara uttrycket {{ $workflow.trigger === 'Scheduled Automation Trigger' ? $('Scheduled Automation Trigger').item.json.timestamp : $now }} för att stödja både manuella och schemalagda körningar.
  6. Ställ in Last X Days till 31 för att styra hur långt tillbaka ni letar efter nya objekt.
Använd Manual Execution Start när ni bygger och felsöker, och byt sedan till Scheduled Automation Trigger för produktionskörningar.

Steg 2: Anslut Google Sheets

Anslut era kalkylark för feedkällor, uppslag och lagring av output.

  1. Öppna Fetch Feed Directory och bekräfta att Sheet Name är {{ $json["Rss Feeds"] }} och att Document ID är {{ $json.Document }}.
  2. Inloggning krävs: Anslut era googleSheetsOAuth2Api-inloggningsuppgifter i Fetch Feed Directory.
  3. Öppna Lookup URL in Sheet och bekräfta att filtret använder lookupColumn link med lookupValue {{ $json.link }}.
  4. Ställ in Sheet Name till {{ $('Configuration Set').item.json["Articles Sheet"] }} och Document ID till {{ $('Configuration Set').item.json.Document }} i Lookup URL in Sheet.
  5. Inloggning krävs: Anslut era googleSheetsOAuth2Api-inloggningsuppgifter i Lookup URL in Sheet.
  6. Öppna Append Summary to Sheets och låt Operation vara inställd på appendOrUpdate med useAppend aktiverat.
  7. Inloggning krävs: Anslut era googleSheetsOAuth2Api-inloggningsuppgifter i Append Summary to Sheets.
⚠️ Vanlig fallgrop: Säkerställ att Articles Sheet har kolumnerna link, title, source, pubDate, ai summary och categories för att matcha mappningen i Append Summary to Sheets.

Steg 3: Konfigurera tolkning och filtrering av RSS-källor

Läs feedkatalogen, tolka RSS-objekt och filtrera fram nyliga poster innan bearbetning.

  1. I Iterate Feed List, låt batchinställningarna vara som de är för att gå igenom feedrader från Fetch Feed Directory.
  2. Öppna Parse RSS Sources och ställ in URL till {{ $json["RSS URL"] }}.
  3. I Attach Source Label, låt Include Other Fields vara aktiverat och ställ in RSS NAME till {{ $('Iterate Feed List').item.json["RSS NAME"] }}.
  4. Öppna Filter Recent Items och säkerställ att villkoret jämför leftValue {{ $json.pubDate }} med uttrycket {{ $('Configuration Set').item.json['Current Time'].toDateTime().minus($('Configuration Set').item.json['Last X Days'],'days').startOf('day') }}.
  5. Bekräfta att Iterate Feed Entries följer efter Filter Recent Items för att batcha enskilda artiklar.
Körvägen är sekventiell, men Iterate Feed List skickar output både till Filter Recent Items och Parse RSS Sources parallellt, så säkerställ att båda grenarna är anslutna.

Steg 4: Ställ in innehämtning och AI-sammanfattning

Hämta artikel-HTML, extrahera läsbart innehåll, konvertera till Markdown och generera en AI-sammanfattning.

  1. I Lookup URL in Sheet, låt alwaysOutputData vara aktiverat så att Verify Article Presence kan upptäcka dubbletter.
  2. Öppna Verify Article Presence och behåll villkoret {{ $item("0").$node["Lookup URL in Sheet"].json }} inställt på att kontrollera om uppslagsresultatet är tomt.
  3. I Retrieve Page HTML, ställ in URL till {{ $('Iterate Feed Entries').item.json.link }} och behåll svarformatet som text.
  4. I Extract Body Markup, låt operation vara inställd på extractHtmlContent och selektorn body returnera html.
  5. I HTML to Markdown Transform, ställ in HTML till {{ $json.data }} och låt ignore vara inställd på img,form.
  6. Öppna Generate Summary och verifiera att prompten i Text använder uttrycket med itemfält som {{ $('Iterate Feed Entries').item.json.title }} och innehåll {{ $json.data }}.
  7. Öppna LLM Chat Provider och ställ in Model till google/gemini-2.5-flash.
  8. Inloggning krävs: Anslut era openRouterApi-inloggningsuppgifter i LLM Chat Provider.
⚠️ Vanlig fallgrop: LLM Chat Provider är språkmodellen för Generate Summary—lägg till inloggningsuppgifter i LLM Chat Provider, inte i Generate Summary.

Steg 5: Konfigurera lagring av output och loopning

Rensa AI-outputen och lägg till resultat i er artikellogg, och loopa sedan till nästa post.

  1. I Clean Summary Text, ställ in text till {{ $json.text.replace(/[\s\S]*?<\/think>/g, '') }} för att ta bort artefakter från modellens resonemang.
  2. I Append Summary to Sheets, bekräfta kolumnmappningar: link, title, source, pubDate, ai summary och categories från uttrycken som visas i noden.
  3. Säkerställ att anslutningsvägen Append Summary to SheetsIterate Feed Entries är intakt för att fortsätta bearbeta batchar.
  4. Bekräfta att Iterate Feed Entries avslutas vid Workflow Terminus när inga fler objekt återstår.

Steg 6: Testa och aktivera ert workflow

Validera att objekt filtreras, sammanfattas och lagras korrekt innan ni aktiverar schemat.

  1. Klicka på Execute Workflow med start från Manual Execution Start för att testa flödet från start till mål.
  2. Kontrollera att Lookup URL in Sheet förhindrar dubbletter och att nya rader visas i Append Summary to Sheets med ai summary ifyllt.
  3. Verifiera att Filter Recent Items endast släpper igenom poster inom de senaste 31 dagarna.
  4. När allt fungerar, aktivera workflowet och förlita er på Scheduled Automation Trigger för löpande körningar.
🔒

Lås upp fullständig steg-för-steg-guide

Få den kompletta implementeringsguiden + nedladdningsbar mall

Vanliga fallgropar

  • Google Sheets-inloggningar kan löpa ut eller kräva specifika behörigheter. Om något skapar fel, kontrollera först det anslutna Google-kontot i n8n:s Credential-vy.
  • Om du använder Wait-noder eller extern rendering varierar processtiderna. Öka väntetiden om nedströmsnoder fallerar på tomma svar.
  • OpenRouter-nycklar (Gemini) kan vara giltiga men ändå fallera på grund av modellåtkomst eller rate limits. Bekräfta din API-nyckel, vald modell i noden LLM Chat Provider och dina användningsgränser i OpenRouter.

Vanliga frågor

Hur lång tid tar det att sätta upp den här RSS-sammanfattningsautomatiseringen?

Cirka 30 minuter om ditt Google Sheet och din API-nyckel är redo.

Behöver jag kodkunskaper för att automatisera RSS-sammanfattningsautomatisering?

Nej. Du kopplar konton och klistrar in en API-nyckel. Det mesta av jobbet är att mappa de fält du vill spara till Google Sheets.

Är n8n gratis att använda för det här arbetsflödet för RSS-sammanfattningsautomatisering?

Ja. n8n har ett gratis alternativ för självhosting och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna in OpenRouter-API-användning, vilket vanligtvis är några cent per batch av sammanfattningar beroende på artikelns längd.

Var kan jag hosta n8n för att köra den här automatiseringen?

Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller självhosting på en VPS. För självhosting är Hostinger VPS prisvärd och hanterar n8n bra. Självhosting ger dig obegränsade körningar men kräver grundläggande serverhantering.

Kan jag anpassa det här arbetsflödet för RSS-sammanfattningsautomatisering till ett annat sammanfattningsformat?

Ja, och det bör du. Uppdatera prompten i steget Generate Summary så att outputen matchar hur du faktiskt läser, till exempel kortare punkter, en rad med ”varför det spelar roll” eller en sektion för citat. Du kan också ändra fälten som skapas i stegen Clean Summary Text och Edit Fields (Set) för att lagra extra kolumner som kategori, målgrupp eller innehållsvinkel. Om du vill använda en annan modell byter du den i konfigurationen för LLM Chat Provider (OpenRouter) utan att ändra resten av flödet.

Varför fungerar inte min Google Sheets-anslutning i det här arbetsflödet?

Vanligtvis beror det på utgången Google-auktorisering eller fel Google-konto. Återanslut Google Sheets-credential i n8n och bekräfta sedan att målarket är delat med det kontot. Kontrollera också att flikarna i arket (till exempel fliken med din flödeskatalog) fortfarande har samma namn som används i arbetsflödet, eftersom ett namnbyte kan bryta uppslagningar.

Hur många artiklar kan den här RSS-sammanfattningsautomatiseringen hantera?

Många, så länge du kör i batchar. I n8n Cloud beror din månatliga körningsgräns på din plan, och varje artikel räknas vanligtvis som sin egen körningskedja. Om du självhostar finns ingen körningsgräns, men du begränsas av serverresurser och dina rate limits i OpenRouter. I praktiken är det realistiskt att processa några hundra artiklar per dag om du behåller batchning och undviker att dra hem enorma backlogs i en enda körning.

Är den här RSS-sammanfattningsautomatiseringen bättre än att använda Zapier eller Make?

Ofta, ja. n8n är bättre när du behöver förgreningslogik (hoppa över dubbletter, hämta HTML bara när det behövs, rensa text och sedan sammanfatta) eftersom arbetsflödet förblir lätt att följa och du inte betalar extra för varje villkorsgren. Det är också enklare att styra batchning, vilket spelar roll när ett flöde spottar ur sig 50 items på en gång. Zapier eller Make kan fortfarande fungera, men du landar oftast i flera scenarier och fler ”lim”-steg. Om du vill ha hjälp att välja, prata med en automatiseringsexpert så kvalitetssäkrar vi din setup.

När det här väl rullar blir din ”läslista” ett strukturerat flöde av beslut och idéer, inte öppna flikar. Sätt upp det en gång och granska sedan arket när det passar dig.

Kontakta oss

Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.

×

Använd mall

Få direkt tillgång till denna n8n-arbetsflödes JSON-fil

Launch login modal Launch register modal