Din ”läs senare”-lista är förmodligen en kyrkogård. Du sparar en länk från Reddit, skärmdumpar en tråd, kanske bokmärker en guide – och sedan försvinner den under nästa våg av flikar.
Det här är exakt den typ av röra som drabbar marknadsförare som behöver nya vinklar, byråägare som bygger intern utbildning och operatörer som vill vässa sig utan att doomscrolla. Med en Reddit Sheets-logg samlar du de bästa lärlänkarna automatiskt och behåller en enda strukturerad lista som teamet faktiskt kan använda.
Det här arbetsflödet hämtar från Reddit och RSS, filtrerar bort promo-brus med AI och lägger bara in det användbara i Google Sheets. Du får se hur det fungerar, vad du behöver och vad du kan justera så att flödet matchar dina mål.
Så fungerar den här automatiseringen
Hela n8n-arbetsflödet, från trigger till slutligt resultat:
n8n Workflow Template: Reddit + Google Sheets: strukturerad logg för länkar
flowchart LR
subgraph sg0["Schedule Trigger - Twice Daily Flow"]
direction LR
n0@{ icon: "mdi:play-circle", form: "rounded", label: "Schedule Trigger - Twice Daily", pos: "b", h: 48 }
n1@{ icon: "mdi:swap-vertical", form: "rounded", label: "Workflow Configuration", pos: "b", h: 48 }
n2@{ icon: "mdi:database", form: "rounded", label: "Get Keywords from Google She..", pos: "b", h: 48 }
n3["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/code.svg' width='40' height='40' /></div><br/>Loop Over Keywords"]
n4@{ icon: "mdi:cog", form: "rounded", label: "Search RSS Feeds", pos: "b", h: 48 }
n5["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/merge.svg' width='40' height='40' /></div><br/>Merge All Search Results"]
n6["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/code.svg' width='40' height='40' /></div><br/>Prepare Articles for AI"]
n7@{ icon: "mdi:robot", form: "rounded", label: "AI Content Filter", pos: "b", h: 48 }
n8["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/code.svg' width='40' height='40' /></div><br/>Parse AI Response"]
n9@{ icon: "mdi:brain", form: "rounded", label: "OpenAI Chat Model", pos: "b", h: 48 }
n10["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/httprequest.dark.svg' width='40' height='40' /></div><br/>Search Reddit via API"]
n11@{ icon: "mdi:database", form: "rounded", label: "Save to Google Sheets", pos: "b", h: 48 }
n4 --> n5
n7 --> n8
n9 -.-> n7
n8 --> n11
n3 --> n4
n3 --> n10
n10 --> n5
n1 --> n2
n6 --> n7
n5 --> n6
n0 --> n1
n2 --> n3
end
%% Styling
classDef trigger fill:#e8f5e9,stroke:#388e3c,stroke-width:2px
classDef ai fill:#e3f2fd,stroke:#1976d2,stroke-width:2px
classDef aiModel fill:#e8eaf6,stroke:#3f51b5,stroke-width:2px
classDef decision fill:#fff8e1,stroke:#f9a825,stroke-width:2px
classDef database fill:#fce4ec,stroke:#c2185b,stroke-width:2px
classDef api fill:#fff3e0,stroke:#e65100,stroke-width:2px
classDef code fill:#f3e5f5,stroke:#7b1fa2,stroke-width:2px
classDef disabled stroke-dasharray: 5 5,opacity: 0.5
class n0 trigger
class n7 ai
class n9 aiModel
class n2,n11 database
class n10 api
class n3,n6,n8 code
classDef customIcon fill:none,stroke:none
class n3,n5,n6,n8,n10 customIcon
Problemet: lärinnehåll försvinner i bruset
Att hitta bra material att lära sig av är inte det svåra. Det svåra är att fånga det, spara det och kunna hitta det igen när du faktiskt har tid att lära dig. Reddit har guldkorn, men också självpromotion och ”hot takes” som slösar bort en eftermiddag. RSS-flöden är lugnare, men de bygger ändå upp snabbt. När du sparar länkar manuellt får du dubbletter, saknar sammanhang och sitter med en lista du inte litar på. Då slutar du använda den, börjar om och upprepar nästa månad.
Det eskalerar snabbt. Här är var det faller isär i praktiken.
- Du lägger cirka 20 minuter om dagen på att samla länkar och missar ändå de bästa inläggen.
- Marknadsföringsinnehåll smyger sig in eftersom ”ser användbart ut” är svårt att bedöma i högt tempo.
- Dina sparade länkar saknar ett konsekvent format, vilket gör sökning och delning irriterande.
- När du vill skala detta till ett team använder alla olika system och inget sätter sig.
Lösningen: en AI-filtrerad logg med lärlänkar i Google Sheets
Det här arbetsflödet körs enligt schema (två gånger per dag som standard) och bygger ett kurerat ”lärflöde” åt dig automatiskt. Först läser det in din nyckelordslista från Google Sheets, så att du inte behöver redigera automatiseringen varje gång dina prioriteringar ändras. Sedan söker det i två källor per nyckelord: RSS-flöden du anger och Reddit-resultat som hämtas via en HTTP-förfrågan. Arbetsflödet slår ihop resultaten, formaterar dem till ett strukturerat paket och skickar det till en AI-agent som filtrerar fram det du faktiskt vill ha: utbildande, relevant och icke-promotionellt. Till sist tolkar det AI-utdata och lägger till vinnarna i en Google Sheets-logg som du kan skanna, sortera och dela.
Arbetsflödet börjar med ditt schema och ditt nyckelordsark. Det samlar kandidater från RSS och Reddit och använder sedan OpenAI (via en AI-agentnod) för att avgöra vad som kvalar in. Slutresultatet är en prydlig, rad-för-rad-backlogg i Sheets, redo för granskning eller distribution.
Det du får: automatisering kontra resultat
| Vad det här arbetsflödet automatiserar | Resultat du får |
|---|---|
|
|
Exempel: så här ser det ut
Säg att du följer 10 nyckelord (som ”GA4”, ”cold email”, ”YouTube scripts”) och att du följer 5 RSS-källor. Manuellt tar en snabb genomgång av RSS plus några Reddit-sökningar lätt 10 minuter per nyckelord, så det blir cirka 100 minuter per cykel, och du måste fortfarande kopiera länkar till ett dokument. Med det här arbetsflödet som körs två gånger dagligen: du lägger kanske 5 minuter på att uppdatera nyckelord när prioriteringar skiftar, och sedan granskar du bara sheetet i 10 minuter. Det är ungefär en timme tillbaka per dag när du är i ett intensivt researchläge.
Det här behöver du
- n8n-instans (testa n8n Cloud gratis)
- Alternativ för egen hosting om du föredrar det (Hostinger fungerar bra)
- Google Sheets för nyckelordsinput och länk-lagring
- OpenAI för att filtrera och klassificera artiklar med AI
- RSS-flödes-URL:er (samla från sajter du litar på)
Kunskapsnivå: Nybörjare. Du kopplar konton, klistrar in flödes-URL:er och justerar en prompt.
Vill du inte sätta upp detta själv? Prata med en automationsexpert (gratis 15-minuters konsultation).
Så fungerar det
Ett schema triggar körningen två gånger per dag. Arbetsflödet är inställt att köra vid fasta tider (standard är morgon och kväll), vilket gör att din logg hålls uppdaterad utan att du behöver komma ihåg att kolla något.
Din nyckelordslista hämtas från Google Sheets. Ett ark fungerar som en kontrollpanel: lägg till nyckelord, ta bort gamla eller justera hur breda sökningar du vill göra.
RSS-flöden och Reddit-resultat samlas in och slås sedan ihop. RSS hämtas via en RSS Reader-nod, medan Reddit frågas via en HTTP request. Båda strömmarna kombineras så att du kan bedöma dem med samma regler.
En AI-agent filtrerar på ”värt att spara”. Arbetsflödet formaterar varje kandidat (titel, utdrag, URL, källa), skickar det genom ett AI-relevansfilter med en OpenAI-chatmodell och gör svaret till ett enkelt ja/nej plus anteckningar som du kan granska senare.
Endast de kurerade länkarna läggs till i din Sheets-logg. Slutresultatet är ett växande kalkylark som du kan sortera på nyckelord, datum eller källa. Du kan enkelt ändra källorna (RSS-lista, subreddits eller till och med lägga till en ny kanal) så att det matchar vad teamet faktiskt läser. Se hela implementationsguiden nedan för alternativ för anpassning.
Steg-för-steg-guide för implementering
Steg 1: konfigurera den schemalagda triggern
Ställ in schemat som startar arbetsflödet två gånger per dag.
- Lägg till eller öppna Scheduled Run Twice Daily och ställ in regeln så att den triggar vid
8och18timmar. - Bekräfta att Scheduled Run Twice Daily är kopplad till Setup Parameters som första steg i flödet.
Steg 2: anslut Google Sheets
Ge åtkomst till kalkylarket för både läsning av nyckelord och skrivning av resultat.
- Öppna Retrieve Sheet Keywords och välj Document med
[YOUR_ID]och Sheetgid=0. - Öppna Append to Sheets Log och välj Document
[YOUR_ID]och Sheet[YOUR_ID]. - Verifiera att kolumnmappningen i Append to Sheets Log använder uttryck: URL
{{ $json.url }}, Title{{ $json.title }}, Source{{ $json.source }}, Added Date{{ $now.toISO() }}, Description{{ $json.description }}. - Inloggningsuppgifter krävs: Anslut era Google Sheets-inloggningsuppgifter i både Retrieve Sheet Keywords och Append to Sheets Log (inloggningsuppgifter krävs men är inte konfigurerade).
Steg 3: konfigurera parameter- och nyckelordsbearbetning
Definiera RSS-flöden och normalisera nyckelordsrader innan ni söker i källor.
- I Setup Parameters, ställ in rssFeeds till en kommaseparerad lista med URL:er (ersätt
<__PLACEHOLDER_VALUE__Comma-separated RSS feed URLs to monitor__>med riktiga flöden). - Säkerställ att Retrieve Sheet Keywords ger ut en kolumn med namnet
keywordellerKeyword, som Iterate Keyword List tolkar. - Granska koden i Iterate Keyword List och bekräfta att den trimmar och ger ut
{ "keyword": "..." }för varje rad.
Steg 4: konfigurera källinsamling och parallell hämtning
Hämta innehåll från RSS och Reddit samtidigt och slå ihop resultaten för AI-utvärdering.
- Ställ in Query RSS Sources URL till
{{ $('Setup Parameters').first().json.rssFeeds.split(',')[0] }}så att den läser det första flödet från era parametrar. - I Reddit Search Request, behåll URL som
https://www.reddit.com/search.jsonoch ställ in frågeparametrar tillq={{ $json.keyword }},limit=10,sort=relevance. - Iterate Keyword List skickar utdata till både Query RSS Sources och Reddit Search Request parallellt.
- Ställ in Combine Source Results till Mode
combineoch Combine BycombineAllför att slå ihop båda källflödena innan formatering. - Bekräfta att Format Articles for AI tar emot den sammanslagna indata och returnerar
articles,articlesTextochkeywordtill AI-steget.
Steg 5: konfigurera AI-filtrering
Använd AI-agenten för att filtrera fram endast det mest relevanta innehållet för lärande.
- I AI Relevance Filter, behåll prompttexten och verifiera att den använder
{{ $json.keyword }}och{{ $json.articlesText }}för att bedöma relevans. - Säkerställ att OpenAI Chat Engine är ansluten som språkmodell för AI Relevance Filter med modellen
gpt-4.1-mini. - Inloggningsuppgifter krävs: Anslut era OpenAI-inloggningsuppgifter i OpenAI Chat Engine (inloggningsuppgifter krävs men är inte konfigurerade). Lägg till inloggningsuppgifter i den överordnade modellnoden, inte i AI Relevance Filter.
- Validera att Interpret AI Output tolkar
$json.outputoch mappar valda artikelindex tillbaka till resultaten från Format Articles for AI.
[1, 3, 5].Steg 6: konfigurera utdata till Sheets
Spara valda artiklar i er Google Sheets-logg för senare granskning.
- I Append to Sheets Log, ställ in Operation till
appendOrUpdate. - Bekräfta att Matching Columns inkluderar
Titleför att undvika dubblettrader. - Säkerställ att indatafälten mappas från Interpret AI Output, som ger ut de valda artiklarna som individuella objekt.
Steg 7: testa och aktivera ert arbetsflöde
Kör en manuell exekvering för att validera end-to-end-flödet och aktivera därefter för schemalagda produktionskörningar.
- Klicka på Execute Workflow och följ dataflödet från Scheduled Run Twice Daily via Append to Sheets Log.
- Bekräfta att Combine Source Results tar emot objekt från både Query RSS Sources och Reddit Search Request för minst ett nyckelord.
- Verifiera att AI Relevance Filter returnerar en JSON-array och att Interpret AI Output skapar individuella artikelobjekt.
- Kontrollera ert Google Sheet för att bekräfta att nya rader har lagts till med förväntad URL, Title, Source, Added Date och Description.
- Växla arbetsflödet till Active för att aktivera automatiska körningar 08:00 och 18:00.
Vanliga fallgropar
- Google Sheets-inloggningar kan löpa ut eller kräva specifika behörigheter. Om det skapar fel: kontrollera först n8n:s credential manager och delningsinställningarna på målarket.
- Om du använder Wait-noder eller extern bearbetning kan timingen variera. Om AI-noden ibland returnerar tom output: öka väntetiden något eller minska batchstorleken så att efterföljande steg inte kör för tidigt.
- Standardprompter i AI-noder är generiska. Lägg in dina regler för ”vad som räknas som utbildande” tidigt (och inkludera exempel), annars kommer du redigera sheetet i all evighet.
Vanliga frågor
Cirka 30 minuter om dina konton är redo.
Nej. Du kopplar Google Sheets och OpenAI och klistrar sedan in dina RSS-flöden och nyckelord. Resten är bara lätt justering i klarspråk.
Ja. n8n har ett gratis alternativ för egen hosting och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna in kostnader för OpenAI API, som vanligtvis ligger på några cent per körning beroende på hur många länkar du utvärderar.
Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller egen hosting på en VPS. För egen hosting är Hostinger VPS prisvärd och hanterar n8n bra. Egen hosting ger dig obegränsat antal körningar men kräver grundläggande serveradministration.
Ja, och det är en smart justering. Du kan lägga till en ”team”-kolumn i Google Sheet och justera prompten i AI Relevance Filter så att den prioriterar olika ämnen per team (sales enablement vs. SEO vs. produkt). Om du vill distribuera kan du även routa de kurerade resultaten till Slack efter steget ”Interpret AI Output”, samtidigt som du fortsätter att lägga till allt i Sheets som single source of truth.
Oftast handlar det om behörigheter eller en utgången inloggning. Anslut Google Sheets på nytt i n8n och bekräfta sedan att exakt det kalkylark du använder är delat med det anslutna Google-kontot. Kontrollera också att fliknamnet i arket matchar vad arbetsflödet förväntar sig, eftersom en omdöpt flik ser ut som ”saknade data” för n8n.
Många.
Ofta, ja, för just det här användningsfallet. Så fort du lägger till loopar över nyckelordslistor, slår ihop två källor och skickar strukturerad text genom ett AI-filter börjar enklare ”tvåstegs”-byggare kännas trånga. n8n hanterar branching och batching snyggt, och egen hosting tar bort pressen att ”varje körning kostar extra” när du kör det två gånger per dag. Zapier eller Make kan fortfarande fungera om du bara behöver en källa (bara RSS, till exempel) och ingen AI-bedömning. Om du är osäker: prata med en automationsexpert och välj det enklaste verktyget som inte låser in dig senare.
Du sätter upp det en gång, och sedan håller arbetsflödet tyst din lärpipeline full av signal. Ärligt talat är det svårt att gå tillbaka till manuell sparning när du har använt en strukturerad logg i en vecka.
Kontakta oss
Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.