Manuell lead-research på Reddit låter enkelt tills du sitter med 20 flikar, försöker minnas varför ett inlägg var viktigt och inser att du inte skrev ner något. Sedan ska du följa upp … och då är det borta.
Den här automatiseringen för Reddit lead logging slår hårdast mot marknadsförare, men grundare som sköter sin egen outreach känner av den också. Detsamma gäller byråteam som behöver en stabil pipeline utan att anställa en researcher. Resultatet är enkelt: inlägg fångas upp, kvalificeras, sammanfattas och loggas så att du kan följa upp snabbare.
Nedan ser du vad det här n8n-flödet gör, vilka resultat du kan förvänta dig och vad du behöver för att köra det stabilt.
Så här fungerar automatiseringen
Hela n8n-flödet, från trigger till slutligt resultat:
n8n Workflow Template: Reddit till google sheets, lead-anteckningar loggas
flowchart LR
subgraph sg0["When clicking ‘Test workflow’ Flow"]
direction LR
n0@{ icon: "mdi:play-circle", form: "rounded", label: "When clicking ‘Test workflow’", pos: "b", h: 48 }
n1@{ icon: "mdi:robot", form: "rounded", label: "Post Summarization", pos: "b", h: 48 }
n2["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/merge.svg' width='40' height='40' /></div><br/>Merge Input"]
n3@{ icon: "mdi:database", form: "rounded", label: "Output The Results", pos: "b", h: 48 }
n4["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/merge.svg' width='40' height='40' /></div><br/>Merge 3 Inputs"]
n5@{ icon: "mdi:swap-horizontal", form: "rounded", label: "Filter Posts By Features", pos: "b", h: 48 }
n6@{ icon: "mdi:swap-horizontal", form: "rounded", label: "Filter Posts By Content", pos: "b", h: 48 }
n7@{ icon: "mdi:swap-vertical", form: "rounded", label: "Select Key Fields", pos: "b", h: 48 }
n8["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/reddit.svg' width='40' height='40' /></div><br/>Get Posts"]
n9@{ icon: "mdi:brain", form: "rounded", label: "OpenRouter Chat Model", pos: "b", h: 48 }
n10@{ icon: "mdi:brain", form: "rounded", label: "OpenRouter Chat Model1", pos: "b", h: 48 }
n11@{ icon: "mdi:robot", form: "rounded", label: "Basic LLM Chain", pos: "b", h: 48 }
n12@{ icon: "mdi:swap-vertical", form: "rounded", label: "Edit Fields", pos: "b", h: 48 }
n13@{ icon: "mdi:swap-vertical", form: "rounded", label: "Edit Fields1", pos: "b", h: 48 }
n8 --> n5
n12 --> n4
n2 --> n6
n13 --> n4
n4 --> n3
n11 --> n2
n7 --> n2
n7 --> n11
n1 --> n12
n9 -.-> n11
n10 -.-> n1
n6 --> n1
n6 --> n13
n5 --> n7
n0 --> n8
end
%% Styling
classDef trigger fill:#e8f5e9,stroke:#388e3c,stroke-width:2px
classDef ai fill:#e3f2fd,stroke:#1976d2,stroke-width:2px
classDef aiModel fill:#e8eaf6,stroke:#3f51b5,stroke-width:2px
classDef decision fill:#fff8e1,stroke:#f9a825,stroke-width:2px
classDef database fill:#fce4ec,stroke:#c2185b,stroke-width:2px
classDef api fill:#fff3e0,stroke:#e65100,stroke-width:2px
classDef code fill:#f3e5f5,stroke:#7b1fa2,stroke-width:2px
classDef disabled stroke-dasharray: 5 5,opacity: 0.5
class n0 trigger
class n1,n11 ai
class n9,n10 aiModel
class n5,n6 decision
class n3 database
classDef customIcon fill:none,stroke:none
class n2,n4,n8 customIcon
Problemet: Reddit-leads dör i dina webbläsarflikar
Reddit är fullt av inlägg med hög intention, men att “hitta” dem är inte samma sak som att använda dem. Du ser en tråd där någon tydligt ber om hjälp, tänker “jag kommer tillbaka”, och sedan rinner dagen iväg. Eller så klistrar du in en länk i ett dokument utan sammanhang, så en vecka senare är det bara en slumpmässig URL. Än värre: du svarar sent, efter att TS redan har valt en lösning. Ärligt talat är den mentala belastningen det som knäcker en. Du gör research, triagering, anteckningar och minneshantering samtidigt.
Det går fort att tappa kontrollen. Här är var processen oftast fallerar.
- Du lägger cirka 10 minuter per lovande inlägg bara på att fånga kontext, och det blir ändå ofullständigt.
- Lead-kvaliteten blir inkonsekvent eftersom du bedömer “intention” i huvudet i stället för med ett repeterbart filter.
- Bra trådar försvinner när du har mycket att göra, vilket gör att du följer upp sent eller inte alls.
- Ditt CRM får aldrig med research i tidigt skede, så pipelinen ser tom ut även när Reddit kokar.
Lösningen: Reddit-inlägg → AI-leadanteckningar → Google Sheets
Det här flödet gör Reddit-surfande till ett strukturerat system för lead-inhämtning. Det börjar med att hämta Reddit-inlägg baserat på nyckelord du bryr dig om, och kontrollerar sedan grundläggande engagemangssignaler så att du inte analyserar skräp. Därefter mappar det viktiga fält (titel, länk, mätvärden och andra nödvändigheter) och skickar innehållet genom en AI-“behovsklassificerare” för att förstå vad personen faktiskt försöker lösa. Om inlägget går igenom dina innehållskontroller skapar en AI-sammanfattare strukturerade, användbara anteckningar. Till sist slås allt ihop till en konsekvent post och läggs till i Google Sheets, så att varje lead blir sökbar, sorteringsbar och redo för outreach.
Flödet startar när du kör det i n8n (ofta schemalagt när du är nöjd). Därifrån sker hämtning från Reddit, filtrering, klassificering och sammanfattning automatiskt. Google Sheets blir din levande lead-anteckningsbok, uppdaterad vid varje körning.
Vad du får: automatisering vs. resultat
| Vad det här flödet automatiserar | Resultat du får |
|---|---|
|
|
Exempel: så här ser det ut i praktiken
Säg att du granskar 30 Reddit-inlägg per dag över några nyckelord. Manuellt: om du lägger cirka 5 minuter per inlägg på att öppna det, bedöma intention, hämta länken och skriva en användbar anteckning blir det ungefär 2,5 timmar. Med det här flödet kör du det en gång, väntar några minuter på AI-sammanfattningen, skummar sedan Google-arket på cirka 15 minuter och plockar de bästa leadsen. Netto: cirka 2 timmar tillbaka en vanlig dag, och dina anteckningar blir faktiskt konsekventa.
Det här behöver du
- n8n-instans (prova n8n Cloud gratis)
- Alternativ för egen hosting om du föredrar det (Hostinger fungerar bra)
- Reddit för att hämta inlägg via en OAuth-app.
- Google Sheets för att lagra lead-anteckningar i en tabell.
- OpenRouter API-nyckel (hämta den i inställningarna för ditt OpenRouter-konto)
Kunskapsnivå: Medel. Du kopplar OAuth-konton, lägger in en API-nyckel och justerar filter och prompts efter vad ett “kvalificerat lead” betyder för dig.
Vill du inte sätta upp det här själv? Prata med en automationsexpert (gratis 15-minuters konsultation).
Så här fungerar det
En körning sätter igång allt. Flödet använder en Manual Start-trigger i den version som följer med, och hämtar sedan Reddit-inlägg som matchar din nyckelordssökning. När det är validerat kan du även schemalägga det att köras automatiskt.
Inlägg filtreras och normaliseras. En “If”-kontroll validerar inläggens mätvärden (så att du kan ignorera trådar utan engagemang), och därefter plockar ett mapping-steg ut bara de fält du faktiskt vill ha i ett lead-ark.
AI gör råa trådar till lead-anteckningar. Flödet klassificerar affärsbehovet med en AI-agent (via OpenRouter chat-modeller), kontrollerar innehållsflaggor och genererar en läsbar sammanfattning som känns som ett mini-brief för research.
Allt hamnar i Google Sheets. Flera merge-steg kombinerar den ursprungliga inläggsdatan, klassificeringen och sammanfattningen till en rad, och sedan lägger flödet till den i ditt kalkylark så att det är redo för granskning och outreach.
Du kan enkelt ändra dina nyckelord för att rikta in dig på andra subreddits eller problem utifrån dina behov. Se hela implementationsguiden nedan för anpassningsalternativ.
Steg-för-steg-guide för implementering
Steg 1: konfigurera den manuella triggern
Starta arbetsflödet med en manuell körning så att ni kan validera Reddit-sökningen och AI-utdata innan ni schemalägger det.
- Lägg till och öppna Manual Start Trigger.
- Inga fält krävs i den här noden; behåll standardkonfigurationen.
- Bekräfta kopplingen från Manual Start Trigger till Retrieve Reddit Posts.
Steg 2: anslut Reddit och hämta inlägg
Hämta inlägg från en mål-subreddit med ett specifikt sökord och sorteringsordning.
- Öppna Retrieve Reddit Posts och ställ in Operation på
search. - Ställ in Keyword på
how do I find leads. - Ställ in Subreddit på
=Entrepreneur. - I Additional Fields ställer ni in Sort på
hot. - Credential Required: Anslut era Reddit-inloggningsuppgifter.
Steg 3: filtrera och mappa viktiga inläggsfält
Validera inläggskvalitet och normalisera den data ni ska skicka vidare till AI-klassificeraren och utdataflödet.
- I Validate Post Metrics ställer ni in villkor för att säkerställa att inlägget har engagemang och innehåll: Ups större än
2, SelftextnotEmpty, och inläggsdatum efter{{ $today.minus(180,'days').toISO() }}. - Använd uttrycken exakt som de visas:
{{ $json.ups }},{{ $json.selftext }},{{ DateTime.fromSeconds($json.created).toISO() }}och{{ $today.minus(180,'days').toISO() }}. - I Map Essential Fields mappar ni följande tilldelningar: upvotes →
{{ $json.ups }}, subreddit_subscribers →{{ $json.subreddit_subscribers }}, postcontent →{{ $json.selftext }}, url →{{ $json.url }}, date →{{ DateTime.fromSeconds($json.created).toISO() }}. - Bekräfta den parallella splitten: Map Essential Fields skickar utdata både till Combine Input Streams och Business Need Classifier parallellt.
Steg 4: konfigurera AI-klassificering och summering
Klassificera om inlägg representerar ett affärsbehov och sammanfatta kvalificerade inlägg.
- Öppna Primary Chat Model och ställ in Model på
openai/gpt-4.1-mini. - Öppna Business Need Classifier och verifiera prompttexten:
=Decide whether this reddit post is describing a business-related problem or a need for a solution. - Säkerställ att Human-meddelandet i Business Need Classifier är
=Reddit post: {{ $json.postcontent }}. - Öppna Secondary Chat Model och ställ in Model på
openai/gpt-4.1-mini. - Bekräfta att Primary Chat Model är ansluten som språkmodell för Business Need Classifier och att Secondary Chat Model är ansluten till Generate Post Summary — säkerställ att inloggningsuppgifter läggs till i föräldranoderna (Primary Chat Model och Secondary Chat Model), inte i undernoderna.
Steg 5: routa, sammanfatta och förbered utdatafält
Slå ihop klassificeringsutdata med inläggsmetadata, sammanfatta kvalificerade inlägg och bygg den slutliga datamängden för Google Sheets.
- I Combine Input Streams ställer ni in Mode på
combineoch Combine By påcombineByPosition. - I Check Content Flag ställer ni in villkoret till: Left Value
{{ $json.output }}är lika medyes. - Bekräfta den parallella splitten: Check Content Flag skickar utdata både till Generate Post Summary och Prepare Output Fields parallellt.
- I Format Summary Fields ställer ni in summary på
{{ $json.response.text }}. - I Prepare Output Fields mappar ni värden: date
{{ $json.date }}, subreddit_subscribers{{ $json.subreddit_subscribers }}, url{{ $json.url }}, upvotes{{ $json.upvotes }}, postcontent{{ $json.postcontent }}, business_opportunity{{ $json.output }}. - I Merge Three Sources ställer ni in Mode på
combineoch Combine By påcombineByPosition.
Steg 6: konfigurera utdata till kalkylark
Lägg till den slutligt sammanslagna datamängden i Google Sheets för att följa lead-möjligheter.
- Öppna Append to Spreadsheet och ställ in Operation på
append. - Välj Document med ID
[YOUR_ID]. - Välj Sheet Name som
Find-Leads(gid979106892). - Behåll Mapping Mode på
autoMapInputDataför att mappa fält automatiskt. - Credential Required: Anslut era Google Sheets-inloggningsuppgifter.
Steg 7: testa och aktivera ert arbetsflöde
Kör ett manuellt test för att bekräfta Reddit-extraktion, AI-klassificering, summeringsutdata och beteendet för tillägg i Google Sheets.
- Klicka på Execute Workflow i Manual Start Trigger för att köra ett live-test.
- Verifiera att Validate Post Metrics bara skickar ut nyliga inlägg med
upsstörre än2och icke-tomt innehåll. - Bekräfta att Business Need Classifier returnerar
yesellernooch att Generate Post Summary skapar en sammanfattning i Format Summary Fields. - Kontrollera Google Sheets för att säkerställa att Append to Spreadsheet lägger till en ny rad med datum, upvotes, URL, innehåll, affärsflagga och sammanfattning.
- När testet är lyckat växlar ni arbetsflödet till Active för användning i produktion.
Vanliga fallgropar
- Reddit OAuth-uppgifter kan löpa ut eller kräva specifika behörigheter. Om något slutar fungera: kontrollera först inställningarna för Reddit developer-appen och att rätt Reddit-inloggning är vald i n8n.
- Om du använder Wait-noder eller extern rendering varierar processtiderna. Öka väntetiden om nedströmsnoder fallerar på tomma svar.
- Standardprompter i AI-noder är generiska. Lägg in din tonalitet tidigt, annars kommer du redigera output för alltid.
Vanliga frågor
Cirka en timme om dina inloggningar för Reddit, OpenRouter och Google är klara.
Nej. Du kopplar mest konton och justerar filter och prompts.
Ja. n8n har ett gratis alternativ för egen hosting och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volymer. Du behöver också räkna med OpenRouter API-användning, som beror på vilken modell du väljer.
Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller egen hosting på en VPS. För egen hosting är Hostinger VPS prisvärt och hanterar n8n bra. Egen hosting ger obegränsade körningar men kräver grundläggande serverhantering.
Ja, och det bör du. De flesta justerar först Reddit-sökningen och finjusterar sedan logiken i Validate Post Metrics och Check Content Flag så att den matchar vad “kvalificerad” betyder. Du kan också skriva om prompterna i Business Need Classifier och Generate Post Summary så att arket fångar exakt dina fält (smärtpunkt, brådska, budgetindikationer, konkurrentnämnanden). Om du senare vill byta modellleverantör kan du byta OpenRouter chat-model-noderna utan att ändra hela flödet.
Oftast är det ett OAuth-problem: Reddit-appens client ID/secret har ändrats, redirect URI matchar inte det n8n förväntar sig, eller så är inloggningen i noden “Retrieve Reddit Posts” inte vald längre. Det kan också misslyckas om kontot saknar åtkomst till vissa subreddits, eller om du slår i rate limits genom att hämta för mycket för ofta. Autentisera om först, minska sedan volymen och testa igen.
Med n8n Cloud Starter kan du köra en bra mängd dagliga scanningar för ett litet team, och med egen hosting försvinner körningsbegränsningarna (din server blir flaskhalsen). I praktiken hanterar de flesta tiotals till några hundra inlägg per körning och skärper sedan filtren så att AI-sammanfattning bara körs på de bästa.
Ofta, ja, eftersom det här flödet bygger på flersteglogik: filtrering, sammanslagning av flöden samt AI-klassificering och sammanfattning innan det skrivs till Sheets. n8n hanterar förgreningar och “om detta, så det där”-flöden snyggt, och du kan hosta själv för att slippa per-uppgift-prissättning när volymen växer. Zapier eller Make kan fortfarande fungera om du bara behöver något enkelt (till exempel “nytt Reddit-inlägg → lägg till rad”), men du kommer snabbt behöva bygga på fler steg. När du bryr dig om konsekventa lead-anteckningar är det skönare att ha logiken på ett ställe. Om du vill ha hjälp att välja, prata med en automationsexpert.
Ett bra Reddit-lead är färskvara. Det här flödet fångar signalen medan den är varm och ger dig sedan ett ark fullt av nästa steg.
Kontakta oss
Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.