Att söka på Reddit efter köpsignaler låter enkelt tills du har gjort det i en vecka. Flikarna blir fler, bra trådar slinker förbi och du svarar till slut för sent (eller inte alls) eftersom du satt och kopierade länkar till ett kalkylark.
Den här Reddit lead automation träffar marknadsförare först, eftersom tajming spelar roll. Men byråägare och konsulter känner också av det när pipen hänger på att “vara den hjälpsamma personen” i rätt tråd vid rätt tillfälle.
Det här arbetsflödet gör Reddit till en repeterbar leadkälla: det hittar relevanta inlägg, låter AI sammanfatta det som är viktigt, loggar vinnarna i Google Sheets och mejlar dig en korrekt formaterad Gmail-sammanställning så att du kan svara snabbt och hålla ordning.
Så fungerar automatiseringen
Här är hela arbetsflödet du kommer att sätta upp:
n8n Workflow Template: Reddit till Google Sheets, leads via Gmail
flowchart LR
subgraph sg0["Form Intake Flow"]
direction LR
n0@{ icon: "mdi:brain", form: "rounded", label: "OpenRouter Chat Engine", pos: "b", h: 48 }
n1@{ icon: "mdi:web", form: "rounded", label: "External API Call", pos: "b", h: 48 }
n2@{ icon: "mdi:robot", form: "rounded", label: "Structured Parser", pos: "b", h: 48 }
n3@{ icon: "mdi:robot", form: "rounded", label: "Competitor Review Agent", pos: "b", h: 48 }
n4@{ icon: "mdi:robot", form: "rounded", label: "Keyword Analysis Agent", pos: "b", h: 48 }
n5@{ icon: "mdi:swap-vertical", form: "rounded", label: "Split Records", pos: "b", h: 48 }
n6["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/reddit.svg' width='40' height='40' /></div><br/>Retrieve Reddit Posts"]
n7["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/code.svg' width='40' height='40' /></div><br/>Build Email HTML"]
n8@{ icon: "mdi:database", form: "rounded", label: "Append to Sheet", pos: "b", h: 48 }
n9@{ icon: "mdi:brain", form: "rounded", label: "OpenRouter Chat Engine 2", pos: "b", h: 48 }
n10@{ icon: "mdi:robot", form: "rounded", label: "Structured Parser 2", pos: "b", h: 48 }
n11@{ icon: "mdi:cog", form: "rounded", label: "Eliminate Duplicates", pos: "b", h: 48 }
n12["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/form.svg' width='40' height='40' /></div><br/>Form Intake Trigger"]
n13@{ icon: "mdi:swap-vertical", form: "rounded", label: "Select Required Fields", pos: "b", h: 48 }
n14@{ icon: "mdi:swap-horizontal", form: "rounded", label: "Criteria Post Filter", pos: "b", h: 48 }
n15["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/merge.svg' width='40' height='40' /></div><br/>Combine Outputs"]
n16@{ icon: "mdi:swap-vertical", form: "rounded", label: "Map AI Output Fields", pos: "b", h: 48 }
n17@{ icon: "mdi:swap-horizontal", form: "rounded", label: "Relevant Post Gate", pos: "b", h: 48 }
n18@{ icon: "mdi:message-outline", form: "rounded", label: "Dispatch Email", pos: "b", h: 48 }
n12 --> n4
n6 --> n11
n5 --> n6
n8 --> n7
n9 -.-> n3
n1 -.-> n4
n15 --> n16
n4 --> n5
n11 --> n14
n3 --> n15
n7 --> n18
n13 --> n3
n13 --> n15
n17 --> n8
n0 -.-> n4
n14 --> n13
n2 -.-> n4
n10 -.-> n3
n16 --> n17
end
%% Styling
classDef trigger fill:#e8f5e9,stroke:#388e3c,stroke-width:2px
classDef ai fill:#e3f2fd,stroke:#1976d2,stroke-width:2px
classDef aiModel fill:#e8eaf6,stroke:#3f51b5,stroke-width:2px
classDef decision fill:#fff8e1,stroke:#f9a825,stroke-width:2px
classDef database fill:#fce4ec,stroke:#c2185b,stroke-width:2px
classDef api fill:#fff3e0,stroke:#e65100,stroke-width:2px
classDef code fill:#f3e5f5,stroke:#7b1fa2,stroke-width:2px
classDef disabled stroke-dasharray: 5 5,opacity: 0.5
class n12 trigger
class n2,n3,n4,n10 ai
class n0,n9 aiModel
class n14,n17 decision
class n8 database
class n1 api
class n7 code
classDef customIcon fill:none,stroke:none
class n6,n7,n12,n15 customIcon
Varför det här spelar roll: fånga Reddit-trådar med hög intent innan de kallnar
Reddit är en av få platser där folk fortfarande beskriver sina problem med vanlig, tydlig svenska. Nackdelen är att de bästa leadtrådarna inte väntar på dig. De får snabbt svar, de glider ner i flödet och när du kommer tillbaka är läget redan passerat. Samtidigt jonglerar du manuella sökningar, halvdana nyckelordslistor och “jag loggar det sen”-anteckningar som aldrig hamnar i ditt CRM. Det handlar inte bara om tid. Det handlar om mental belastning och missad tajming, vilket är hela spelet på Reddit.
Friktionen byggs på. Här är var det oftast fallerar.
- Du skannar flera subreddits manuellt och inser efter en timmes läsning att dina nyckelord var fel.
- Bra trådar bokmärks, men de blir inte spårade, så du kan inte se vad du svarade på eller vad som konverterade.
- Sortering på “hot” döljer färska köpsignaler, medan sortering på “new” dränker dig i brus.
- När du väl hittar något lovande måste du ändå sammanfatta det, fånga URL:en och skicka det till någon annan som ska agera på det.
Det du bygger: upptäckt av Reddit-leads loggas i Sheets och mejlas dagligen
Det här arbetsflödet börjar med ett enkelt intake-formulär där en användare skickar in en webbplats-URL och en e-postadress. Utifrån URL:en hämtar flödet kontext om verksamheten, listar ut branschen och tar fram praktiska nyckelord som folk faktiskt använder på Reddit. Sedan söker det på Reddit efter inlägg som innehåller de nyckelorden och tillämpar rimliga filter, som inlägg med riktig text (inte tomma brödtexter), tillräckligt engagemang för att vara värt din tid (uppåtröster över 15) och nylig aktivitet (inom cirka 90 dagar). Därefter granskar en AI-agent varje kandidat-inlägg, avgör om det verkligen är relevant och skriver en tydlig sammanfattning som du snabbt kan agera på. “Vinnarna” sparas i Google Sheets och paketeras i ett professionellt HTML-mejl som landar i Gmail.
Arbetsflödet startar när formuläret skickas in. Efter det kör det nyckelordsarbete, hämtar och avduplicerar Reddit-inlägg och använder AI för att skilja riktiga möjligheter från snack. Till sist loggar det resultatet och skickar en sammanställning så att du kan svara medan tråden fortfarande är aktiv.
Det du bygger
| Det som automatiseras | Det du uppnår |
|---|---|
|
|
Förväntade resultat
Säg att du normalt kollar 6 subreddits och kör 5 sökningar varje vecka, och att du lägger kanske 10 minuter per sökning på att scrolla och öppna flikar. Det är runt 5 timmar av “letande” innan du ens skriver ett svar. Med det här arbetsflödet lägger du cirka 5 minuter på att skicka in din URL en gång, och sedan läser du bara Gmail-sammanställningen och agerar. Även om du fortfarande skummar Reddit lite, minskar de flesta team den tunga skanningen till under en timme i veckan, och de bästa trådarna ligger redan i Sheets.
Innan du börjar
- n8n-instans (testa n8n Cloud gratis)
- Alternativ för självhosting om du föredrar det (Hostinger fungerar bra)
- Reddit för att söka inlägg via OAuth.
- Google Sheets för att lagra kvalificerade inlägg och sammanfattningar.
- Gmail för att skicka HTML-sammanställningen till din inkorg.
- OpenRouter API-nyckel (hämta den i inställningarna i ditt OpenRouter-konto).
Kunskapsnivå: Medel. Du kommer mest koppla konton och klistra in API-nycklar, men du ska vara bekväm med att testköra och justera filter.
Vill du att någon bygger detta åt dig? Prata med en automationsexpert (gratis 15-minuters konsultation).
Steg för steg
En formulärinsändning startar allt. Någon anger sin webbplats-URL och den e-postadress som ska få lead-sammanställningen. Det blir “single source of truth” för körningen.
Arbetsflödet lär sig vad verksamheten faktiskt gör. Ett externt API-anrop hämtar sidinnehåll, och sedan tar AI-agenter fram branschkontext och omvandlar det till nyckelordsidéer som du realistiskt kan hitta på Reddit. Det här är viktigt eftersom generiska nyckelord snabbt ger skräpresultat.
Reddit söks igenom och städas upp. Arbetsflödet hämtar inlägg för varje nyckelord, tar bort dubbletter och filtrerar på engagemang och grundläggande kvalitetskontroller (uppåtröster över 15, icke-tom text och inlägg från de senaste cirka 90 dagarna).
AI avgör vad som är värt din uppmärksamhet. Varje inlägg sammanfattas och poängsätts för relevans. Endast inlägg som går igenom “relevant”-grinden mappas till konsekventa fält, läggs till i Google Sheets och tas med i det slutliga mejlet.
Du kan enkelt ändra nyckelordsreglerna och Reddit-filterkriterierna utifrån din nisch. Se den fullständiga implementationsguiden nedan för anpassningsalternativ.
Steg-för-steg-guide för implementering
Steg 1: Konfigurera formulärtriggern
Konfigurera intagsformuläret som startar arbetsflödet och matar in de första indata till AI-baserad nyckelordsanalys.
- Lägg till och öppna Form Intake Trigger.
- Konfigurera formulärfälten för att fånga researchämnet, målbransch och eventuell ytterligare kontext som AI-agenterna behöver.
- Spara noden för att generera webhook-URL:en för ert formulär.
Steg 2: Ställ in AI-nyckelordsanalys och Reddit-intag
Koppla in den första AI-agenten, tolka dess output och använd den för att hämta inlägg från Reddit.
- Öppna Keyword Analysis Agent och ställ in dess prompt för att generera nyckelordslistor och sökkriterier.
- Koppla OpenRouter Chat Engine som språkmodell för Keyword Analysis Agent.
- Koppla Structured Parser som output-parser för Keyword Analysis Agent.
- Länka External API Call som ett AI-verktyg för Keyword Analysis Agent om er prompt refererar till extern berikning.
- Konfigurera Split Records för att dela upp nyckelordslistan i enskilda poster.
- Konfigurera Retrieve Reddit Posts för att söka efter inlägg baserat på varje nyckelord.
Inloggning krävs: Anslut era OpenRouter-uppgifter i OpenRouter Chat Engine. Structured Parser och External API Call är AI-undernoder; lägg till inloggningsuppgifter i överordnade noder (Keyword Analysis Agent och OpenRouter Chat Engine) i stället för i undernoderna.
Inloggning krävs: Anslut era Reddit-uppgifter i Retrieve Reddit Posts.
Steg 3: Filtrera, avduplicera och förbered poster
Rensa Reddit-datasetet, applicera filter och förbered fält för efterföljande AI- och e-postgenerering.
- Konfigurera Eliminate Duplicates för att ta bort återkommande inlägg från Retrieve Reddit Posts.
- Ställ in villkor i Criteria Post Filter för att bara behålla inlägg som matchar era kvalitetskriterier.
- I Select Required Fields mappar ni bara de fält ni vill skicka vidare (t.ex. titel, URL, subreddit, inläggstext).
⚠️ Vanlig fallgrop: Om Criteria Post Filter är för strikt kan arbetsflödet skicka noll poster till AI- eller e-poststegen. Börja med bredare kriterier och skärp dem senare.
Steg 4: Kör parallell AI-analys och kombinera utdata
Routa filtrerade inlägg till parallell AI-bearbetning och kombinera sedan analysen till en enda strukturerad output.
- Notera att Select Required Fields skickar utdata till både Competitor Review Agent och Combine Outputs parallellt.
- Koppla OpenRouter Chat Engine 2 som språkmodell för Competitor Review Agent.
- Koppla Structured Parser 2 som output-parser för Competitor Review Agent.
- Konfigurera Combine Outputs för att slå ihop AI-granskningen med indatafälten från Select Required Fields.
- Använd Map AI Output Fields för att normalisera slutliga fältnamn för filtrering och output.
Inloggning krävs: Anslut era OpenRouter-uppgifter i OpenRouter Chat Engine 2. Structured Parser 2 är en AI-undernod; lägg till inloggningsuppgifter i den överordnade noden (Competitor Review Agent) i stället för i undernoden.
Steg 5: Villkorsstyr resultat, lagra data och skicka e-post
Gör en sista relevanskontroll, lägg till i Google Sheets, bygg HTML och skicka e-postmeddelandet.
- Ställ in villkor i Relevant Post Gate för att avgöra vilka resultat som ska sparas och mejlas.
- Konfigurera Append to Sheet för att lagra de valda inläggen och AI-sammanfattningarna.
- Anpassa Build Email HTML för att formatera outputen till en ren e-postlayout.
- Ställ in Dispatch Email med mottagare, ämne och HTML-body som genereras av Build Email HTML.
Inloggning krävs: Anslut era Google Sheets-uppgifter i Append to Sheet.
Inloggning krävs: Anslut era Gmail-uppgifter i Dispatch Email.
Steg 6: Testa och aktivera ert arbetsflöde
Verifiera varje steg från start till mål innan ni aktiverar arbetsflödet för produktion.
- Klicka på Execute Workflow och skicka in en testpost till Form Intake Trigger.
- Bekräfta att Retrieve Reddit Posts, Eliminate Duplicates och Criteria Post Filter ger förväntade poster.
- Verifiera att Competitor Review Agent och Combine Outputs returnerar strukturerad data och att Map AI Output Fields formaterar den korrekt.
- Kontrollera att Append to Sheet skapar en ny rad och att Dispatch Email skickar ett formaterat meddelande.
- När ni är nöjda, slå på arbetsflödet till Active för kontinuerlig användning.
Felsökningstips
- Reddit-credentials kan löpa ut eller kräva specifika behörigheter. Om det skapar fel, kontrollera först inställningarna för din Reddit-app (Client ID/Secret) och det anslutna OAuth-kontot i n8n.
- Om du använder Wait-liknande beteende (eller hämtar många nyckelord samtidigt) varierar processtiderna. Öka batchstorleken och håll koll på nedströms-noder som fallerar eftersom en sökning inte returnerade några objekt.
- OpenRouter-prompter är generiska som standard. Lägg in din positionering och kriterier för “vad som räknas som en lead” tidigt, annars kommer du fortsätta tveka kring sammanfattningarna i Gmail-sammanställningen.
Snabba svar
Cirka en timme om dina Reddit-, Google- och OpenRouter-konton är klara.
Nej. Du kopplar konton, lägger in API-nycklar och justerar några filter och prompter.
Ja. n8n har ett gratis alternativ för självhosting och en gratis provperiod på n8n Cloud. Cloud-planer startar på $20/månad för högre volym. Du behöver också räkna in OpenRouter API-användning (oftast några cent per körning, beroende på hur många inlägg du analyserar).
Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller självhosting på en VPS. För självhosting är Hostinger VPS prisvärd och hanterar n8n bra. Självhosting ger dig obegränsade körningar men kräver grundläggande serverhantering.
Ja, och det borde du förmodligen. Du kan skruva upp eller ner reglerna för inlägg genom att ändra villkoren i “Criteria Post Filter” (tröskel för uppåtröster, ålder, kontroller för tom text), och du kan styra outputen genom att redigera prompterna för AI-agenten i Keyword Analysis Agent och Competitor Review Agent. Vanliga justeringar är att lägga till språk som “måste nämna budget”, fokusera på specifika subreddits och ändra kolumnerna i Sheet så att de matchar dina pipeline-steg.
Oftast är det utgången OAuth eller en felkonfigurerad Reddit-app. Kontrollera Reddit Client ID/Secret igen, bekräfta att redirect-URL:en matchar det n8n förväntar sig och anslut credential igen. Om det bara fallerar vid större körningar kan du också slå i rate limits, så minska hur många nyckelord du söker på samtidigt.
Det beror på hur många nyckelord du genererar och hur många inlägg varje sökning returnerar. På n8n Cloud beror dina månatliga körningar på plan; självhosting tar bort körningsbegränsningar och flyttar begränsningen till din server och API:ernas rate limits. I praktiken kan det här arbetsflödet granska dussintals inlägg per körning, men om du försöker processa hundratals på en gång börjar Reddit-begränsningar och AI-kostnader spela roll. Batchning hjälper, och noden “Split Records” är redan byggd för det.
Ofta, ja, eftersom det här inte är en enkel “nytt objekt → skicka meddelande”-zap. n8n passar bättre för flerstegslogik som avduplicering, filtrering, loopar över inlägg och att grinda resultat innan de hamnar i Google Sheets. Du får också en realistisk väg för självhosting, vilket spelar roll när du kör det här dagligen. Zapier och Make kan fortfarande fungera om du förenklar arbetsflödet (färre nyckelord, ingen agent-lik analys). Prata med en automationsexpert om du vill ha hjälp att välja den mest robusta setupen för din volym.
När det här väl rullar blir Reddit en stabil inflödeskanal i stället för en daglig skattjakt. Arbetsflödet sköter sorteringen och loggningen, och du kan fokusera på att skriva svar som faktiskt vinner affärer.
Kontakta oss
Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.