Reddit är fullt av exakt de ord dina kunder använder. Problemet är att få ut de orden utan att lägga hela eftermiddagen på att öppna flikar, kopiera kommentarer och tappa bort de bästa citaten i ett rörigt dokument.
Den här Reddit Sheets report-setupen slår hårdast mot marknadsförare, helt ärligt. Men produktteam som jobbar med voice of customer och byråägare som skriver positionering åt kunder känner av det också. Du förvandlar riktiga trådar och toppkommentarer till en felfri, användbar rapport som du faktiskt kan bygga vidare på.
Nedan ser du hur workflowet fungerar, vad det automatiserar och hur du kör det med nyckelord eller per subreddit så att du kan fånga invändningar och citat på beställning.
Så fungerar den här automatiseringen
Här är det kompletta workflowet du kommer att sätta upp:
n8n Workflow Template: Reddit till Google Sheets: strukturerade rapporter
flowchart LR
subgraph sg0["Flow 1"]
direction LR
n0@{ icon: "mdi:swap-vertical", form: "rounded", label: "Loop Over Items1", pos: "b", h: 48 }
n1@{ icon: "mdi:swap-vertical", form: "rounded", label: "Set Reddit Posts", pos: "b", h: 48 }
n2@{ icon: "mdi:cog", form: "rounded", label: "Limit", pos: "b", h: 48 }
n4["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/webhook.dark.svg' width='40' height='40' /></div><br/>reddit tool webhook"]
n5@{ icon: "mdi:swap-vertical", form: "rounded", label: "Set keywords", pos: "b", h: 48 }
n6["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/code.svg' width='40' height='40' /></div><br/>Posted in Last x days"]
n7@{ icon: "mdi:swap-horizontal", form: "rounded", label: "Upvotes Requirement Filtering", pos: "b", h: 48 }
n8["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/code.svg' width='40' height='40' /></div><br/>Remove Duplicates"]
n9@{ icon: "mdi:cog", form: "rounded", label: "Sort by upvotes (descending)", pos: "b", h: 48 }
n10@{ icon: "mdi:swap-vertical", form: "rounded", label: "Set post for Loop", pos: "b", h: 48 }
n11["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/reddit.svg' width='40' height='40' /></div><br/>Get Comments"]
n12["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/code.svg' width='40' height='40' /></div><br/>Format Comments"]
n13["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/webhook.dark.svg' width='40' height='40' /></div><br/>Respond to Webhook"]
n14@{ icon: "mdi:swap-vertical", form: "rounded", label: "Set Final Report", pos: "b", h: 48 }
n15["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/code.svg' width='40' height='40' /></div><br/>Combine Posts"]
n16@{ icon: "mdi:cog", form: "rounded", label: "Aggregate", pos: "b", h: 48 }
n17["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/webhook.dark.svg' width='40' height='40' /></div><br/>reddit tool webhook subreddit"]
n18@{ icon: "mdi:swap-vertical", form: "rounded", label: "Set subreddit", pos: "b", h: 48 }
n19["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/reddit.svg' width='40' height='40' /></div><br/>Get posts from subreddit"]
n20["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/reddit.svg' width='40' height='40' /></div><br/>Search for posts by keywords"]
n23["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/code.svg' width='40' height='40' /></div><br/>Extract Top 20 Comments"]
n2 --> n0
n16 --> n15
n11 --> n23
n5 --> n20
n15 --> n13
n18 --> n19
n12 --> n14
n0 --> n16
n0 --> n10
n14 --> n0
n1 --> n6
n8 --> n9
n10 --> n11
n4 --> n5
n6 --> n7
n23 --> n12
n19 --> n1
n20 --> n1
n9 --> n2
n7 --> n8
n17 --> n18
end
subgraph sg1["Flow 2"]
direction LR
n21["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/httprequest.dark.svg' width='40' height='40' /></div><br/>reddit tool http request (fo.."]
end
subgraph sg2["Flow 3"]
direction LR
n22["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/httprequest.dark.svg' width='40' height='40' /></div><br/>reddit tool http request"]
end
subgraph sg3["Flow 4"]
direction LR
n3@{ icon: "mdi:web", form: "rounded", label: "reddit tool", pos: "b", h: 48 }
end
%% Styling
classDef trigger fill:#e8f5e9,stroke:#388e3c,stroke-width:2px
classDef ai fill:#e3f2fd,stroke:#1976d2,stroke-width:2px
classDef aiModel fill:#e8eaf6,stroke:#3f51b5,stroke-width:2px
classDef decision fill:#fff8e1,stroke:#f9a825,stroke-width:2px
classDef database fill:#fce4ec,stroke:#c2185b,stroke-width:2px
classDef api fill:#fff3e0,stroke:#e65100,stroke-width:2px
classDef code fill:#f3e5f5,stroke:#7b1fa2,stroke-width:2px
classDef disabled stroke-dasharray: 5 5,opacity: 0.5
class n7 decision
class n4,n13,n17,n21,n22,n3 api
class n6,n8,n12,n15,n23 code
classDef customIcon fill:none,stroke:none
class n4,n6,n8,n11,n12,n13,n15,n17,n19,n20,n23,n21,n22 customIcon
Varför det här spelar roll: förvandla Reddit-kaos till användbar research
Om du någon gång har försökt använda Reddit för marknadsresearch känner du till fällan. Du börjar med ”bara en snabb sökning” och slutar med 18 öppna flikar, tre halvfärdiga anteckningar och inget felfritt sätt att bevisa vad du hittade. Även när du fångar det bra materialet är det utspritt: ett citat i Slack, ett annat i ett dokument, skärmdumpar i en mapp och trådlänken du behövde är borta. Kostnaden är inte bara tid. Det är missade insikter, svagare copy och beslut som tas på magkänsla i stället för på riktigt språk.
Friktionen ökar snabbt. Här är var det vanligtvis faller isär.
- Manuell sökning och insamling av kommentarer kan lätt ta cirka 2 timmar för en enda ”topicsvepning”, särskilt när du börjar följa svars-trådar.
- De flesta team slutar med att plocka russinen ur kakan och tar en eller två poster, vilket gör att du missar mönster som återkommande invändningar och exakt hur folk formulerar sig.
- Copy-paste introducerar misstag (fel användarnamn, saknat sammanhang, trasiga länkar), så din ”evidens” blir svår att lita på.
- Utan ett konsekvent rapportformat är det svårt att dela fynd med intressenter eller återanvända dem senare för annonser, landningssidor eller SEO.
Det du bygger: Reddit-trådar till en felfri Sheets-rapport
Det här workflowet gör Reddit till en repeterbar researchkälla. Du triggar det genom att anropa en webhook med antingen en nyckelordslista eller en kombination av nyckelord + subreddit. Därifrån söker det på Reddit efter relevanta inlägg, filtrerar ner till nyliga och trovärdiga (senaste 60 dagarna, minst 20 upvotes som standard), tar bort dubbletter och sorterar efter popularitet så att du slipper läsa trådar med låg signal. Sedan loopar det igenom varje inlägg, hämtar de 20 mest uppröstade kommentarerna (inklusive svars-trådar) och strukturerar allt till en läsbar rapport. Till sist formaterar workflowet outputen till korrekt formaterade fält som är enkla att spara och analysera och skickar tillbaka resultaten som ett webhook-svar så att du kan trycka in det i Google Sheets och resten av din researchstack.
Workflowet startar med en begäran för nyckelord/subreddit. Sedan filtrerar, avdubblerar och rankar det inläggen innan det extraherar toppkommentartrådar. I slutet får du ett konsekvent rapportformat som du kan lägga in i Google Sheets för löpande uppföljning och återanvändning.
Det du bygger
| Det som automatiseras | Det du uppnår |
|---|---|
|
|
Förväntade resultat
Säg att du gör Reddit-research för två kampanjer varje vecka och samlar 10 inlägg per kampanj. Manuellt kan det ta cirka 5 minuter per inlägg att hitta poster, öppna dem och kopiera 20 toppkommentarer, vilket blir ungefär 100 minuter bara för insamlingen (och då räknas inte formatering in). Med det här workflowet skickar du en webhook-begäran på under en minut och låter det hämta upp till 10 inlägg och cirka 200 toppkommentarer automatiskt. Även om du lägger 15 minuter på att granska rapporten och tagga teman i Sheets får du ändå tillbaka ungefär en timme per körning.
Innan du börjar
- n8n-instans (prova n8n Cloud gratis)
- Självhostningsalternativ om du föredrar det (Hostinger fungerar bra)
- Reddit för OAuth-åtkomst för att söka inlägg och kommentarer.
- Google Sheets för att lagra och dela researchrapporten.
- Reddit Client ID & Client Secret (hämta dem från Reddits inställningssida för ”apps”).
Kunskapsnivå: Nybörjare. Du kopplar konton och justerar några filtervärden som dagar, upvotes och postlimit.
Vill du att någon bygger detta åt dig? Prata med en automationsexpert (gratis 15-minuters konsultation).
Steg för steg
En webhook-begäran startar allt. Du anropar en av två webhook-URL:er: en för nyckelordssökningar, en annan för nyckelord + subreddit. Begäran innehåller dina nyckelord (och valfritt subreddit-namnet) så att du kan köra samma workflow för olika researchämnen.
Inläggen filtreras och rensas innan du ens ser dem. n8n mappar de returnerade inläggen till en konsekvent struktur, filtrerar på aktualitet (standard senaste 60 dagarna), kontrollerar en upvote-tröskel (standard 20+), tar bort dubbletter och sorterar sedan efter upvotes. Idén är enkel: hämta signal, hoppa över brus.
Kommentartrådar extraheras och struktureras. För varje valt inlägg hämtar workflowet kommentarer och väljer de 20 främsta baserat på upvotes, inklusive sammanhanget från svars-trådar. Innehållet formateras sedan till korrekt formaterade fält så att det kan ligga i ett kalkylark utan att bli en vägg av text.
En slutrapport sammanställs och returneras. Workflowet aggregerar allt till en läsbar rapport och svarar via webhook, vilket gör det enkelt att skicka vidare till Google Sheets, en Drive-mapp eller en intern researchdatabas.
Du kan enkelt ändra upvote-tröskeln och tidsfönstret för att matcha aktivitetsnivån i din marknad. Se hela implementationsguiden nedan för anpassningsalternativ.
Steg-för-steg-guide för implementering
Steg 1: Konfigurera webhook-triggers
Sätt upp inkommande webhooks som startar digest-flödet baserat på nyckelordssökningar eller specifika subreddits.
- Lägg till och konfigurera Incoming Reddit Webhook för att ta emot nyckelordsbaserade indata (lämna standardinställningarna om er avsändare skickar payloads automatiskt).
- Lägg till och konfigurera Incoming Subreddit Webhook för att ta emot subreddit-specifika indata för direkta flödeshämtningar.
- Bekräfta att båda webhook-URL:erna är registrerade i ert externa system så att det kan skicka anrop till n8n.
Steg 2: Anslut Reddit-källor för inlägg
Definiera sökparametrarna och hämta inlägg från Reddit baserat på antingen nyckelord eller en specifik subreddit.
- I Assign Keyword Filters mappar ni inkommande webhook-fält till den nyckelordsfilterstruktur som används av sökningen.
- I Search Posts by Keywords konfigurerar ni Reddit-sökningen för nyckelord.
- I Assign Subreddit mappar ni inkommande subreddit-värde från webhook-payloaden.
- I Fetch Subreddit Posts konfigurerar ni Reddit-operationen för att hämta senaste inlägg för den tilldelade subredditen.
Inloggningsuppgifter krävs: Anslut era Reddit API-inloggningsuppgifter i både Search Posts by Keywords och Fetch Subreddit Posts.
Steg 3: Normalisera, filtrera och rangordna inlägg
Slå ihop och förfina inkommande listor med inlägg, filtrera sedan på aktualitet och upvotes innan ni väljer de bästa inläggen.
- I Map Reddit Posts mappar och normaliserar ni inläggsfält för fortsatt bearbetning.
- Använd Filter Recent Posts för att endast behålla inlägg inom ert aktualitetsfönster.
- Konfigurera Validate Upvote Threshold med era kriterier för minsta antal upvotes.
- Kör Eliminate Duplicates för att ta bort dubbletter mellan flöden.
- Ställ in Order by Upvotes för att sortera inlägg efter poäng och Cap Results för att begränsa den slutliga listans storlek.
⚠️ Vanlig fallgrop: Om Validate Upvote Threshold är för strikt kan arbetsflödet returnera inga inlägg. Börja med en låg tröskel och justera efter test.
Steg 4: Hämta och aggregera toppkommentarer
Loopa igenom filtrerade inlägg, hämta kommentarer och aggregera dem till en struktur som är redo för rapportering.
- I Prepare Post Loop anger ni de fält som behövs för att hämta kommentarer för varje inlägg.
- Konfigurera Retrieve Comments för att hämta kommentartrådar för varje inlägg.
- Använd Select Top Comments för att reducera varje tråd till de bästa kommentarerna.
- Tillämpa Structure Comments och Assemble Final Report för att formatera utdata för svaret.
- Cap Results skickar utdata till både Batch Iterate Posts och därefter Aggregate Records i sekvens; Batch Iterate Posts skickar även utdata till Prepare Post Loop för loopen som hämtar kommentarer.
Inloggningsuppgifter krävs: Anslut era Reddit API-inloggningsuppgifter i Retrieve Comments.
Steg 5: Bygg den slutliga payloaden för svaret
Kombinera resultaten till en enda payload och returnera den till den ursprungliga webhook-anroparen.
- Använd Aggregate Records för att samla kommentarutdata från batch-loopen.
- I Merge Post Lists kombinerar ni nyckelords- och subreddit-utdata till en lista.
- Skicka svaret med Send Webhook Reply så att beställaren får digesten.
Steg 6: Testa och aktivera ert arbetsflöde
Kör end-to-end-tester med exempel-payloads och aktivera arbetsflödet för produktionsanvändning.
- Klicka på Execute Workflow och skicka en test-payload till Incoming Reddit Webhook eller Incoming Subreddit Webhook.
- Verifiera att utdata i Send Webhook Reply innehåller en sammanslagen digest med inlägg och toppkommentarer.
- Om resultaten är tomma, justera filtren i Filter Recent Posts och Validate Upvote Threshold och testa igen.
- Växla arbetsflödet till Active när testerna lyckas.
Felsökningstips
- Reddit-inloggningar kan löpa ut eller kräva specifika behörigheter. Om det skapar fel, kontrollera först din Reddit OAuth2-inloggning i n8n under Credentials.
- Om du använder Wait-noder eller extern rendering varierar bearbetningstiderna. Öka väntetiden om efterföljande noder misslyckas på tomma svar.
- Standardprompter i AI-noder är generiska. Lägg in er tonalitet tidigt, annars kommer du att redigera output i all evighet.
Snabba svar
Cirka 10 minuter om din Reddit-app är redo.
Nej. Du kopplar Reddit OAuth och klistrar in rätt webhook-URL:er. Efter det handlar det mest om att välja dina filter (dagar, upvotes och postlimit).
Ja. n8n har ett gratis självhostat alternativ och en gratis provperiod på n8n Cloud. Cloud-planer börjar på $20/månad för högre volym. Du behöver också räkna in Reddit API-åtkomst (oftast gratis för typisk researchanvändning) och eventuell valfri OpenAI-användning om du lägger till sammanfattning.
Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller självhosting på en VPS. För självhosting är Hostinger VPS prisvärt och klarar n8n bra. Självhosting ger dig obegränsade körningar men kräver grundläggande serverhantering.
Ja, och det bör du. Vanliga justeringar är att ändra filtret ”Posted in Last x days”, höja eller sänka tröskeln ”Upvotes Requirement Filtering” och justera noden ”Limit” så att du hämtar färre (eller fler) inlägg per körning. Om du vill ha en annan output-struktur kan du redigera stegen ”Assemble Final Report” / mapping så att rapporten blir radbaserade fält för Google Sheets i stället för ett enda block i markdown-stil.
Oftast beror det på utgångna eller felkonfigurerade OAuth-uppgifter från din Reddit-app. Generera ett nytt Client Secret, bekräfta att redirect URI matchar din n8n callback-URL och autentisera sedan om Reddit OAuth2-inloggningen i n8n. Om det bara misslyckas ibland kan du också slå i rate limits när du hämtar många inlägg och kommentarer samtidigt, så att sänka postlimit kan stabilisera körningarna.
Med standardinställningarna hämtar en körning vanligtvis upp till 10 inlägg och upp till 20 toppkommentarer per inlägg (cirka 200 kommentarer totalt).
För det här workflowet är n8n oftast ett bättre val eftersom det kan hantera förgreningslogik, loopar och anpassad filtrering utan att göra varje steg till en betald ”task”. Webhooks är också raka, så du kan trigga sökningar från vad som helst. Zapier eller Make kan fungera om du bara behöver ett väldigt enkelt utdrag, men Reddit-data behöver ofta filtrering, avdubblering och formatering för att bli användbar. En annan praktisk poäng: med självhosting kan du köra mycket research utan att oroa dig för prissättning per task. Om du är osäker, prata med en automationsexpert så tar vi fram det billigaste alternativet för din volym.
När det här väl rullar slutar Reddit-research vara ett ”specialprojekt” och blir en knapp du kan trycka på. Felfria input ger felfria beslut, och du kommer att märka skillnaden snabbt.
Kontakta oss
Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.