Att försöka researcha subreddits snabbt slutar oftast på samma sätt. Du kör n8n:s nod “Get Many Subreddit”, Reddit blockerar anropet och du är tillbaka i manuell sökning med halvfärdiga anteckningar.
Den här Reddit Sheets-automationen träffar marknadsförare först, men även grundare som planerar en nischlansering och konsulter som gör målgruppsanalys märker av den. Du får en felfri, pålitlig lista med subreddits (URL, beskrivning, 18+-flagga, medlemsantal) utan slumpmässiga fel som “blocked by network security”.
Nedan får du exakt arbetsflödeslogik, vad den levererar och hur du använder den som en drop-in-ersättare i ditt större researchesystem.
Så fungerar den här automationslösningen
Hela n8n-flödet, från trigger till slutlig output:
n8n Workflow Template: Reddit till Google Sheets – strukturerad subredditanalys
flowchart LR
subgraph sg0["When Executed by Another Workflow Flow"]
direction LR
n0@{ icon: "mdi:play-circle", form: "rounded", label: "When Executed by Another Wor..", pos: "b", h: 48 }
n1@{ icon: "mdi:swap-vertical", form: "rounded", label: "Split Out", pos: "b", h: 48 }
n2@{ icon: "mdi:swap-vertical", form: "rounded", label: "Edit Fields", pos: "b", h: 48 }
n3@{ icon: "mdi:cog", form: "rounded", label: "Aggregate", pos: "b", h: 48 }
n4["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/httprequest.dark.svg' width='40' height='40' /></div><br/>Get many Subreddit"]
n1 --> n2
n2 --> n3
n4 --> n1
n0 --> n4
end
%% Styling
classDef trigger fill:#e8f5e9,stroke:#388e3c,stroke-width:2px
classDef ai fill:#e3f2fd,stroke:#1976d2,stroke-width:2px
classDef aiModel fill:#e8eaf6,stroke:#3f51b5,stroke-width:2px
classDef decision fill:#fff8e1,stroke:#f9a825,stroke-width:2px
classDef database fill:#fce4ec,stroke:#c2185b,stroke-width:2px
classDef api fill:#fff3e0,stroke:#e65100,stroke-width:2px
classDef code fill:#f3e5f5,stroke:#7b1fa2,stroke-width:2px
classDef disabled stroke-dasharray: 5 5,opacity: 0.5
class n0 trigger
class n4 api
classDef customIcon fill:none,stroke:none
class n4 customIcon
Problemet: Reddit-research faller när dina anrop blockeras
Subreddit-research låter enkelt tills du behöver att det ska gå att upprepa. Du söker på ett nyckelord, öppnar tio flikar, kopierar medlemsantal, klistrar in URL:er och inser sedan att hälften av communities är irrelevanta eller NSFW. När du försöker automatisera blockeras ofta oautentiserade scraping-liknande anrop av Reddit. Då får du det sämsta av två världar: ett flöde som fallerar oförutsägbart och en fallback-process som bränner en timme varje gång du ändrar en fråga. Och eftersom din output är rörig kan du inte filtrera snyggt på målgruppsstorlek eller snabbt jämföra möjligheter mellan nischer.
Friktionen byggs på. Här är var det brukar fallera i praktiken.
- Körningar misslyckas med “blocked by network security”, så du måste köra om jobb och sitta och bevaka n8n.
- Din dataset kommer tillbaka uppblåst, vilket innebär extra rensning innan du ens kan börja filtrera.
- Manuell subreddit-research tar ofta cirka 10 minuter per nisch, och det blir värre när du gör konkurrent- eller kategorikartläggning.
- Utan konsekventa fält (URL, medlemsantal, beskrivning) är det svårt att bygga en repeterbar målgruppsprocess i Google Sheets.
Lösningen: autentisera Reddit-sökning och mata ut bara strukturerade fält
Det här flödet löser “blocked”-problemet genom att använda Reddits OAuth2-API via en HTTP Request-nod, i stället för att förlita sig på subreddit-söknoden som ofta blir nekad. Det är byggt för att anropas av ett annat workflow, så du kan plugga in det i din befintliga research-setup utan att bygga om allt. Ditt upstream-workflow skickar en enkel JSON-payload med t.ex. ett sökord, en limit och valfria gränser för medlemsantal. Flödet anropar sedan /subreddits/search, delar upp resultatet i enskilda subreddit-items och mappar bara de fält du faktiskt bryr dig om. Till sist sammanställer det de rensade posterna till en strukturerad array som du kan skicka till Google Sheets (eller valfritt downstream-verktyg).
Flödet startar när ett annat n8n-workflow anropar det via Execute Workflow Trigger. Reddit OAuth2 hanterar autentisering under sökanropet, så resultaten kommer tillbaka pålitligt. Därefter förenklas datat till en prydlig dataset som du kan lagra, filtrera och återanvända.
Vad du får: automation kontra resultat
| Vad det här flödet automatiserar | Resultat du får |
|---|---|
|
|
Exempel: så här ser det ut
Säg att du researchar 10 nischer för ett nytt erbjudande. Manuellt, om du lägger cirka 10 minuter per nisch på att hitta communities, kopiera URL:er och notera medlemsantal, blir det ungefär 100 minuter (och oftast mer när du gör om sökningar). Med det här flödet skickar du en JSON-fråga per nisch och hämtar upp till 50 resultat per körning. Även om du avsätter cirka 2 minuter per körning för att mata in och granska arket är du klar på ungefär 20 minuter, med mer strukturerad data och färre omtag.
Det här behöver du
- n8n-instans (testa n8n Cloud gratis)
- Alternativ för self-hosting om du föredrar det (Hostinger fungerar bra)
- Reddit OAuth2-uppgifter för autentiserad API-åtkomst.
- Google Sheets för att lagra och filtrera subreddit-listor.
- Nycklar till Reddit developer app (hämta dem i Reddits developer/app-inställningar).
Nivå: Medel. Du kopplar OAuth2, skickar JSON-input och mappar fält till ditt ark.
Vill du inte sätta upp detta själv? Prata med en automationsexpert (gratis 15-minuters konsultation).
Så fungerar det
Ett annat workflow triggar det. Ditt huvudflöde anropar det här via Execute Workflow Trigger och skickar JSON-parametrar som Query, limit och gränser för medlemsantal.
Reddit-sökningen körs via OAuth2. En HTTP Request-nod anropar Reddits endpoint /subreddits/search med OAuth2-uppgifter, vilket är huvudorsaken till att den undviker “blocked”-svar.
Resultat separeras och rensas. Svaret delas upp i individuella subreddit-items, och sedan plockar ett Set/Edit Fields-steg ut endast URL, beskrivning, 18+-flagga och medlemsantal.
En sammanställd dataset kommer ut i andra änden. Ett aggregeringssteg sätter ihop de rensade items igen till en strukturerad output som du kan skicka till Google Sheets, Excel, e-post eller en AI-agent som sammanfattar möjligheter.
Du kan enkelt justera filtreringslogiken för medlemmar så att min_members och max_members blir striktare, eller utöka de extraherade fälten för djupare analys. Se hela implementationsguiden nedan för anpassningsalternativ.
Steg-för-steg-guide för implementering
Steg 1: Konfigurera triggern Execute Workflow
Det här arbetsflödet startar när ett annat arbetsflöde anropar det via execute-triggern och skickar in sökparametrarna för subreddit.
- Lägg till och öppna Upstream Workflow Trigger.
- Ställ in Input Source på
jsonExample. - Klistra in exempellasten i JSON Example exakt som visas:
{ "Query": "RealEstateTechnology", "min_Members": 0, "max_members": 20000, "limit": 50 }.
Steg 2: Anslut Reddit API och hämta subreddits
Det här steget anropar Reddits sökendpoint och skickar med frågeparametrar från triggerns indata.
- Lägg till och konfigurera Retrieve Subreddit List.
- Ställ in URL till
https://oauth.reddit.com/subreddits/search. - Aktivera Send Query.
- Ställ in Authentication till
predefinedCredentialTypeoch Node Credential Type tillredditOAuth2Api. - Lägg till frågeparametrar: q =
{{ $json.Query }}och limit ={{ $json.limit }}. - Credential Required: Anslut era redditOAuth2Api-inloggningsuppgifter.
Steg 3: Sätt upp bearbetningsnoderna
Dessa noder delar upp Reddit-svaret i enskilda items och mappar de fält ni vill behålla.
- Öppna Separate Items och ställ in Field To Split Out till
data.children. - Öppna Map Output Fields och lägg till tilldelningar för varje utdatafält.
- Ställ in Subreddit till
{{ $json.data.url }}. - Ställ in Description till
{{ $json.data.public_description }}. - Ställ in 18+ till
{{ $json.data.over18 }}. - Ställ in Members till
{{ $json.data.subscribers }}.
Steg 4: Konfigurera sammanställning av utdata
Det här steget sammanställer alla mappade items till en enda aggregerad utdata.
- Lägg till Compile Records efter Map Output Fields.
- I Fields To Aggregate inkluderar ni
Subreddit,Description,18+ochMembers.
Steg 5: Testa och aktivera ert arbetsflöde
Kör ett manuellt test för att bekräfta hela dataflödet från indatatrigger till aggregerad utdata.
- Klicka på Execute Workflow och verifiera att Retrieve Subreddit List returnerar resultat.
- Bekräfta att Separate Items ger ett item per subreddit och att Map Output Fields innehåller de mappade fälten.
- Kontrollera Compile Records för att säkerställa att alla items aggregeras till en enda utdata-array.
- Spara arbetsflödet och växla det till Active för användning i produktion.
Vanliga fallgropar
- Reddit OAuth2-uppgifter kan löpa ut eller få fel scope. Om saker slutar fungera, kolla n8n:s panel Credentials och autentisera om Reddit-kopplingen först.
- Om du anropar detta från ett annat workflow måste din input-JSON matcha vad HTTP Request förväntar sig. När resultat ser tomma ut, kontrollera inputdata i Execute Workflow-noden och output från föregående nod.
- Skrivningar till Google Sheets kan misslyckas när dina kolumner inte matchar de mappade fälten. Säkerställ att rubrikerna i arket linjerar med URL, beskrivning, 18+-flagga och medlemsantal innan du antar att Reddit-hämtningen är problemet.
Vanliga frågor
Cirka 30 minuter om din Reddit developer app redan är skapad.
Nej. Du kopplar mest in uppgifter och klistrar in JSON-parametrar. Om du kan mappa kolumner i Google Sheets kan du köra detta.
Ja. n8n har ett gratis self-hosted-alternativ och en gratis provperiod på n8n Cloud. Cloud-planer börjar på $20/månad för högre volym. Du behöver också räkna med Reddit API-åtkomst (oftast gratis för den här typen av sökanvändning, så länge du inte slår i hårda rate limits).
Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller self-hosting på en VPS. För self-hosting är Hostinger VPS prisvärd och klarar n8n bra. Self-hosting ger dig obegränsade exekveringar men kräver grundläggande serverhantering.
Ja, men då gör du det i det anropande workflowet eller genom att lägga till ett If-filter efter steget “Map Output Fields”. Vanliga justeringar är att tvinga min_members/max_members, exkludera 18+-subreddits med hjälp av 18+-flaggan och hämta extra egenskaper som språk eller antal aktiva användare.
Oftast är det OAuth2. Dina Reddit-appuppgifter kan vara fel, utgångna eller kopplade till en annan callback-URL än den som är konfigurerad i n8n. Kontrollera även scopes och behörigheter i credential-setupen. Om det bara fallerar vid större körningar kan du slå i rate limits, så sänk limit eller lägg in en kort wait i upstream-workflowet.
I praktiken hanterar den vad din n8n-plan/server klarar, men de flesta team börjar med batcher på 50 per fråga och skalar därifrån. På n8n Cloud Starter begränsas du av månatliga exekveringar, medan self-hosting beror på resurserna i din VPS. Om du vill ha tusentals communities över många nyckelord, stryp anropen och skriv resultaten till Sheets i chunkar.
Ofta, ja, eftersom autentiserade HTTP-anrop och strukturerad datarensning är områden där n8n är starkt. Zapier och Make kan anropa API:er, men du lägger oftast mer tid på att kämpa med formatering, grenlogik och task-baserad prissättning när du börjar loopa över items. n8n gör det också enklare att återanvända detta som ett anropbart “sub-workflow”, vilket är exakt vad som händer här. Om du bara behöver en engångssökning och en enda rad i Sheets kan andra verktyg fungera bra. Prata med en automationsexpert om du vill ha hjälp att välja enklaste väg.
När detta väl är på plats blir subreddit-research en repeterbar input till din marknadsplan, inte en rörig engångsuppgift. Sätt upp det, kör det när du behöver nya nischer och fortsätt framåt.
Kontakta oss
Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.