Du hittar en perfekt Reddit-tråd, börjar skriva ett genomtänkt svar och blir sedan avbruten av något annat. Tio minuter senare är fliken borta, tillfället har passerat och din ”community marketing”-plan blir till slumpmässiga drive-bys.
Det här drabbar marknadsförare som försöker vara synliga i nischade communities. En solo-founder känner av det också, eftersom varje missad konversation är en missad kundinsikt. Även byråledare som jonglerar flera kunder kör in i samma vägg. Den här Reddit Sheets-automationen fångar signalen, skapar ett utkast till svar och loggar allt så att du kan granska det senare.
Du får se hur arbetsflödet hittar relevanta Reddit-inlägg, använder Google Gemini för att avgöra vilka som faktiskt är riktiga pain points, skriver en hjälpsam kommentar och lägger till detaljerna i Google Sheets för enkel uppföljning.
Så fungerar automationsflödet
Hela n8n-flödet, från trigger till slutlig output:
n8n Workflow Template: Reddit + Google Sheets: svar loggas och är redo
flowchart LR
subgraph sg0["When clicking ‘Execute workflow’ Flow"]
direction LR
n0@{ icon: "mdi:play-circle", form: "rounded", label: "When clicking ‘Execute workf..", pos: "b", h: 48 }
n1@{ icon: "mdi:robot", form: "rounded", label: "AI Agent", pos: "b", h: 48 }
n2@{ icon: "mdi:brain", form: "rounded", label: "Google Gemini Chat Model", pos: "b", h: 48 }
n3["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/merge.svg' width='40' height='40' /></div><br/>Merge"]
n4@{ icon: "mdi:robot", form: "rounded", label: "AI Agent1", pos: "b", h: 48 }
n5@{ icon: "mdi:brain", form: "rounded", label: "Google Gemini Chat Model1", pos: "b", h: 48 }
n6["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/merge.svg' width='40' height='40' /></div><br/>Merge1"]
n7["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/reddit.svg' width='40' height='40' /></div><br/>Create a comment in a post"]
n8@{ icon: "mdi:database", form: "rounded", label: "Append row in sheet", pos: "b", h: 48 }
n9["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/reddit.svg' width='40' height='40' /></div><br/>Post Searching"]
n10@{ icon: "mdi:swap-horizontal", form: "rounded", label: "If Condition", pos: "b", h: 48 }
n11@{ icon: "mdi:swap-vertical", form: "rounded", label: "Value setup", pos: "b", h: 48 }
n12@{ icon: "mdi:swap-horizontal", form: "rounded", label: "If Condition 2", pos: "b", h: 48 }
n3 --> n12
n6 --> n8
n1 --> n3
n4 --> n6
n11 --> n1
n11 --> n3
n10 --> n11
n12 --> n4
n12 --> n6
n9 --> n10
n8 --> n7
n2 -.-> n1
n5 -.-> n4
n0 --> n9
end
%% Styling
classDef trigger fill:#e8f5e9,stroke:#388e3c,stroke-width:2px
classDef ai fill:#e3f2fd,stroke:#1976d2,stroke-width:2px
classDef aiModel fill:#e8eaf6,stroke:#3f51b5,stroke-width:2px
classDef decision fill:#fff8e1,stroke:#f9a825,stroke-width:2px
classDef database fill:#fce4ec,stroke:#c2185b,stroke-width:2px
classDef api fill:#fff3e0,stroke:#e65100,stroke-width:2px
classDef code fill:#f3e5f5,stroke:#7b1fa2,stroke-width:2px
classDef disabled stroke-dasharray: 5 5,opacity: 0.5
class n0 trigger
class n1,n4 ai
class n2,n5 aiModel
class n10,n12 decision
class n8 database
classDef customIcon fill:none,stroke:none
class n3,n6,n7,n9 customIcon
Problemet: Reddit-engagemang kräver mycket jobb för att bli bra
Reddit belönar hjälpsamhet, sammanhang och timing. Det är den bra delen. Den tuffa delen är det manuella slitet: att söka i subreddits, öppna inlägg, skumma för verklig frustration (inte bara brus) och sedan försöka skriva något som inte låter reklamigt. Och även om du gör allt det där så spårar du det oftast ingenstans. Då kan du inte svara på enkla frågor senare, som ”Vilka pain points dyker upp den här månaden?” eller ”Vilka svar blev faktiskt uppröstade?” Det är inte ett stort misslyckande. Det är ett dussin små friktioner som staplas på varandra.
Här är var det faller isär.
- Du lägger cirka 30 minuter på att jaga ”rätt” trådar, och de flesta är inte användbara.
- Bra svar kräver fokus, men du skriver dem i en kaotisk webbläsarsession utan struktur.
- Utan en logg tappar du community-insikter som kunde ha styrt content, positionering eller produktfixar.
- När du skalar till fler än en subreddit eller ett varumärke faller konsekvensen snabbt.
Lösningen: upptäck pain points automatiskt, skapa utkast till svar och logga allt
Det här n8n-flödet bevakar Reddit-inlägg som matchar ett nyckelord du väljer och använder sedan Google Gemini för att avgöra om inlägget faktiskt beskriver ett problem som är värt att svara på. Om Gemini säger ”Nej” fångar flödet ändå inläggsdetaljerna för sammanhang och går vidare. Om Gemini säger ”Ja” triggar det en andra Gemini-prompt som skriver en kort, hjälpsam lösningskommentar. Till sist slår flödet ihop inläggsdata och AI-output, lägger till en korrekt formaterad rad i Google Sheets och (valfritt) publicerar svaret tillbaka till Reddit som en kommentar i originaltråden. Du får två resultat samtidigt: community-engagemang som sker i tid och ett växande kalkylark med verkliga pain points som du kan sortera och gå igenom.
Flödet startar när du kör det (manuell trigger som standard, lätt att byta till ett schema). Det söker i en subreddit som r/n8n efter inlägg som innehåller en fras som ”Why I stopped using”, filtrerar på minsta kvalitet (2+ upvotes och icke-tom text) och låter sedan Gemini avgöra. Om det är en match skapar Gemini ett svar och n8n publicerar det, och därefter loggas hela interaktionen till Sheets.
Vad du får: automation vs. resultat
| Vad det här flödet automatiserar | Resultat du får |
|---|---|
|
|
Exempel: så här ser det ut i praktiken
Säg att du kollar Reddit tre gånger i veckan och skummar ungefär 25 inlägg per session. Om du lägger cirka 2 minuter på att läsa varje inlägg och ytterligare 5 minuter på att skriva ett vettigt svar blir det runt 3 timmar i veckan. Med det här flödet kör du en exekvering, låter det filtrera på 2+ upvotes och låter Gemini skriva utkast bara för inlägg som är riktiga problem. Du kommer fortfarande att granska Google Sheet och justera formuleringar vid behov, men den veckovisa insatsen sjunker ofta till cirka 30–45 minuter.
Det här behöver du
- n8n-instans (prova n8n Cloud gratis)
- Alternativ för self-hosting om du föredrar det (Hostinger fungerar bra)
- Reddit OAuth2 API för att söka efter inlägg och svara.
- Google Sheets för att logga inlägg, klassificeringar och utkast.
- Google Gemini API-nyckel (hämta den från Google AI Studio / Gemini API i din Google Cloud-konfiguration).
Kunskapsnivå: Medel. Du kopplar credentials, justerar en sökfråga och redigerar AI-prompter lätt för att matcha din nisch.
Vill du inte sätta upp det här själv? Prata med en automationsexpert (gratis 15-minuters konsultation).
Så fungerar det
En manuell körning (eller ett schema) drar igång. I det medföljande flödet klickar du på ”Execute workflow” för att köra det vid begäran. Vill du ha ett jämnt tempo byter du till en Schedule Trigger så att det kollar Reddit varje morgon eller några gånger per dag.
Reddit genomsöks och inlägg av låg kvalitet filtreras bort. Reddit-noden letar efter nya inlägg i en subreddit (r/n8n som standard) som innehåller ett nyckelord som ”Why I stopped using”. Ett If-villkor behåller bara inlägg med minst 2 upvotes och icke-tom text, så du inte slösar Gemini-anrop på fluff.
Gemini klassificerar inlägget och skapar sedan ett svar om det är ett riktigt pain point. n8n mappar inläggsfälten (titel, brödtext, upvotes, skapad tid, subreddit-ID), skickar det till en Gemini-prompt för ”Problem Classifier” och väntar på ett enkelt Ja/Nej-beslut. Om svaret är Ja genererar en andra Gemini-prompt en hjälpsam lösningskommentar som är kort och inte spammig (viktigt på Reddit, om vi ska vara ärliga).
Allt slås ihop, loggas till Sheets och kan valfritt postas som en kommentar. Flödet slår ihop dina inläggsdata med AI-output, lägger till en rad i Google Sheets och publicerar sedan svaret på Reddit. Det innebär att du kan granska vad som postades, lära dig av mönstren och förbättra prompter över tid.
Du kan enkelt ändra söknyckelordet så att det passar din nisch utifrån dina behov. Se den fullständiga implementeringsguiden nedan för anpassningsalternativ.
Steg-för-steg-guide för implementering
Steg 1: Konfigurera den manuella triggern
Konfigurera startpunkten för arbetsflödet så att ni kan köra Reddit-analysflödet manuellt under testning.
- Lägg till noden Manual Run Trigger i början av arbetsflödet.
- Bekräfta att inga parametrar krävs för Manual Run Trigger.
- Koppla Manual Run Trigger till Reddit Post Finder.
Steg 2: Anslut Reddit-sökning och filtrering
Hämta senaste inlägg från n8n-subredditen och filtrera till endast inlägg med högt engagemang och textinnehåll.
- Öppna Reddit Post Finder och ställ in Operation till
search. - Ställ in Subreddit till
n8noch Keyword tillWhy i stopped using. - Ställ in Limit till
10. - Inloggningsuppgifter krävs: Anslut era Reddit-inloggningsuppgifter i Reddit Post Finder (för närvarande inte konfigurerat).
- Öppna Engagement Filter och lägg till villkor: ups
>= 2med{{$json.ups}}och selftext är inte tom med{{$json.selftext}}. - Koppla Reddit Post Finder till Engagement Filter.
Steg 3: Mappa inläggsdata för AI och sammanslagning
Standardisera fälten som behövs av AI-noderna och efterföljande sammanslagningar.
- Öppna Map Post Fields och skapa tilldelningar för:
title ={{$json.title}}, selftext ={{$json.selftext}}, ups ={{$json.ups}}, created ={{$('Reddit Post Finder').item.json.created}}, url ={{$json.url}}, subreddit_id ={{$json.subreddit_id}}, id ={{$json.id}}. - Koppla Engagement Filter till Map Post Fields.
- Map Post Fields skickar utdata till både Problem Classifier Agent och Combine Inputs parallellt.
Steg 4: Sätt upp AI-klassificering och routning
Använd Gemini för att avgöra om Reddit-inlägget beskriver ett verkligt automationsproblem och routa därefter.
- Öppna Problem Classifier Agent och bekräfta att Prompt är inställd på:
=Define weather the reddit post is talking about the problems faced by the users of AI Automation or they need a solution on how they want bew features in AI Automation. the post should mention a specific problem faced by the users. Reddit Post: {{ $json.selftext }} Is this post is about a problem that users are facing about AI Automation or they need new features, Just answer with Yes or No. - Säkerställ att Gemini Chat Model A är ansluten som språkmodell för Problem Classifier Agent.
- Inloggningsuppgifter krävs: Anslut era Google Gemini-inloggningsuppgifter i Gemini Chat Model A (lägg till inloggningsuppgifter på modellen, inte på agenten).
- Öppna Combine Inputs och ställ in Mode till
combineoch Combine By tillcombineByPosition(lämna Include Unpaired aktiverat). - Koppla Problem Classifier Agent till Combine Inputs, och koppla sedan Combine Inputs till Problem Check Gate.
- I Problem Check Gate, ställ in villkoret till att output innehåller
Yesmed{{$json.output}}. - Problem Check Gate skickar utdata till både Solution Planner Agent och Merge Solution Data parallellt.
Steg 5: Generera lösningar och slå ihop utdata
Generera en kort lösning och slå ihop den med inläggsdata för lagring och svar.
- Öppna Solution Planner Agent och bekräfta att prompttexten är:
=Based on the reddit post, suggest a plan or a solution on how i fix the issues the users are facing with Sora 2. Reddit Post: {{ $json.selftext }} Provide a concise solution on how we can fix the problems in slack based on the reddit post. Explain the solution - Säkerställ att Gemini Chat Model B är ansluten som språkmodell för Solution Planner Agent och ställ in Model Name till
models/gemini-2.0-flash. - Inloggningsuppgifter krävs: Anslut era Google Gemini-inloggningsuppgifter i Gemini Chat Model B (lägg till inloggningsuppgifter på modellen, inte på agenten).
- Öppna Merge Solution Data och ställ in Mode till
combineoch Combine By tillcombineByPosition. - Koppla Solution Planner Agent till Merge Solution Data.
Steg 6: Konfigurera utdata till Google Sheets och Reddit-svar
Lagra analysresultat i Google Sheets och publicera en Reddit-kommentar med den genererade lösningen.
- Öppna Append Sheet Row och ställ in Operation till
append. - Välj ert målark: ställ in Document ID till ert kalkylark och Sheet Name till
Sheet2. - Mappa kolumner i Append Sheet Row: Bio =
{{$json.created}}, username ={{$json.selftext}}, Full Name ={{$json.output}}, Profile ID, ={{$json.title}}, Follower Count ={{$json.subreddit_id}}. - Inloggningsuppgifter krävs: Anslut era Google Sheets-inloggningsuppgifter i Append Sheet Row (för närvarande inte konfigurerat).
- Koppla Merge Solution Data till Append Sheet Row, och koppla sedan Append Sheet Row till Publish Reddit Reply.
- Öppna Publish Reddit Reply och ställ in Post ID till
{{$json.Bio}}och Comment Text till{{$json['Full Name']}}. - Inloggningsuppgifter krävs: Anslut era Reddit-inloggningsuppgifter i Publish Reddit Reply (för närvarande inte konfigurerat).
Steg 7: Testa och aktivera ert arbetsflöde
Kör ett manuellt test för att bekräfta att Reddit-sökning, AI-klassificering och utdata fungerar hela vägen innan ni aktiverar.
- Klicka på Execute Workflow för att köra Manual Run Trigger och hämta live-inlägg från Reddit.
- Verifiera att Engagement Filter släpper igenom inlägg med ups ≥ 2 och icke-tom selftext.
- Bekräfta att Problem Classifier Agent returnerar
YesellerNooch att Problem Check Gate routar korrekt. - Kontrollera att Append Sheet Row skriver en ny rad och att Publish Reddit Reply publicerar en kommentar med den genererade lösningen.
- När allt fungerar, växla arbetsflödet till Active för användning i produktion.
Vanliga fallgropar
- Reddit-credentials kan gå ut eller kräva specifika behörigheter. Om det skapar fel, kontrollera först inställningarna i din Reddit-app och de anslutna OAuth-scopes i n8n.
- Om du använder Wait-noder eller extern rendering varierar bearbetningstiderna. Öka väntetiden om nedströms noder fallerar på tomma svar.
- Standardprompter i AI-noder är generiska. Lägg in din varumärkesröst tidigt, annars kommer du att redigera output för alltid.
Vanliga frågor
Cirka 30 minuter om du redan har dina API-nycklar.
Nej. Du kopplar mest konton och redigerar några prompter och filter.
Ja. n8n har ett gratis self-hosted-alternativ och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna in användning av Google Gemini API, som vanligtvis är låg för några körningar per dag men beror på promptstorlek och modell.
Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller self-hosting på en VPS. För self-hosting är Hostinger VPS prisvärd och hanterar n8n bra. Self-hosting ger dig obegränsat antal exekveringar men kräver grundläggande serverhantering.
Ja, och det är smart i början. Behåll steget som loggar till Google Sheets, men inaktivera noden ”Publish Reddit Reply” så att inget publiceras automatiskt. Många team lägger också till en enkel kolumn ”Godkänd?” i Sheets och publicerar sedan bara när värdet är sant. Du kan också justera söknyckelordet och upvote-tröskeln så att flödet bara lyfter fram trådar med högre kvalitet.
Oftast beror det på att OAuth-åtkomsten i din Reddit developer-app har gått ut eller återkallats, så autentisera igen och bekräfta rätt scopes för läsning och publicering. Dubbelkolla också subredditen och sökfrågan, eftersom vissa fel bara är ”inga resultat” som maskeras som ett nodfel. Om du kör ofta kan du även slå i rate limits, så att sprida ut körningarna med ett schema kan hjälpa.
I praktiken så många som dina gränser för n8n-exekveringar och API:ernas rate limits tillåter.
Ofta ja, eftersom det här flödet inte bara är ett enkelt ”Reddit nytt inlägg → gör X”-zap. Du har filtrering, två AI-beslut, sammanslagning av data och ett valfritt publiceringssteg, vilket är precis där n8n brukar kännas mer flexibelt. Self-hosting ändrar också ekonomin om du räknar med högre volym. Zapier eller Make kan fortfarande vara bra om du vill ha snabbast möjliga uppsättning och håller det till ett lätt flöde, men Reddit + AI + loggning växer ofta till något som mår bra av n8n. Prata med en automationsexpert om du är osäker på vad som passar.
När det här väl rullar slutar du förlita dig på minnet och webbläsarflikar för att ”göra Reddit”. Flödet gör dig konsekvent och Google Sheets håller dig ärlig.
Kontakta oss
Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.