Behöver ert företag hjälp med att implementera AI? Kontakta oss och få prisoffert här →
AI Skolan
januari 22, 2026

Gmail + Google Sheets för smartare Reddit-svar

Rickard Andersson Partner, Nodenordic.se

Du ser aviseringen, du öppnar Reddit, du skummar tråden och börjar sedan tveka kring reglerna. Tio minuter senare har du fortfarande inte svarat, och inlägget har redan tappat fart. Så dör ”vi borde vara mer aktiva på Reddit” i tysthet.

Marknadschefer känner det eftersom snabbhet spelar roll. En grundare känner det eftersom varje omnämnande är en chans att förklara produkten. Och om du driver en byrå är automatisering av Reddit-svar skillnaden mellan ”vi bevakar” och ”vi svarar”. Det här arbetsflödet gör dig konsekvent utan att låta som en bot.

Det tar F5Bot-aviseringar från Gmail, kontrollerar subreddittens regler för egen marknadsföring, skriver ett kort förstapersons-svar, hämtar vid behov en produktlänk från Google Sheets, publicerar svaret och loggar sedan vad som hände så att du kan förbättra över tid.

Så fungerar den här automatiseringen

Hela n8n-arbetsflödet, från trigger till slutresultat:

n8n Workflow Template: Gmail + Google Sheets för smartare Reddit-svar

Problemet: Reddit-svar är lätta att göra fel

Reddit är en av få platser där en genomtänkt kommentar kan driva riktig trafik, leads och trovärdighet. Det är också ett av de snabbaste sätten att bli nedröstad eller borttagen om du låter för säljig, ignorerar en subreddit-regel eller droppar en länk där länkar inte är välkomna. Att göra det manuellt är värre än det låter. Du måste hoppa mellan Gmail-aviseringar, själva inlägget, subreddittens sidofält och vilket dokument som nu innehåller dina ”godkända” länkar. Sedan behöver du fortfarande skriva något som känns mänskligt och håller sig under teckengränsen.

Friktionen byggs på. Här är var det brukar fallera.

  • Du missar tajmingen eftersom det tar för lång tid att läsa regler och skriva ett säkert svar.
  • Svaren blir inkonsekventa, så varumärkets ton varierar beroende på vem som är i tjänst.
  • Du undviker att nämna produkten helt, vilket innebär att du gör ”engagemang” utan affärseffekt.
  • När du väl delar en länk är det lätt att bryta mot en regel om ingen marknadsföring och få kommentaren borttagen.

Lösningen: Gmail-triggade, regelmedvetna Reddit-kommentarer

Det här arbetsflödet gör en Gmail-avisering till ett strukturerat, regelmedvetet Reddit-svar som läser som om en riktig person skrev det. Det startar när ett F5Bot-mejl landar i inkorgen, väntar en kort stund (så att Reddit-data hinner bli tillgänglig), och plockar sedan ut Reddit-URL:en från meddelandet. Därefter hämtar det inläggets innehåll, identifierar subredditten och hämtar subreddittens regler så att automatiseringen kan avgöra om egen marknadsföring är tillåten. Sedan genererar en AI-agent en kort kommentar i förstaperson (hållen under cirka 255 tecken), med en avslappnad ton och utan fejkad hype. Om marknadsföring är tillåten kan den hämta produktnamn och URL från Google Sheets och väva in det naturligt. Till sist publicerar den kommentaren och loggar utvärderingssignaler så att du kan se mönster och höja kvaliteten.

Arbetsflödet börjar i Gmail och bygger sedan kontext från Reddit (inlägg + regler). AI skriver svaret med skyddsräcken, Reddit publicerar det och Google Sheets blir din löpande loggbok över vad som publicerades, vad som innehöll länkar och vilken formatering som såg riskfylld ut.

Det här får du: automatisering vs. resultat

Exempel: så här ser det ut

Säg att du får 10 Reddit-omnämnanden i veckan via F5Bot. Manuellt kanske du lägger runt 10 minuter på att öppna inlägget och skriva ett svar, plus ytterligare 10 minuter på att kontrollera subreddit-regler och avgöra om en länk är säker. Det är ungefär 3 timmar i veckan. Med det här arbetsflödet tar du fortfarande en snabb titt, men grovjobbet automatiseras: vänta några minuter, generera kommentaren, publicera och logga. För de flesta team hamnar det närmare 10 minuter per omnämnande från start till mål, vilket ger ungefär 2 timmar tillbaka varje vecka.

Det här behöver du

  • n8n-instans (testa n8n Cloud gratis)
  • Alternativ för egen drift om du föredrar det (Hostinger fungerar bra)
  • Gmail för att ta emot och trigga F5Bot-aviseringar.
  • Google Sheets för att lagra kampanjlänkar och logga utvärderingar.
  • OpenAI API-nyckel (hämta den i din OpenAI-dashboard).

Kunskapsnivå: Medel. Du kopplar konton, klistrar in inloggningsuppgifter och justerar en prompt, men du kommer inte att skriva mycket kod.

Vill du inte sätta upp det här själv? Prata med en automationsexpert (gratis 15-minuters konsultation).

Så fungerar det

Gmail-aviseringen triggar körningen. När ett F5Bot-mejl anländer (oftast filtrerat till [email protected]) väntar arbetsflödet några minuter så att Reddit-URL:en och inläggsdata är tillförlitligt åtkomliga.

Kontext för inlägg och subreddit byggs upp. n8n extraherar Reddit-länken från mejlet, hämtar inlägget och plockar subreddittens detaljer samt aktuella regler. Regeltexten blir en del av kontexten som AI:n ser, inte något du måste stressläsa.

AI skriver en regelmedveten kommentar. En AI-agent (med OpenAI Chat Model) genererar ett kort svar i förstaperson med en ”skrev snabbt”-känsla, samtidigt som den håller sig under teckengränsen och undviker uppenbart marknadsföringsspråk. Om marknadsföring är tillåten kan den hämta produktnamn och URL från din Google Sheets-flik ”promo” och inkludera det naturligt.

Reddit publicerar, Sheets loggar. Arbetsflödet publicerar kommentaren via Reddit OAuth och gör sedan snabba kontroller (länkförekomst, streckanvändning, verktygsanvändning, körtid) och skriver utvärderingsraden till ditt ark ”reddit evaluations” så att du kan granska vad som hände senare.

Du kan enkelt ändra vilka nyckelord du bevakar för att fokusera på trådar med högre intent utifrån dina behov. Se den fullständiga implementeringsguiden nedan för anpassningsalternativ.

Steg-för-steg-guide för implementering

Steg 1: Konfigurera e-post- och dataset-triggers

Konfigurera båda inmatningsvägarna så att arbetsflödet kan starta från Gmail eller en utvärderingsrad i Google Sheets.

  1. Öppna Email Intake Trigger och ställ in avsändarfiltreringen till [YOUR_EMAIL].
  2. I Email Intake Trigger ställer ni in Poll Times till everyMinute.
  3. Autentiseringsuppgifter krävs: Anslut era gmailOAuth2-autentiseringsuppgifter i Email Intake Trigger.
  4. Öppna Dataset Row Trigger och ställ in Source till googleSheets, Sheet Name till [YOUR_ID] och Document ID till [YOUR_ID].
  5. Autentiseringsuppgifter krävs: Anslut era googleSheetsOAuth2Api-autentiseringsuppgifter i Dataset Row Trigger.
  6. Verifiera att båda triggers ansluter till Map Message Fields (e-postflödet går även via Wait 5 Minutes).

⚠️ Vanlig fallgrop: Ersätt alla platshållare [YOUR_EMAIL] och [YOUR_ID] innan ni testar, annars kommer triggers inte att avfyras korrekt.

Steg 2: Anslut Reddit- och Google Sheets-tjänster

Säkerställ att alla externa tjänster är autentiserade för att läsa Reddit-data och skriva utvärderingsresultat.

  1. Autentiseringsuppgifter krävs: Anslut era redditOAuth2Api-autentiseringsuppgifter i Fetch Reddit Post.
  2. Autentiseringsuppgifter krävs: Anslut era redditOAuth2Api-autentiseringsuppgifter i Post Reddit Reply.
  3. Autentiseringsuppgifter krävs: Anslut era googleSheetsOAuth2Api-autentiseringsuppgifter i Write Evaluation Results.
  4. Autentiseringsuppgifter krävs: Anslut era googleSheetsOAuth2Api-autentiseringsuppgifter för verktyget Fetch Promo Sheet (detta verktyg är kopplat till AI Comment Composer).

⚠️ Vanlig fallgrop: Fetch Subreddit Details och Retrieve Subreddit Rules är Reddit-noder utan konfigurerade autentiseringsuppgifter – lägg till redditOAuth2Api-autentiseringsuppgifter, annars kommer anropen att misslyckas.

Steg 3: Ställ in meddelandeparsning och kontextbygge

Omvandla inkommande e-post eller rader i kalkylblad till Reddit-redo kontext och hämta subreddit-regler och inläggsdetaljer.

  1. I Wait 5 Minutes behåller ni Unit inställd på minutes för att fördröja bearbetningen efter e-postintag.
  2. I Map Message Fields ställer ni in Text till ={{ $json.text }}.
  3. I Extract Subreddit Links behåller ni JavaScript-koden som extraherar URL:er från Text och returnerar urls.
  4. I Parse Reddit Links behåller ni JavaScript-koden som avkodar F5Bot-länkar och matar ut subreddit och postId.
  5. Parse Reddit Links skickar utdata till både Fetch Subreddit Details och Fetch Reddit Post parallellt.
  6. I Fetch Reddit Post ställer ni in Post ID till ={{ $json.postId }} och Subreddit till ={{ $json.subreddit }}.
  7. I Exclude Own Posts ställer ni in vänster värde till =[YOUR_ID] och höger värde till ={{ $json.author }} med operatorn notEquals.
  8. I Prepare AI Input ställer ni in Title till ={{ $json.title }} och Text till ={{ $json.selftext }}.
  9. I Retrieve Subreddit Rules ställer ni in Subreddit till ={{ $('Parse Reddit Links').item.json.subreddit }}.
  10. I Combine Rule Context ställer ni in subreddit_about till ={{ $('Fetch Subreddit Details').first().json }} och subreddit_rules till ={{ $json }}.
  11. I Combine Context Streams ställer ni in Mode till combine och Combine By till combineByPosition så att regelkontext och inläggsinnehåll slås ihop korrekt.

Tips: Behåll Fetch Subreddit Details och Retrieve Subreddit Rules inställda på content: rules för att skicka rätt begränsningar till AI-prompten.

Steg 4: Ställ in AI-generering av kommentarer

Konfigurera AI-agenten, modellen och strukturerad utdata så att kommentarer genereras med subreddit-kontekst och valfri promotionslogik.

  1. I AI Comment Composer behåller ni prompten i Text inställd på =Title: {{ $json.Title }} Text: {{ $json.Text }} subreddit_rules: {{ JSON.stringify($json.subreddit_rules) }} subreddit: {{ JSON.stringify($json.subreddit_about) }} notes: {{ $json.notes || null }} .
  2. Behåll Return Intermediate Steps aktiverat i AI Comment Composer för att stödja verifiering av verktygsanvändning.
  3. I OpenAI Chat Engine ställer ni in Model till gpt-5-nano.
  4. Autentiseringsuppgifter krävs: Anslut era openAiApi-autentiseringsuppgifter i OpenAI Chat Engine.
  5. Parse Comment Output är ansluten som utdata-parser för AI Comment Composer – inga autentiseringsuppgifter behövs för denna parser.
  6. Fetch Promo Sheet är ansluten som ett verktyg till AI Comment Composer – säkerställ att Google Sheets-autentiseringsuppgifter är kopplade till verktygsanslutningen för denna föräldranod.

Steg 5: Konfigurera publicering och utvärderingsutdata

Skicka AI-genererat svar till Reddit, kör sedan utvärderingskontroller och skriv mätvärden till Google Sheets.

  1. I Post Reddit Reply ställer ni in Post ID till ={{ $('Fetch Reddit Post').item.json.id }} och Comment Text till ={{ $json.output.comment }}.
  2. Post Reddit Reply skickar utdata till Check Dash Usage, Check Link Presence och Verify Tool Usage parallellt.
  3. I Check Dash Usage ställer ni in Actual Answer till ={{ $('AI Comment Composer').first().json.output.comment.includes("—") }} och Expected Answer till false.
  4. I Check Link Presence ställer ni in Actual Answer till ={{ $('AI Comment Composer').first().json.output.comment.includes("https://") }} och Expected Answer till true.
  5. I Verify Tool Usage ställer ni in Expected Tools till Fetch Promo Sheet och Intermediate Steps till ={{ $('AI Comment Composer').first().json.intermediateSteps }}.
  6. I Aggregate Metrics ställer ni in Mode till combine, Combine By till combineByPosition och Number Inputs till 3.
  7. I Write Evaluation Results mappar ni utdata till Sheets med: ={{ $('AI Comment Composer').first().json.output.comment }}, ={{ $json["contains link"] }}, ={{ $json["contains dash"] }} och ={{ $json["Tools Used"] }}.

Tips: Behåll Sheet Name inställt på [YOUR_ID] och Document ID inställt på [YOUR_ID] i Write Evaluation Results för att lagra mätvärden i rätt utvärderingsark.

Steg 6: Testa och aktivera ert arbetsflöde

Validera hela flödet från meddelandeintag till Reddit-svar och utvärderingsloggning och slå sedan på det för produktion.

  1. Klicka på Execute Workflow och trigga antingen Email Intake Trigger eller Dataset Row Trigger.
  2. Bekräfta att flödet når Post Reddit Reply och att en kommentar publiceras med ={{ $json.output.comment }}.
  3. Verifiera att Aggregate Metrics kombinerar de tre utvärderingsutdata och att Write Evaluation Results lägger till en ny rad.
  4. När det fungerar växlar ni arbetsflödet till Active för kontinuerlig drift.
🔒

Lås upp fullständig steg-för-steg-guide

Få den kompletta implementeringsguiden + nedladdningsbar mall

Vanliga fallgropar

  • Reddit OAuth-uppgifter kan gå ut eller sakna rätt scopes. Om publicering misslyckas, kontrollera först Reddit-nodens credential-status och appens behörigheter för kontot.
  • Om du använder Wait-noder eller extern rendering varierar behandlingstiderna. Öka väntetiden om nedströmsnoder fallerar på tomma svar.
  • Standardprompter i AI-noder är generiska. Lägg in din varumärkesröst tidigt, annars kommer du att redigera outputs i all evighet.

Vanliga frågor

Hur lång tid tar det att sätta upp den här automatiseringen av Reddit-svar?

Cirka 45 minuter om dina konton är redo.

Behöver jag kunna koda för att automatisera Reddit-svar?

Nej. Du kopplar Gmail, Reddit och Google Sheets och klistrar in en OpenAI-nyckel. En liten justering av textprompter är oftast den enda ”tekniska” delen.

Är n8n gratis att använda för det här arbetsflödet för automatisering av Reddit-svar?

Ja. n8n har ett gratis alternativ för egen drift och en gratis provperiod på n8n Cloud. Cloud-planer börjar på $20/månad för högre volym. Du behöver också räkna med OpenAI API-kostnader, som vanligtvis är några cent per körning för korta kommentarer.

Var kan jag hosta n8n för att köra den här automatiseringen?

Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller egen drift på en VPS. För egen drift är Hostinger VPS prisvärd och klarar n8n bra. Egen drift ger dig obegränsade körningar men kräver grundläggande serverhantering.

Kan jag anpassa det här arbetsflödet för automatisering av Reddit-svar för manuell godkännande innan publicering?

Ja, men du vill ändra flödet precis före ”Post Reddit Reply” så att kommentaren sparas för granskning i stället för att publiceras. Vanliga anpassningar är att skicka utkastet till Slack för godkännande, skriva utkast till en rad i Google Sheets eller byta Reddit-postnoden till ett ”skapa utkast”-beteende (om du föredrar en mänsklig kontroll). Du kan också justera AI Agent-prompten så att den alltid undviker länkar om inte en specifik flagga är satt i ditt promo-ark.

Varför fallerar min Reddit-anslutning i det här arbetsflödet?

Oftast beror det på utgångna Reddit OAuth-uppgifter eller saknade behörigheter i Reddit-appen du kopplade. Anslut Reddit-credentialn på nytt i n8n och kör sedan en enskild testkörning från noden ”Fetch Reddit Post” för att bekräfta att kontot kan läsa och kommentera. Om det fungerar för läsning men inte för publicering, kontrollera kontostatus (vissa subs kräver karma eller kontots ålder) och håll koll på rate limits när flera aviseringar kommer tätt.

Hur många aviseringar kan den här automatiseringen av Reddit-svar hantera?

På en typisk liten VPS är dussintals aviseringar per dag inga problem. Om du kör n8n Cloud är din praktiska gräns din månatliga körkvot, och AI-anropen kommer att vara den långsammaste delen. Om du kör själv finns ingen hård gräns för antal körningar, men du vill ändå sprida ut körningarna (den inkluderade väntan hjälper) så att Reddit- och OpenAI-förfrågningar inte krockar.

Är den här automatiseringen av Reddit-svar bättre än att använda Zapier eller Make?

För det här arbetsflödet passar n8n ofta bättre eftersom det stödjer rikare förgrening (Switch/If-logik), att blanda Reddit API-anrop med en AI-agent och att köra utvärderingar utan att det blir ett dussin betalda steg. Zapier eller Make kan fungera om du bara vill ha ”Gmail-avisering → skicka mig ett utkast”, men att hämta regler, spärra/öppna för marknadsföring och göra loggningskontroller blir snabbt klumpigt. Det finns också alternativet med egen drift, vilket spelar roll när volymen växer. Om du ska välja: kartlägg först delarna som ”inte får fallera” — säker publicering, konsekvent ton och revisionsloggning. Prata med en automationsexpert om du är osäker på vad som passar.

Du behöver inte fler påminnelser om att ”vara aktiv på Reddit”. Du behöver ett system som dyker upp, följer reglerna och lämnar ett spår i Sheets så att du kan bli bättre.

Kontakta oss

Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.

×

Använd mall

Få direkt tillgång till denna n8n-arbetsflödes JSON-fil

Launch login modal Launch register modal