Du hittar en grym AskReddit-tråd, svär på att du ska använda den senare, och sen försvinner den i ett hav av öppna flikar och halvfärdiga anteckningar. Nästa vecka gör du samma sak igen. Samma scroll, samma ”jag kommer ihåg det här”-lögn.
Den här Reddit Sheets-automationen är för marknadsförare som bygger contentkalendrar, founders som behöver idéer på beställning, och creators som gör Shorts och inte kan slösa morgnar på att leta efter ”den där” prompten. Vinsten är enkel: en strukturerad backlog med bara trådar med hög potential, redan poängsatta, med dubbletter borttagna.
Du får se hur workflowet hämtar trendande inlägg, gallrar dem, deduplicerar mot det du redan sparat, poängsätter viralitet med AI och sedan bara lägger in de bästa kandidaterna i Google Sheets.
Så här fungerar automationen
Här är hela workflowet du kommer att sätta upp:
n8n Workflow Template: Reddit till Google Sheets, spara bara virala inlägg
flowchart LR
subgraph sg0["Manual Launch Flow"]
direction LR
n0@{ icon: "mdi:play-circle", form: "rounded", label: "Manual Launch Trigger", pos: "b", h: 48 }
n1["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/httprequest.dark.svg' width='40' height='40' /></div><br/>Fetch Confession Posts"]
n2["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/code.svg' width='40' height='40' /></div><br/>Screen Post Content"]
n3["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/code.svg' width='40' height='40' /></div><br/>Select Viral Candidates"]
n4@{ icon: "mdi:database", form: "rounded", label: "Retrieve Sheet Rows", pos: "b", h: 48 }
n5["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/merge.svg' width='40' height='40' /></div><br/>Combine With Sheet Data"]
n6["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/code.svg' width='40' height='40' /></div><br/>Remove Existing Entries"]
n7["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/code.svg' width='40' height='40' /></div><br/>Assign Sequence Numbers"]
n8@{ icon: "mdi:robot", form: "rounded", label: "Generate Virality Rating", pos: "b", h: 48 }
n9["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/merge.svg' width='40' height='40' /></div><br/>Merge Scores Stream"]
n10["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/code.svg' width='40' height='40' /></div><br/>Apply Rating Field"]
n11["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/code.svg' width='40' height='40' /></div><br/>Filter High Ratings"]
n12@{ icon: "mdi:database", form: "rounded", label: "Append Sheet Records", pos: "b", h: 48 }
n5 --> n6
n9 --> n10
n7 --> n8
n7 --> n9
n11 --> n12
n6 --> n7
n10 --> n11
n8 --> n9
n1 --> n2
n4 --> n5
n2 --> n3
n3 --> n5
n3 --> n4
n0 --> n1
end
%% Styling
classDef trigger fill:#e8f5e9,stroke:#388e3c,stroke-width:2px
classDef ai fill:#e3f2fd,stroke:#1976d2,stroke-width:2px
classDef aiModel fill:#e8eaf6,stroke:#3f51b5,stroke-width:2px
classDef decision fill:#fff8e1,stroke:#f9a825,stroke-width:2px
classDef database fill:#fce4ec,stroke:#c2185b,stroke-width:2px
classDef api fill:#fff3e0,stroke:#e65100,stroke-width:2px
classDef code fill:#f3e5f5,stroke:#7b1fa2,stroke-width:2px
classDef disabled stroke-dasharray: 5 5,opacity: 0.5
class n0 trigger
class n8 ai
class n4,n12 database
class n1 api
class n2,n3,n6,n7,n10,n11 code
classDef customIcon fill:none,stroke:none
class n1,n2,n3,n5,n6,n7,n9,n10,n11 customIcon
Varför det här spelar roll: din ”idé-backlog” är full av skräp
AskReddit är i praktiken en oändlig innehållsgenerator, men volymen är fällan. Du kan lätt lägga 45 minuter på att scrolla, spara 30 länkar och ändå stå där med inget du faktiskt vill producera. Sen kommer den tysta tidstjuven: dubbletter, nästan-dubbletter och trådar som ser bra ut tills du öppnar dem och inser att det saknas story, spänning och hook. Under tiden blir ditt Google Sheet (eller Notion-dokument, eller Slack-kanal) en dumpningsplats. När det är dags att skapa så ”researchar” du igen i stället för att leverera.
Det går snabbt utför. Här är var det brister.
- Du sparar samma teman om och om igen eftersom inget kontrollerar din befintliga backlog innan du lägger till mer.
- Manuell granskning blir inkonsekvent, så starka trådar begravs bredvid låginsatsinlägg.
- Ditt team kan inte enas om vad ”viral potential” betyder, vilket leder till oändligt omval.
- När du väl har bestämt dig har trenden svalnat och tråden är inte längre användbar.
Vad du bygger: en poängsatt och deduplicerad AskReddit-idépipeline
Det här workflowet samlar automatiskt trendande AskReddit-liknande inlägg, filtrerar bort de svaga och sparar bara de bästa kandidaterna i Google Sheets. Det börjar med att hämta en batch inlägg från Reddit via en HTTP-request, och sedan gallrar det innehållet så att du inte lägger tid på att poängsätta uppenbart skräp eller inlägg som inte fungerar som en short. Därefter hämtar det dina befintliga rader från Google Sheets och slår ihop dem med den nya batchen så att workflowet kan ta bort allt du redan fångat. Efter det tilldelar det sekvensnummer och använder ett AI-betygssteg (OpenAI via n8n:s LangChain-node) för att skapa ett viralitetsbetyg. Till sist behåller det bara höga betyg och appendar vinnarna till ditt sheet, redo för manus i nästa fas av din pipeline.
Workflowet startas manuellt (eller på schema om du föredrar det). Reddit-inlägg gallras och kortlistas, sedan kontrolleras de mot ditt befintliga Sheet för deduplicering. AI-poängsättning sker efter kortlistan, och bara trådar med höga betyg skrivs till Google Sheets.
Det du bygger
| Det som automatiseras | Det du uppnår |
|---|---|
|
|
Förväntade resultat
Säg att du vill ha 20 starka trådidéer per vecka. Manuellt ser en typisk process ut så här: cirka 45 minuter att hitta inlägg, 30 minuter att kolla dubbletter i ditt sheet och ytterligare 30 minuter att argumentera med dig själv om vad som är ”bra”, så ungefär 2 timmar. Med det här workflowet kör du det, väntar några minuter på poängsättningen och lägger sedan cirka 10–15 minuter på att skumma de högst betygsatta raderna och välja vinnare. Det är runt 90 minuter tillbaka varje vecka, och backloggen förblir strukturerad i stället för uppblåst.
Innan du börjar
- n8n-instans (testa n8n Cloud gratis)
- Alternativ för self-hosting om du föredrar det (Hostinger fungerar bra)
- Reddit API-åtkomst för att hämta AskReddit-inlägg
- Google Sheets för att lagra din poängsatta idé-backlog
- OpenAI API-nyckel (hämta den i OpenAI API-dashboarden)
Kunskapsnivå: Medel. Du kopplar konton, klistrar in en API-nyckel och redigerar ett par fält och filter med trygghet.
Vill du att någon bygger detta åt dig? Prata med en automationsexpert (gratis 15-minuters konsultation).
Steg för steg
En manuell körning (eller ett schema) triggar hämtningen. Workflowet startar med en manuell starttrigger och använder sedan en HTTP-request för att hämta en ny batch inlägg från Reddit.
Inlägg gallras innan du slösar tid på att poängsätta dem. Ett gallringssteg utvärderar innehållet och smalnar av listan till kandidater som mer sannolikt fungerar som prompts (skillnaden mellan ”intressant tråd” och ”användbart innehållsfrö” spelar roll).
Deduplicering sker mot ditt befintliga Google Sheet. Workflowet hämtar dina nuvarande rader, slår ihop dem med kandidaterna och tar sedan bort allt som redan är loggat så att din backlog förblir genuint ny.
AI skapar ett viralitetsbetyg, och bara höga poäng sparas. Workflowet tilldelar sekvensnummer, skickar varje kandidat genom ett OpenAI-betygssteg, slår tillbaka poängen i datasetet, filtrerar på höga betyg och appendar slutresultatet till Google Sheets.
Du kan enkelt justera poängsättningslogiken så att den matchar din nisch och din publik. Se den fullständiga implementationsguiden nedan för anpassningsalternativ.
Steg-för-steg-guide för implementering
Steg 1: Konfigurera den manuella triggern
Starta arbetsflödet manuellt medan ni verifierar Reddit-pipelinen och poänglogiken.
- Lägg till noden Manual Launch Trigger som din trigger.
- Behåll standardinställningarna för Manual Launch Trigger för att tillåta manuella körningar.
- (Valfritt) Lämna sticky note Flowpast Branding oförändrad för dokumentationskontext.
Steg 2: Anslut Google Sheets
Konfigurera läs-/skrivoperationerna i arket som används för att undvika dubbletter och lagra inlägg med höga poäng.
- Öppna Retrieve Sheet Rows och välj kalkylarket i Document och fliken i Sheet.
- Inloggning krävs: Anslut era googleSheetsOAuth2Api-inloggningsuppgifter i Retrieve Sheet Rows.
- Öppna Append Sheet Records och välj samma Document och Sheet som används för läsning.
- Inloggning krävs: Anslut era googleSheetsOAuth2Api-inloggningsuppgifter i Append Sheet Records.
[YOUR_ID], i båda Google Sheets-noderna innan ni testar.Steg 3: Konfigurera hämtning från Reddit och initial screening
Hämta hot-inlägg från r/confession och filtrera bort oönskade ämnen samt innehåll med låg interaktion.
- I Fetch Confession Posts, ställ in URL på
https://www.reddit.com/r/confession/hot.json?limit=30. - I Fetch Confession Posts, aktivera Send Headers och lägg till headern User-Agent med värdet
n8n-askreddit-scraper. - I Screen Post Content, behåll JS-filtret som exkluderar titlar som innehåller
trump,president,warochisrael, och mappar fält sompost_id,title,selftext,scoreochnum_comments. - I Select Viral Candidates, behåll JS-logiken som kräver
score > 60,num_comments > 40ochover_18 === false.
Steg 4: Slå ihop med befintliga arkdata och avduplicera
Förgrena de filtrerade inläggen för att slå ihop med det befintliga arket, ta bort dubbletter och sekvensera nya poster.
- Säkerställ att Select Viral Candidates skickar utdata parallellt till både Combine With Sheet Data och Retrieve Sheet Rows.
- Verifiera att Combine With Sheet Data slår ihop kandidat-inläggen med arkraderna och därefter går vidare till Remove Existing Entries.
- I Remove Existing Entries, behåll JS-koden som jämför
post_idmed befintligaReddit Post ID-värden för att förhindra dubbletter. - I Assign Sequence Numbers, behåll JS-koden som lägger till ett sekventiellt
number-fält för varje ny post.
Steg 5: Sätt upp AI-poängsättning och filtrering av höga poäng
Skicka varje kandidat till AI-modellen, slå ihop poängen tillbaka till posterna och filtrera på hög viralitet.
- Assign Sequence Numbers skickar utdata parallellt till både Generate Virality Rating och Merge Scores Stream.
- I Generate Virality Rating, välj modellen
gpt-4ooch behåll prompten som betygsätter viralitet med{{$json.title}}. - Inloggning krävs: Anslut era openAiApi-inloggningsuppgifter i Generate Virality Rating.
- I Merge Scores Stream, ställ in Mode på
combineoch Combine By påcombineByPosition. - I Apply Rating Field, behåll JS-koden som mappar AI-svaret till
virality_scoreviaitem.json.message?.content.trim(). - I Filter High Ratings, behåll filtret som endast släpper igenom
virality_score >= 6.
Steg 6: Konfigurera utdata till Google Sheets
Lägg endast till inlägg med höga poäng i ert Google-ark med korrekta fältmappningar.
- I Append Sheet Records, ställ in Operation på
append. - Mappa kolumnerna exakt enligt konfigurationen, inklusive Date till
{{new Date().toISOString().slice(0, 10)}}, Number till{{ $json.number }}, Upvotes till{{ $json.score }}, Comments till{{ $json.num_comments }}, Question till{{ $json.title }}, Reddit Post ID till{{ $json.post_id }}och Virality Score till{{ $json.virality_score }}. - Behåll statiska värden som TYPE satt till
CONFESSIONoch Status satt tillTODO.
Steg 7: Testa och aktivera ert arbetsflöde
Kör ett manuellt test för att verifiera dataflöde, AI-poängsättning och uppdateringar i arket innan ni aktiverar.
- Klicka på Execute Workflow med start från Manual Launch Trigger.
- Bekräfta att Fetch Confession Posts returnerar JSON-data och att Screen Post Content ger rensade poster.
- Verifiera att Generate Virality Rating returnerar en numerisk poäng och att Filter High Ratings endast skickar vidare poster med poäng
>= 6. - Kontrollera ert Google-ark för att säkerställa att Append Sheet Records har lagt till rader med förväntade fält.
- När ni är nöjda, slå på arbetsflödet till Active för användning i produktion.
Felsökningstips
- Reddit API-inloggningsuppgifter kan löpa ut eller kräva rätt appinställningar. Om requesten ”Fetch Confession Posts” börjar fallera, kontrollera först dina Reddit-appuppgifter och redirect-inställningar.
- Om du använder AI-betyg i någon större volym kan OpenAI begränsa dig (rate limiting). Sänk körhastigheten, minska batchstorleken eller lägg in en kort väntan om betygssteget returnerar tomma eller inkonsekventa resultat.
- Fel i Google Sheets beror ofta på behörigheter. Bekräfta att det kopplade Google-kontot kan redigera målarket och att noden ”Append Sheet Records” pekar på rätt kalkylark och flik.
Snabba svar
Cirka 30 minuter om dina Reddit-, Google- och OpenAI-konton är redo.
Nej. Du kopplar konton och justerar ett par filter och fält.
Ja. n8n har ett gratis self-hosted-alternativ och en gratis testperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna in kostnader för OpenAI API, som vanligtvis landar på några dollar i månaden vid små volymer.
Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller self-hosting på en VPS. För self-hosting är Hostinger VPS prisvärt och hanterar n8n bra. Self-hosting ger obegränsade körningar, men kräver grundläggande serverhantering.
Ja, ganska enkelt. Du kan ändra vilken Reddit-endpoint du hämtar från i HTTP Request-noden ”Fetch Confession Posts”, och sedan justera gallringen och logiken för kandidatval så att den matchar ditt format (frågor, stories, kontroverser). De flesta justerar också prompten i ”Generate Virality Rating” så att poängen speglar deras plattform, som YouTube Shorts kontra TikTok. Om du vill ha striktare deduplicering kan du uppdatera logiken i ”Remove Existing Entries” så att den matchar på URL plus normaliserad titel.
Oftast är det ett behörighetsproblem på kalkylarket eller det kopplade Google-kontot. Återanslut Google Sheets i n8n och bekräfta sedan att arket och fliken som valts i ”Retrieve Sheet Rows” och ”Append Sheet Records” fortfarande finns. Om du nyligen bytte namn på fliken kan n8n fortsätta peka på den gamla. Kontrollera också att ditt Google-konto inte blockeras av en regel från en workspace-admin.
På n8n Cloud Starter kan du normalt köra tusentals exekveringar per månad, och vid self-hosting finns inget tak (din server blir begränsningen). I praktiken är AI-poängsättningen flaskhalsen, så de flesta team kör detta i batchar några gånger i veckan i stället för att försöka betygsätta hundratals inlägg varje timme.
Ofta, ja. Det här workflowet använder filtrering i flera steg, sammanslagning mot befintliga Sheet-rader för deduplicering och ett anpassat AI-betygssteg, vilket är där Zapier och Make kan bli klumpiga eller dyra i skala. n8n låter dig också self-hosta, vilket är viktigt om du kör många exekveringar. Men om du bara vill ha ”spara nytt Reddit-inlägg till Google Sheets” utan poängsättning och utan deduplicering kommer Zapier eller Make kännas snabbare att sätta upp. Prata med en automationsexpert om du vill ha hjälp att välja.
När det här väl rullar slutar din idé-backlog vara en kyrkogård av länkar och blir ett verkligt inflöde till produktionen. Workflowet sköter sortering och upprensning så att du kan fokusera på det som faktiskt spelar roll: att skapa innehållet.
Kontakta oss
Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.