Behöver ert företag hjälp med att implementera AI? Kontakta oss och få prisoffert här →
AI Skolan
januari 22, 2026

Reddit till Google Sheets, spara bara virala inlägg

Rickard Andersson Partner, Nodenordic.se

Du hittar en grym AskReddit-tråd, svär på att du ska använda den senare, och sen försvinner den i ett hav av öppna flikar och halvfärdiga anteckningar. Nästa vecka gör du samma sak igen. Samma scroll, samma ”jag kommer ihåg det här”-lögn.

Den här Reddit Sheets-automationen är för marknadsförare som bygger contentkalendrar, founders som behöver idéer på beställning, och creators som gör Shorts och inte kan slösa morgnar på att leta efter ”den där” prompten. Vinsten är enkel: en strukturerad backlog med bara trådar med hög potential, redan poängsatta, med dubbletter borttagna.

Du får se hur workflowet hämtar trendande inlägg, gallrar dem, deduplicerar mot det du redan sparat, poängsätter viralitet med AI och sedan bara lägger in de bästa kandidaterna i Google Sheets.

Så här fungerar automationen

Här är hela workflowet du kommer att sätta upp:

n8n Workflow Template: Reddit till Google Sheets, spara bara virala inlägg

Varför det här spelar roll: din ”idé-backlog” är full av skräp

AskReddit är i praktiken en oändlig innehållsgenerator, men volymen är fällan. Du kan lätt lägga 45 minuter på att scrolla, spara 30 länkar och ändå stå där med inget du faktiskt vill producera. Sen kommer den tysta tidstjuven: dubbletter, nästan-dubbletter och trådar som ser bra ut tills du öppnar dem och inser att det saknas story, spänning och hook. Under tiden blir ditt Google Sheet (eller Notion-dokument, eller Slack-kanal) en dumpningsplats. När det är dags att skapa så ”researchar” du igen i stället för att leverera.

Det går snabbt utför. Här är var det brister.

  • Du sparar samma teman om och om igen eftersom inget kontrollerar din befintliga backlog innan du lägger till mer.
  • Manuell granskning blir inkonsekvent, så starka trådar begravs bredvid låginsatsinlägg.
  • Ditt team kan inte enas om vad ”viral potential” betyder, vilket leder till oändligt omval.
  • När du väl har bestämt dig har trenden svalnat och tråden är inte längre användbar.

Vad du bygger: en poängsatt och deduplicerad AskReddit-idépipeline

Det här workflowet samlar automatiskt trendande AskReddit-liknande inlägg, filtrerar bort de svaga och sparar bara de bästa kandidaterna i Google Sheets. Det börjar med att hämta en batch inlägg från Reddit via en HTTP-request, och sedan gallrar det innehållet så att du inte lägger tid på att poängsätta uppenbart skräp eller inlägg som inte fungerar som en short. Därefter hämtar det dina befintliga rader från Google Sheets och slår ihop dem med den nya batchen så att workflowet kan ta bort allt du redan fångat. Efter det tilldelar det sekvensnummer och använder ett AI-betygssteg (OpenAI via n8n:s LangChain-node) för att skapa ett viralitetsbetyg. Till sist behåller det bara höga betyg och appendar vinnarna till ditt sheet, redo för manus i nästa fas av din pipeline.

Workflowet startas manuellt (eller på schema om du föredrar det). Reddit-inlägg gallras och kortlistas, sedan kontrolleras de mot ditt befintliga Sheet för deduplicering. AI-poängsättning sker efter kortlistan, och bara trådar med höga betyg skrivs till Google Sheets.

Det du bygger

Förväntade resultat

Säg att du vill ha 20 starka trådidéer per vecka. Manuellt ser en typisk process ut så här: cirka 45 minuter att hitta inlägg, 30 minuter att kolla dubbletter i ditt sheet och ytterligare 30 minuter att argumentera med dig själv om vad som är ”bra”, så ungefär 2 timmar. Med det här workflowet kör du det, väntar några minuter på poängsättningen och lägger sedan cirka 10–15 minuter på att skumma de högst betygsatta raderna och välja vinnare. Det är runt 90 minuter tillbaka varje vecka, och backloggen förblir strukturerad i stället för uppblåst.

Innan du börjar

  • n8n-instans (testa n8n Cloud gratis)
  • Alternativ för self-hosting om du föredrar det (Hostinger fungerar bra)
  • Reddit API-åtkomst för att hämta AskReddit-inlägg
  • Google Sheets för att lagra din poängsatta idé-backlog
  • OpenAI API-nyckel (hämta den i OpenAI API-dashboarden)

Kunskapsnivå: Medel. Du kopplar konton, klistrar in en API-nyckel och redigerar ett par fält och filter med trygghet.

Vill du att någon bygger detta åt dig? Prata med en automationsexpert (gratis 15-minuters konsultation).

Steg för steg

En manuell körning (eller ett schema) triggar hämtningen. Workflowet startar med en manuell starttrigger och använder sedan en HTTP-request för att hämta en ny batch inlägg från Reddit.

Inlägg gallras innan du slösar tid på att poängsätta dem. Ett gallringssteg utvärderar innehållet och smalnar av listan till kandidater som mer sannolikt fungerar som prompts (skillnaden mellan ”intressant tråd” och ”användbart innehållsfrö” spelar roll).

Deduplicering sker mot ditt befintliga Google Sheet. Workflowet hämtar dina nuvarande rader, slår ihop dem med kandidaterna och tar sedan bort allt som redan är loggat så att din backlog förblir genuint ny.

AI skapar ett viralitetsbetyg, och bara höga poäng sparas. Workflowet tilldelar sekvensnummer, skickar varje kandidat genom ett OpenAI-betygssteg, slår tillbaka poängen i datasetet, filtrerar på höga betyg och appendar slutresultatet till Google Sheets.

Du kan enkelt justera poängsättningslogiken så att den matchar din nisch och din publik. Se den fullständiga implementationsguiden nedan för anpassningsalternativ.

Steg-för-steg-guide för implementering

Steg 1: Konfigurera den manuella triggern

Starta arbetsflödet manuellt medan ni verifierar Reddit-pipelinen och poänglogiken.

  1. Lägg till noden Manual Launch Trigger som din trigger.
  2. Behåll standardinställningarna för Manual Launch Trigger för att tillåta manuella körningar.
  3. (Valfritt) Lämna sticky note Flowpast Branding oförändrad för dokumentationskontext.

Steg 2: Anslut Google Sheets

Konfigurera läs-/skrivoperationerna i arket som används för att undvika dubbletter och lagra inlägg med höga poäng.

  1. Öppna Retrieve Sheet Rows och välj kalkylarket i Document och fliken i Sheet.
  2. Inloggning krävs: Anslut era googleSheetsOAuth2Api-inloggningsuppgifter i Retrieve Sheet Rows.
  3. Öppna Append Sheet Records och välj samma Document och Sheet som används för läsning.
  4. Inloggning krävs: Anslut era googleSheetsOAuth2Api-inloggningsuppgifter i Append Sheet Records.

Tips: Ersätt platshållar-ID:n för arket, som [YOUR_ID], i båda Google Sheets-noderna innan ni testar.

Steg 3: Konfigurera hämtning från Reddit och initial screening

Hämta hot-inlägg från r/confession och filtrera bort oönskade ämnen samt innehåll med låg interaktion.

  1. I Fetch Confession Posts, ställ in URLhttps://www.reddit.com/r/confession/hot.json?limit=30.
  2. I Fetch Confession Posts, aktivera Send Headers och lägg till headern User-Agent med värdet n8n-askreddit-scraper.
  3. I Screen Post Content, behåll JS-filtret som exkluderar titlar som innehåller trump, president, war och israel, och mappar fält som post_id, title, selftext, score och num_comments.
  4. I Select Viral Candidates, behåll JS-logiken som kräver score > 60, num_comments > 40 och over_18 === false.

Steg 4: Slå ihop med befintliga arkdata och avduplicera

Förgrena de filtrerade inläggen för att slå ihop med det befintliga arket, ta bort dubbletter och sekvensera nya poster.

  1. Säkerställ att Select Viral Candidates skickar utdata parallellt till både Combine With Sheet Data och Retrieve Sheet Rows.
  2. Verifiera att Combine With Sheet Data slår ihop kandidat-inläggen med arkraderna och därefter går vidare till Remove Existing Entries.
  3. I Remove Existing Entries, behåll JS-koden som jämför post_id med befintliga Reddit Post ID-värden för att förhindra dubbletter.
  4. I Assign Sequence Numbers, behåll JS-koden som lägger till ett sekventiellt number-fält för varje ny post.

Steg 5: Sätt upp AI-poängsättning och filtrering av höga poäng

Skicka varje kandidat till AI-modellen, slå ihop poängen tillbaka till posterna och filtrera på hög viralitet.

  1. Assign Sequence Numbers skickar utdata parallellt till både Generate Virality Rating och Merge Scores Stream.
  2. I Generate Virality Rating, välj modellen gpt-4o och behåll prompten som betygsätter viralitet med {{$json.title}}.
  3. Inloggning krävs: Anslut era openAiApi-inloggningsuppgifter i Generate Virality Rating.
  4. I Merge Scores Stream, ställ in Modecombine och Combine BycombineByPosition.
  5. I Apply Rating Field, behåll JS-koden som mappar AI-svaret till virality_score via item.json.message?.content.trim().
  6. I Filter High Ratings, behåll filtret som endast släpper igenom virality_score >= 6.

⚠️ Vanlig fallgrop: Om AI-svaret innehåller extra text kan Filter High Ratings misslyckas med att tolka talet. Säkerställ att prompten endast returnerar en numerisk poäng.

Steg 6: Konfigurera utdata till Google Sheets

Lägg endast till inlägg med höga poäng i ert Google-ark med korrekta fältmappningar.

  1. I Append Sheet Records, ställ in Operationappend.
  2. Mappa kolumnerna exakt enligt konfigurationen, inklusive Date till {{new Date().toISOString().slice(0, 10)}}, Number till {{ $json.number }}, Upvotes till {{ $json.score }}, Comments till {{ $json.num_comments }}, Question till {{ $json.title }}, Reddit Post ID till {{ $json.post_id }} och Virality Score till {{ $json.virality_score }}.
  3. Behåll statiska värden som TYPE satt till CONFESSION och Status satt till TODO.

Steg 7: Testa och aktivera ert arbetsflöde

Kör ett manuellt test för att verifiera dataflöde, AI-poängsättning och uppdateringar i arket innan ni aktiverar.

  1. Klicka på Execute Workflow med start från Manual Launch Trigger.
  2. Bekräfta att Fetch Confession Posts returnerar JSON-data och att Screen Post Content ger rensade poster.
  3. Verifiera att Generate Virality Rating returnerar en numerisk poäng och att Filter High Ratings endast skickar vidare poster med poäng >= 6.
  4. Kontrollera ert Google-ark för att säkerställa att Append Sheet Records har lagt till rader med förväntade fält.
  5. När ni är nöjda, slå på arbetsflödet till Active för användning i produktion.
🔒

Lås upp fullständig steg-för-steg-guide

Få den kompletta implementeringsguiden + nedladdningsbar mall

Felsökningstips

  • Reddit API-inloggningsuppgifter kan löpa ut eller kräva rätt appinställningar. Om requesten ”Fetch Confession Posts” börjar fallera, kontrollera först dina Reddit-appuppgifter och redirect-inställningar.
  • Om du använder AI-betyg i någon större volym kan OpenAI begränsa dig (rate limiting). Sänk körhastigheten, minska batchstorleken eller lägg in en kort väntan om betygssteget returnerar tomma eller inkonsekventa resultat.
  • Fel i Google Sheets beror ofta på behörigheter. Bekräfta att det kopplade Google-kontot kan redigera målarket och att noden ”Append Sheet Records” pekar på rätt kalkylark och flik.

Snabba svar

Hur lång tid tar det att sätta upp den här Reddit Sheets-automationen?

Cirka 30 minuter om dina Reddit-, Google- och OpenAI-konton är redo.

Krävs kodning för att automatisera Reddit-poängsättning?

Nej. Du kopplar konton och justerar ett par filter och fält.

Är n8n gratis att använda för det här Reddit Sheets-automationsworkflowet?

Ja. n8n har ett gratis self-hosted-alternativ och en gratis testperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna in kostnader för OpenAI API, som vanligtvis landar på några dollar i månaden vid små volymer.

Var kan jag hosta n8n för att köra den här automationen?

Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller self-hosting på en VPS. För self-hosting är Hostinger VPS prisvärt och hanterar n8n bra. Self-hosting ger obegränsade körningar, men kräver grundläggande serverhantering.

Kan jag anpassa det här Reddit Sheets-automationsworkflowet för andra use case?

Ja, ganska enkelt. Du kan ändra vilken Reddit-endpoint du hämtar från i HTTP Request-noden ”Fetch Confession Posts”, och sedan justera gallringen och logiken för kandidatval så att den matchar ditt format (frågor, stories, kontroverser). De flesta justerar också prompten i ”Generate Virality Rating” så att poängen speglar deras plattform, som YouTube Shorts kontra TikTok. Om du vill ha striktare deduplicering kan du uppdatera logiken i ”Remove Existing Entries” så att den matchar på URL plus normaliserad titel.

Varför fallerar min Google Sheets-anslutning i det här workflowet?

Oftast är det ett behörighetsproblem på kalkylarket eller det kopplade Google-kontot. Återanslut Google Sheets i n8n och bekräfta sedan att arket och fliken som valts i ”Retrieve Sheet Rows” och ”Append Sheet Records” fortfarande finns. Om du nyligen bytte namn på fliken kan n8n fortsätta peka på den gamla. Kontrollera också att ditt Google-konto inte blockeras av en regel från en workspace-admin.

Vilken volym kan det här Reddit Sheets-automationsworkflowet hantera?

På n8n Cloud Starter kan du normalt köra tusentals exekveringar per månad, och vid self-hosting finns inget tak (din server blir begränsningen). I praktiken är AI-poängsättningen flaskhalsen, så de flesta team kör detta i batchar några gånger i veckan i stället för att försöka betygsätta hundratals inlägg varje timme.

Är den här Reddit Sheets-automationen bättre än att använda Zapier eller Make?

Ofta, ja. Det här workflowet använder filtrering i flera steg, sammanslagning mot befintliga Sheet-rader för deduplicering och ett anpassat AI-betygssteg, vilket är där Zapier och Make kan bli klumpiga eller dyra i skala. n8n låter dig också self-hosta, vilket är viktigt om du kör många exekveringar. Men om du bara vill ha ”spara nytt Reddit-inlägg till Google Sheets” utan poängsättning och utan deduplicering kommer Zapier eller Make kännas snabbare att sätta upp. Prata med en automationsexpert om du vill ha hjälp att välja.

När det här väl rullar slutar din idé-backlog vara en kyrkogård av länkar och blir ett verkligt inflöde till produktionen. Workflowet sköter sortering och upprensning så att du kan fokusera på det som faktiskt spelar roll: att skapa innehållet.

Kontakta oss

Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.

×

Använd mall

Få direkt tillgång till denna n8n-arbetsflödes JSON-fil

Få prisoffert redan idag!
Få prisoffert redan idag!

Berätta vad ni behöver hjälp med så hör vi av oss inom en arbetsdag!

Få prisoffert redan idag!
Få prisoffert redan idag!

Berätta vad ni behöver hjälp med så hör vi av oss inom en arbetsdag!

Launch login modal Launch register modal