Att spara bra Reddit-trådar är enkelt. Att hitta dem igen, förstå varför du sparade dem och plocka ut de användbara delarna senare är det som fallerar.
Om du jobbar med marknadsresearch känner content curators av det här varje dag. Community managers märker det mitt i en sprint när feedbacken är utspridd. Och grundare som vill fatta snabbare produktbeslut slutar ofta med att läsa om samma långa trådar. Den här automatiseringen för Reddit Supabase-sammanfattningar gör om sparade inlägg till en sökbar kunskapsbas som du faktiskt kan använda.
Du får se vad workflowet sparar, hur AI-filtreringen fungerar och hur du håller dubbletter och brus borta från din databas.
Så fungerar automatiseringen
Hela n8n-workflowet, från trigger till slutresultat:
n8n Workflow Template: Reddit + Supabase: sökbara sammanfattningar
flowchart LR
subgraph sg0["Daily Post Availability Check Flow"]
direction LR
n0@{ icon: "mdi:play-circle", form: "rounded", label: "Daily Post Availability Check", pos: "b", h: 48 }
n1@{ icon: "mdi:play-circle", form: "rounded", label: "Manual Execution Start", pos: "b", h: 48 }
n2["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/supabase.svg' width='40' height='40' /></div><br/>Fetch Supabase Post Records"]
n3["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/code.svg' width='40' height='40' /></div><br/>Extract Saved Reddit IDs"]
n4["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/reddit.svg' width='40' height='40' /></div><br/>Retrieve Saved Reddit Posts"]
n5["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/code.svg' width='40' height='40' /></div><br/>Filter Posts by Subreddit"]
n6["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/code.svg' width='40' height='40' /></div><br/>Remove Existing Database Posts"]
n7@{ icon: "mdi:swap-vertical", form: "rounded", label: "Iterate Through Posts", pos: "b", h: 48 }
n8@{ icon: "mdi:robot", form: "rounded", label: "Primary LLM Check", pos: "b", h: 48 }
n9@{ icon: "mdi:swap-horizontal", form: "rounded", label: "Conditional Approval", pos: "b", h: 48 }
n10["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/reddit.svg' width='40' height='40' /></div><br/>Retrieve Post Comments"]
n11["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/code.svg' width='40' height='40' /></div><br/>Parse Comment Attributes"]
n12["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/code.svg' width='40' height='40' /></div><br/>Combine Post and Comments"]
n13@{ icon: "mdi:robot", form: "rounded", label: "Summarize With LLM", pos: "b", h: 48 }
n14@{ icon: "mdi:robot", form: "rounded", label: "Structured Result Parser", pos: "b", h: 48 }
n15@{ icon: "mdi:brain", form: "rounded", label: "Gemini Chat Engine", pos: "b", h: 48 }
n16@{ icon: "mdi:brain", form: "rounded", label: "Gemini Chat Engine 1", pos: "b", h: 48 }
n17["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/code.svg' width='40' height='40' /></div><br/>Prepare Supabase Payload"]
n18["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/supabase.svg' width='40' height='40' /></div><br/>Insert New Reddit Record"]
n19@{ icon: "mdi:cog", form: "rounded", label: "Delay for Rate Limit", pos: "b", h: 48 }
n8 --> n9
n13 --> n17
n19 --> n7
n7 --> n8
n18 --> n19
n15 -.-> n13
n14 -.-> n13
n16 -.-> n8
n2 --> n3
n3 --> n4
n1 --> n2
n9 --> n10
n9 --> n7
n4 --> n5
n10 --> n11
n11 --> n12
n17 --> n18
n0 --> n2
n12 --> n13
n5 --> n6
n6 --> n7
end
%% Styling
classDef trigger fill:#e8f5e9,stroke:#388e3c,stroke-width:2px
classDef ai fill:#e3f2fd,stroke:#1976d2,stroke-width:2px
classDef aiModel fill:#e8eaf6,stroke:#3f51b5,stroke-width:2px
classDef decision fill:#fff8e1,stroke:#f9a825,stroke-width:2px
classDef database fill:#fce4ec,stroke:#c2185b,stroke-width:2px
classDef api fill:#fff3e0,stroke:#e65100,stroke-width:2px
classDef code fill:#f3e5f5,stroke:#7b1fa2,stroke-width:2px
classDef disabled stroke-dasharray: 5 5,opacity: 0.5
class n0,n1 trigger
class n8,n13,n14 ai
class n15,n16 aiModel
class n9 decision
class n3,n5,n6,n11,n12,n17 code
classDef customIcon fill:none,stroke:none
class n2,n3,n4,n5,n6,n10,n11,n12,n17,n18 customIcon
Problemet: sparade Reddit-inlägg blir en rörig ”senare”-hög
Reddit är en guldgruva tills det blir en skräplåda. Du sparar ett inlägg för att det har ett klockrent ramverk, ett kundcitat eller en oväntat ärlig kommentarskedja. Två veckor senare minns du inte vad du sparade, vad det handlade om eller vilka delar som var viktiga. Så du öppnar tråden igen, skummar inlägget, scrollar kommentarer, blir distraherad och upprepar cykeln. Gångra det med några sparningar per dag och du tappar timmar på att läsa om i stället för att agera på insikter.
Det är inte ett stort misstag. Det är dussintals små som bygger på varandra.
- Du skummar om långa trådar bara för att få ut en eller två konkreta takeaways.
- Användbara inlägg försvinner i en sparad lista utan taggar, utan sammanfattningar och utan möjlighet att söka på tema.
- Manuell copy-paste till dokument eller kalkylblad gör att kontext försvinner och formateringen blir inkonsekvent.
- Dubbletter smyger in eftersom du glömt att du redan fångade den diskussionen förra månaden.
Lösningen: spara inlägg på Reddit, få sökbara Supabase-sammanfattningar
Det här workflowet tar din befintliga ”jag läser det senare”-vana och gör om den till ett strukturerat researchsystem. En gång per dag (eller vid begäran) hämtar n8n dina sparade Reddit-inlägg via Reddit-API:t, filtrerar dem på subreddits du bryr dig om och tar bort allt du redan har lagrat i Supabase. Sedan kommer kvalitetskontrollen: en LLM-kontroll (Gemini i den här versionen) läser innehållet mot dina kriterier i vanlig svenska, så att du slipper off-topic-inlägg som bara råkar dela ett nyckelord. För inlägg som godkänns hämtar workflowet kommentarsfältet, plockar ut de mest relevanta delarna och genererar en samlad sammanfattning. Till sist lägger det in en korrekt formaterad post i Supabase med Reddit-ID, titel, URL, taggar, publiceringsdatum, upvotes, antal kommentarer och en sammanfattning som du kan söka i senare.
Workflowet startar med din dagliga schematrigger, hämtar det som är nytt och kör sedan inläggen i batchar med en kort väntan för rate control. När AI:n har bekräftat relevans sammanställer summeraren inlägget plus toppkommentarer, formaterar fälten och lagrar allt i Supabase som en konsekvent post.
Det du får: automatisering vs. resultat
| Det här automatiserar workflowet | Resultat du får |
|---|---|
|
|
Exempel: så här ser det ut
Säg att du sparar 10 Reddit-inlägg på en vecka för produktresearch. Manuellt kanske du lägger cirka 10 minuter per inlägg på att öppna det igen, skumma, plocka citat från kommentarer och klistra in i ett dokument, alltså runt 1,5 timme. Sedan måste du fortfarande göra det sökbart. Med det här workflowet sparar du inlägg som vanligt, den dagliga körningen processar dem i batchar och du lägger kanske 10 minuter totalt på att granska de färdiga Supabase-posterna. Det är över en timme tillbaka varje vecka, och dina anteckningar är strukturerade från dag ett.
Det här behöver du
- n8n-instans (testa n8n Cloud gratis)
- Alternativ för egen drift om du föredrar det (Hostinger fungerar bra)
- Reddit för att komma åt dina sparade inlägg via API.
- Supabase för att lagra en sökbar researchtabell.
- Google Gemini API-nyckel (hämta den via Google AI Studio).
Kunskapsnivå: Medel. Du kopplar konton, klistrar in API-nycklar och justerar några filter och prompts på ett säkert sätt.
Vill du inte sätta upp detta själv? Prata med en automationsexpert (kostnadsfri 15-minuters konsultation).
Så fungerar det
En daglig körning hämtar nya sparade inlägg. Schematriggern startar en gång per dag (det finns också en manuell trigger för test), och workflowet börjar med att läsa in vad som redan finns i Supabase så att det vet vad du har fångat tidigare.
Dubbletter och irrelevanta inlägg tas bort tidigt. n8n samlar in Reddit-ID:n från din Supabase-tabell, hämtar dina sparade inlägg från Reddit och kör sedan kodbaserade filter (subreddits, grundregler) samt en kontroll för att exkludera befintliga inlägg, så att du inte lagrar samma tråd två gånger.
AI:n kontrollerar relevans, sedan börjar summeringen. Inlägg går genom en batch-loop med en kort väntan för rate control. Gemini utvärderar dina kriterier i naturligt språk, ett If-villkor avgör vad som godkänns, och först därefter hämtar workflowet kommentarer och extraherar detaljer för summering.
Strukturerade poster hamnar i Supabase. Höjdpunkter från inlägg och kommentarer kombineras, sammanfattas, parsas till konsekventa fält och formateras för insättning. I slutet har du en post per inlägg med titel, URL, taggar, sammanfattning, publiceringsdatum, upvotes och antal kommentarer.
Du kan enkelt ändra subreddit- och kriteriefiltren så att de matchar din nisch utifrån dina behov. Se hela implementationsguiden nedan för anpassningsalternativ.
Steg-för-steg-implementeringsguide
Steg 1: Konfigurera triggertypen
Det här arbetsflödet stödjer både manuella körningar och en schemalagd daglig körning för att hämta och bearbeta Reddit-innehåll.
- Lägg till och placera Manual Run Trigger för tester vid behov.
- Lägg till och konfigurera Daily Schedule Trigger för automatiserade körningar (lämna standardregeln eller definiera ert intervall).
- Koppla både Manual Run Trigger och Daily Schedule Trigger till Fetch Posts from Supabase.
Steg 2: Anslut datakällorna Supabase och Reddit
Dessa noder hämtar befintliga poster från Supabase och hämtar sedan sparade Reddit-inlägg för bearbetning.
- Öppna Fetch Posts from Supabase och ställ in Table till
reddit_posts, Operation tillgetAlloch Return All tilltrue. - Autentisering krävs: Anslut era
supabaseApi-uppgifter i Fetch Posts from Supabase. - Öppna Retrieve Saved Reddit Posts och ställ in Resource till
profile, Details tillsavedoch Limit till10. - Autentisering krävs: Anslut era
redditOAuth2Api-uppgifter i Retrieve Saved Reddit Posts. - Låt Collect Reddit IDs vara som den är för att extrahera
reddit_id-värden för deduplicering.
⚠️ Vanlig fallgrop: Om er Supabase-tabell inte har någon kolumn reddit_id kommer Collect Reddit IDs att returnera tomma värden och dubbletter kommer inte att exkluderas.
Steg 3: Filtrera, deduplicera och batcha inlägg
Dessa noder filtrerar utifrån subreddit-regler, tar bort redan lagrade inlägg och batchar återstående objekt för att styra exekveringen.
- I Filter Posts by Subreddit uppdaterar ni
acceptedSubRedditsellersubredditKeywordsi JavaScript-koden så att det matchar era målcommunities. - Låt Exclude Existing Posts vara som den är för att jämföra nya inläggs-ID:n mot resultaten från Collect Reddit IDs.
- Använd Batch Through Posts för att bearbeta ett inlägg per cykel, och loopa sedan tillbaka efter Delay for Rate Control.
- Säkerställ att flödet följer: Filter Posts by Subreddit → Exclude Existing Posts → Batch Through Posts.
Steg 4: Konfigurera LLM-gating och kommentaraggregering
Det här steget använder Gemini för att avgöra om ett inlägg är relevant, och hämtar och aggregerar sedan kommentarer för sammanfattning.
- Öppna Primary LLM Check och bekräfta att prompten i Text är satt till
=Does this reddit post {YOUR CONDITION}? Answer only with 'YES' or 'NO' ... {{ $input.all()[0].json.title }} ... {{ $input.all()[0].json.description }}. - I Evaluate Condition verifierar ni att villkoret jämför
{{ $input.all()[0].json.text }}medYES. - Konfigurera Fetch Post Comments med Post ID satt till
{{ $('Batch Through Posts').first().json.id }}och Subreddit satt till{{ $('Batch Through Posts').first().json.subreddit }}. - Autentisering krävs: Anslut era
redditOAuth2Api-uppgifter i Fetch Post Comments. - Låt kodnoderna Extract Comment Details och Combine Post and Comments vara oförändrade för att bygga det aggregerade textblocket.
YES kommer Evaluate Condition att skicka arbetsflödet tillbaka till Batch Through Posts utan att hämta kommentarer.Steg 5: Konfigurera AI-sammanfattning och parsning
Gemini sammanfattar det aggregerade innehållet, medan en parser för strukturerad output tvingar fram ett schema för sammanfattning/taggar.
- Öppna Content Summarizer LLM och bekräfta att prompten i Text är satt till
=summarize the following reddit post... {{ $json.aggregated_text }}. - Verifiera att Structured Result Parser har JSON-exempelschemat för
summaryochtags. - Säkerställ att Gemini Chat Engine är ansluten som språkmodell till Content Summarizer LLM.
- Säkerställ att Gemini Prompt Model är ansluten som språkmodell till Primary LLM Check.
- Autentisering krävs: Anslut era
googlePalmApi-uppgifter i Gemini Chat Engine och Gemini Prompt Model.
Steg 6: Konfigurera Supabase-output och rate control
Det här steget formaterar den sammanfattade datan och lägger in den i Supabase, och väntar sedan innan nästa batch bearbetas.
- I Format Data for Supabase behåller ni mappningslogiken som sätter
reddit_id,title,url,summary,tags,post_date,upvotesochnum_comments. - Öppna Insert Reddit Entry och ställ in Table till
reddit_postsoch Data to Send tillautoMapInputData. - Autentisering krävs: Anslut era
supabaseApi-uppgifter i Insert Reddit Entry. - Säkerställ att Insert Reddit Entry går vidare till Delay for Rate Control för att undvika API-rate limits.
Steg 7: Testa och aktivera ert arbetsflöde
Kör ett manuellt test för att validera pipeline från start till mål och aktivera sedan schemat för produktionsanvändning.
- Klicka på Execute Workflow via Manual Run Trigger.
- Bekräfta att Retrieve Saved Reddit Posts returnerar objekt, att Filter Posts by Subreddit behåller giltiga inlägg och att Exclude Existing Posts tar bort dubbletter.
- Verifiera AI-gaten: Primary LLM Check ska ge
YESför att gå vidare till Fetch Post Comments. - Kontrollera att Insert Reddit Entry skriver rader till Supabase med sammanfattning och taggar.
- Aktivera arbetsflödet för att slå på Daily Schedule Trigger för löpande körningar.
Vanliga fallgropar
- Reddit-uppgifter kan gå ut eller kräva specifika behörigheter. Om det skapar fel, kontrollera först inställningarna för din Reddit-app (client ID/secret) och statusen för n8n-credentials.
- Om du använder Wait-noder eller extern rendering varierar processtiderna. Öka väntetiden om efterföljande noder fallerar på tomma svar.
- Standardprompter i AI-noder är generiska. Lägg in din tonalitet och strikta relevanskriterier tidigt, annars kommer du att redigera output för alltid.
Vanliga frågor
Cirka 45 minuter om du redan har nycklar för Reddit, Supabase och Gemini redo.
Nej. Du klistrar mest in credentials och justerar filter och prompts.
Ja. n8n har ett gratis alternativ för egen drift och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna in kostnader för Gemini API-användning, som beror på hur långa inläggen och kommentarerna är.
Två alternativ: n8n Cloud (hanterat, enklast att sätta upp) eller egen drift på en VPS. För egen drift är Hostinger VPS prisvärd och hanterar n8n bra. Egen drift ger dig obegränsade körningar men kräver grundläggande serverhantering.
Ja, och det bör du. Uppdatera logiken för subreddit-filter i steget ”Filtrera inlägg per subreddit”, och redigera sedan kriterierna i naturligt språk som används av ”Primär LLM-kontroll” så att Gemini vet vad ”relevant” betyder för din nisch. Vanliga anpassningar är ”bara inlägg om en specifik produktkategori”, ”exkludera rekrytering/till salu-inlägg” och ”kräv ett minsta antal upvotes eller kommentarer”. Om du vill ha andra outputformat justerar du den strukturerade parsern och mappningen i ”Formatera data för Supabase”.
Oftast beror det på utgångna eller felaktiga Reddit API-credentials. Generera en ny client secret i Reddits utvecklarapp, uppdatera sedan credential i n8n och kör om den manuella triggern. Om det fortfarande misslyckas, kontrollera att din Reddit-apps typ och behörigheter matchar vad workflowet förväntar sig, och sänk batchhastigheten eftersom rate limiting kan se ut som slumpmässiga fel.
Gott om för typisk research: dussintals sparade inlägg per dag är inga problem om du behåller batching och rate control. På n8n Cloud beror din månatliga gräns för körningar på din plan. Om du kör egen drift finns ingen hård gräns för körningar, men din server och API:ernas rate limits spelar fortfarande roll.
Ofta, ja. Det här workflowet bygger på batching, deduplicering och AI-beslut innan du spenderar tokens på att sammanfatta, och n8n är helt enkelt mer bekvämt för den typen av logik. Du får också ett alternativ för egen drift, vilket är viktigt om du vill köra hög volym utan att betala per uppgift. Zapier eller Make kan fortfarande fungera om din version är enklare, som ”spara inlägg → sammanfatta → lagra”, och du inte bryr dig om kommentarsextraktion eller strikt filtrering. Om du är osäker, prata med en automationsexpert och beskriv din volym och dina kriterier.
Det här är den typen av workflow du sätter upp en gång och har nytta av varje dag efteråt. Dina sparade inlägg slutar vara en kyrkogård och börjar fungera som en riktig researchdatabas.
Kontakta oss
Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.