Behöver ert företag hjälp med att implementera AI? Kontakta oss och få prisoffert här →
AI Skolan
januari 22, 2026

Reddit + Supabase: sökbara sammanfattningar

Rickard Andersson Partner, Nodenordic.se

Att spara bra Reddit-trådar är enkelt. Att hitta dem igen, förstå varför du sparade dem och plocka ut de användbara delarna senare är det som fallerar.

Om du jobbar med marknadsresearch känner content curators av det här varje dag. Community managers märker det mitt i en sprint när feedbacken är utspridd. Och grundare som vill fatta snabbare produktbeslut slutar ofta med att läsa om samma långa trådar. Den här automatiseringen för Reddit Supabase-sammanfattningar gör om sparade inlägg till en sökbar kunskapsbas som du faktiskt kan använda.

Du får se vad workflowet sparar, hur AI-filtreringen fungerar och hur du håller dubbletter och brus borta från din databas.

Så fungerar automatiseringen

Hela n8n-workflowet, från trigger till slutresultat:

n8n Workflow Template: Reddit + Supabase: sökbara sammanfattningar

Problemet: sparade Reddit-inlägg blir en rörig ”senare”-hög

Reddit är en guldgruva tills det blir en skräplåda. Du sparar ett inlägg för att det har ett klockrent ramverk, ett kundcitat eller en oväntat ärlig kommentarskedja. Två veckor senare minns du inte vad du sparade, vad det handlade om eller vilka delar som var viktiga. Så du öppnar tråden igen, skummar inlägget, scrollar kommentarer, blir distraherad och upprepar cykeln. Gångra det med några sparningar per dag och du tappar timmar på att läsa om i stället för att agera på insikter.

Det är inte ett stort misstag. Det är dussintals små som bygger på varandra.

  • Du skummar om långa trådar bara för att få ut en eller två konkreta takeaways.
  • Användbara inlägg försvinner i en sparad lista utan taggar, utan sammanfattningar och utan möjlighet att söka på tema.
  • Manuell copy-paste till dokument eller kalkylblad gör att kontext försvinner och formateringen blir inkonsekvent.
  • Dubbletter smyger in eftersom du glömt att du redan fångade den diskussionen förra månaden.

Lösningen: spara inlägg på Reddit, få sökbara Supabase-sammanfattningar

Det här workflowet tar din befintliga ”jag läser det senare”-vana och gör om den till ett strukturerat researchsystem. En gång per dag (eller vid begäran) hämtar n8n dina sparade Reddit-inlägg via Reddit-API:t, filtrerar dem på subreddits du bryr dig om och tar bort allt du redan har lagrat i Supabase. Sedan kommer kvalitetskontrollen: en LLM-kontroll (Gemini i den här versionen) läser innehållet mot dina kriterier i vanlig svenska, så att du slipper off-topic-inlägg som bara råkar dela ett nyckelord. För inlägg som godkänns hämtar workflowet kommentarsfältet, plockar ut de mest relevanta delarna och genererar en samlad sammanfattning. Till sist lägger det in en korrekt formaterad post i Supabase med Reddit-ID, titel, URL, taggar, publiceringsdatum, upvotes, antal kommentarer och en sammanfattning som du kan söka i senare.

Workflowet startar med din dagliga schematrigger, hämtar det som är nytt och kör sedan inläggen i batchar med en kort väntan för rate control. När AI:n har bekräftat relevans sammanställer summeraren inlägget plus toppkommentarer, formaterar fälten och lagrar allt i Supabase som en konsekvent post.

Det du får: automatisering vs. resultat

Exempel: så här ser det ut

Säg att du sparar 10 Reddit-inlägg på en vecka för produktresearch. Manuellt kanske du lägger cirka 10 minuter per inlägg på att öppna det igen, skumma, plocka citat från kommentarer och klistra in i ett dokument, alltså runt 1,5 timme. Sedan måste du fortfarande göra det sökbart. Med det här workflowet sparar du inlägg som vanligt, den dagliga körningen processar dem i batchar och du lägger kanske 10 minuter totalt på att granska de färdiga Supabase-posterna. Det är över en timme tillbaka varje vecka, och dina anteckningar är strukturerade från dag ett.

Det här behöver du

  • n8n-instans (testa n8n Cloud gratis)
  • Alternativ för egen drift om du föredrar det (Hostinger fungerar bra)
  • Reddit för att komma åt dina sparade inlägg via API.
  • Supabase för att lagra en sökbar researchtabell.
  • Google Gemini API-nyckel (hämta den via Google AI Studio).

Kunskapsnivå: Medel. Du kopplar konton, klistrar in API-nycklar och justerar några filter och prompts på ett säkert sätt.

Vill du inte sätta upp detta själv? Prata med en automationsexpert (kostnadsfri 15-minuters konsultation).

Så fungerar det

En daglig körning hämtar nya sparade inlägg. Schematriggern startar en gång per dag (det finns också en manuell trigger för test), och workflowet börjar med att läsa in vad som redan finns i Supabase så att det vet vad du har fångat tidigare.

Dubbletter och irrelevanta inlägg tas bort tidigt. n8n samlar in Reddit-ID:n från din Supabase-tabell, hämtar dina sparade inlägg från Reddit och kör sedan kodbaserade filter (subreddits, grundregler) samt en kontroll för att exkludera befintliga inlägg, så att du inte lagrar samma tråd två gånger.

AI:n kontrollerar relevans, sedan börjar summeringen. Inlägg går genom en batch-loop med en kort väntan för rate control. Gemini utvärderar dina kriterier i naturligt språk, ett If-villkor avgör vad som godkänns, och först därefter hämtar workflowet kommentarer och extraherar detaljer för summering.

Strukturerade poster hamnar i Supabase. Höjdpunkter från inlägg och kommentarer kombineras, sammanfattas, parsas till konsekventa fält och formateras för insättning. I slutet har du en post per inlägg med titel, URL, taggar, sammanfattning, publiceringsdatum, upvotes och antal kommentarer.

Du kan enkelt ändra subreddit- och kriteriefiltren så att de matchar din nisch utifrån dina behov. Se hela implementationsguiden nedan för anpassningsalternativ.

Steg-för-steg-implementeringsguide

Steg 1: Konfigurera triggertypen

Det här arbetsflödet stödjer både manuella körningar och en schemalagd daglig körning för att hämta och bearbeta Reddit-innehåll.

  1. Lägg till och placera Manual Run Trigger för tester vid behov.
  2. Lägg till och konfigurera Daily Schedule Trigger för automatiserade körningar (lämna standardregeln eller definiera ert intervall).
  3. Koppla både Manual Run Trigger och Daily Schedule Trigger till Fetch Posts from Supabase.

Steg 2: Anslut datakällorna Supabase och Reddit

Dessa noder hämtar befintliga poster från Supabase och hämtar sedan sparade Reddit-inlägg för bearbetning.

  1. Öppna Fetch Posts from Supabase och ställ in Table till reddit_posts, Operation till getAll och Return All till true.
  2. Autentisering krävs: Anslut era supabaseApi-uppgifter i Fetch Posts from Supabase.
  3. Öppna Retrieve Saved Reddit Posts och ställ in Resource till profile, Details till saved och Limit till 10.
  4. Autentisering krävs: Anslut era redditOAuth2Api-uppgifter i Retrieve Saved Reddit Posts.
  5. Låt Collect Reddit IDs vara som den är för att extrahera reddit_id-värden för deduplicering.

⚠️ Vanlig fallgrop: Om er Supabase-tabell inte har någon kolumn reddit_id kommer Collect Reddit IDs att returnera tomma värden och dubbletter kommer inte att exkluderas.

Steg 3: Filtrera, deduplicera och batcha inlägg

Dessa noder filtrerar utifrån subreddit-regler, tar bort redan lagrade inlägg och batchar återstående objekt för att styra exekveringen.

  1. I Filter Posts by Subreddit uppdaterar ni acceptedSubReddits eller subredditKeywords i JavaScript-koden så att det matchar era målcommunities.
  2. Låt Exclude Existing Posts vara som den är för att jämföra nya inläggs-ID:n mot resultaten från Collect Reddit IDs.
  3. Använd Batch Through Posts för att bearbeta ett inlägg per cykel, och loopa sedan tillbaka efter Delay for Rate Control.
  4. Säkerställ att flödet följer: Filter Posts by SubredditExclude Existing PostsBatch Through Posts.

Tips: Om ni behöver högre throughput kan ni minska fördröjningen i Delay for Rate Control eller justera batchstorleken i Batch Through Posts.

Steg 4: Konfigurera LLM-gating och kommentaraggregering

Det här steget använder Gemini för att avgöra om ett inlägg är relevant, och hämtar och aggregerar sedan kommentarer för sammanfattning.

  1. Öppna Primary LLM Check och bekräfta att prompten i Text är satt till =Does this reddit post {YOUR CONDITION}? Answer only with 'YES' or 'NO' ... {{ $input.all()[0].json.title }} ... {{ $input.all()[0].json.description }}.
  2. I Evaluate Condition verifierar ni att villkoret jämför {{ $input.all()[0].json.text }} med YES.
  3. Konfigurera Fetch Post Comments med Post ID satt till {{ $('Batch Through Posts').first().json.id }} och Subreddit satt till {{ $('Batch Through Posts').first().json.subreddit }}.
  4. Autentisering krävs: Anslut era redditOAuth2Api-uppgifter i Fetch Post Comments.
  5. Låt kodnoderna Extract Comment Details och Combine Post and Comments vara oförändrade för att bygga det aggregerade textblocket.

Om Primary LLM Check ger något annat än YES kommer Evaluate Condition att skicka arbetsflödet tillbaka till Batch Through Posts utan att hämta kommentarer.

Steg 5: Konfigurera AI-sammanfattning och parsning

Gemini sammanfattar det aggregerade innehållet, medan en parser för strukturerad output tvingar fram ett schema för sammanfattning/taggar.

  1. Öppna Content Summarizer LLM och bekräfta att prompten i Text är satt till =summarize the following reddit post... {{ $json.aggregated_text }}.
  2. Verifiera att Structured Result Parser har JSON-exempelschemat för summary och tags.
  3. Säkerställ att Gemini Chat Engine är ansluten som språkmodell till Content Summarizer LLM.
  4. Säkerställ att Gemini Prompt Model är ansluten som språkmodell till Primary LLM Check.
  5. Autentisering krävs: Anslut era googlePalmApi-uppgifter i Gemini Chat Engine och Gemini Prompt Model.

AI-undernoder som Structured Result Parser ärver autentisering från sin överordnade LLM-nod—lägg till autentisering i Gemini Chat Engine, inte i parsern.

Steg 6: Konfigurera Supabase-output och rate control

Det här steget formaterar den sammanfattade datan och lägger in den i Supabase, och väntar sedan innan nästa batch bearbetas.

  1. I Format Data for Supabase behåller ni mappningslogiken som sätter reddit_id, title, url, summary, tags, post_date, upvotes och num_comments.
  2. Öppna Insert Reddit Entry och ställ in Table till reddit_posts och Data to Send till autoMapInputData.
  3. Autentisering krävs: Anslut era supabaseApi-uppgifter i Insert Reddit Entry.
  4. Säkerställ att Insert Reddit Entry går vidare till Delay for Rate Control för att undvika API-rate limits.

Steg 7: Testa och aktivera ert arbetsflöde

Kör ett manuellt test för att validera pipeline från start till mål och aktivera sedan schemat för produktionsanvändning.

  1. Klicka på Execute Workflow via Manual Run Trigger.
  2. Bekräfta att Retrieve Saved Reddit Posts returnerar objekt, att Filter Posts by Subreddit behåller giltiga inlägg och att Exclude Existing Posts tar bort dubbletter.
  3. Verifiera AI-gaten: Primary LLM Check ska ge YES för att gå vidare till Fetch Post Comments.
  4. Kontrollera att Insert Reddit Entry skriver rader till Supabase med sammanfattning och taggar.
  5. Aktivera arbetsflödet för att slå på Daily Schedule Trigger för löpande körningar.
🔒

Lås upp fullständig steg-för-steg-guide

Få den kompletta implementeringsguiden + nedladdningsbar mall

Vanliga fallgropar

  • Reddit-uppgifter kan gå ut eller kräva specifika behörigheter. Om det skapar fel, kontrollera först inställningarna för din Reddit-app (client ID/secret) och statusen för n8n-credentials.
  • Om du använder Wait-noder eller extern rendering varierar processtiderna. Öka väntetiden om efterföljande noder fallerar på tomma svar.
  • Standardprompter i AI-noder är generiska. Lägg in din tonalitet och strikta relevanskriterier tidigt, annars kommer du att redigera output för alltid.

Vanliga frågor

Hur lång tid tar det att sätta upp den här automatiseringen för Reddit Supabase-sammanfattningar?

Cirka 45 minuter om du redan har nycklar för Reddit, Supabase och Gemini redo.

Behöver jag kunna koda för att automatisera Reddit Supabase-sammanfattningar?

Nej. Du klistrar mest in credentials och justerar filter och prompts.

Är n8n gratis att använda för det här workflowet för Reddit Supabase-sammanfattningar?

Ja. n8n har ett gratis alternativ för egen drift och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna in kostnader för Gemini API-användning, som beror på hur långa inläggen och kommentarerna är.

Var kan jag hosta n8n för att köra den här automatiseringen?

Två alternativ: n8n Cloud (hanterat, enklast att sätta upp) eller egen drift på en VPS. För egen drift är Hostinger VPS prisvärd och hanterar n8n bra. Egen drift ger dig obegränsade körningar men kräver grundläggande serverhantering.

Kan jag anpassa det här workflowet för Reddit Supabase-sammanfattningar för andra subreddits och kriterier?

Ja, och det bör du. Uppdatera logiken för subreddit-filter i steget ”Filtrera inlägg per subreddit”, och redigera sedan kriterierna i naturligt språk som används av ”Primär LLM-kontroll” så att Gemini vet vad ”relevant” betyder för din nisch. Vanliga anpassningar är ”bara inlägg om en specifik produktkategori”, ”exkludera rekrytering/till salu-inlägg” och ”kräv ett minsta antal upvotes eller kommentarer”. Om du vill ha andra outputformat justerar du den strukturerade parsern och mappningen i ”Formatera data för Supabase”.

Varför misslyckas min Reddit-anslutning i det här workflowet?

Oftast beror det på utgångna eller felaktiga Reddit API-credentials. Generera en ny client secret i Reddits utvecklarapp, uppdatera sedan credential i n8n och kör om den manuella triggern. Om det fortfarande misslyckas, kontrollera att din Reddit-apps typ och behörigheter matchar vad workflowet förväntar sig, och sänk batchhastigheten eftersom rate limiting kan se ut som slumpmässiga fel.

Hur många inlägg kan den här automatiseringen för Reddit Supabase-sammanfattningar hantera?

Gott om för typisk research: dussintals sparade inlägg per dag är inga problem om du behåller batching och rate control. På n8n Cloud beror din månatliga gräns för körningar på din plan. Om du kör egen drift finns ingen hård gräns för körningar, men din server och API:ernas rate limits spelar fortfarande roll.

Är den här automatiseringen för Reddit Supabase-sammanfattningar bättre än Zapier eller Make?

Ofta, ja. Det här workflowet bygger på batching, deduplicering och AI-beslut innan du spenderar tokens på att sammanfatta, och n8n är helt enkelt mer bekvämt för den typen av logik. Du får också ett alternativ för egen drift, vilket är viktigt om du vill köra hög volym utan att betala per uppgift. Zapier eller Make kan fortfarande fungera om din version är enklare, som ”spara inlägg → sammanfatta → lagra”, och du inte bryr dig om kommentarsextraktion eller strikt filtrering. Om du är osäker, prata med en automationsexpert och beskriv din volym och dina kriterier.

Det här är den typen av workflow du sätter upp en gång och har nytta av varje dag efteråt. Dina sparade inlägg slutar vara en kyrkogård och börjar fungera som en riktig researchdatabas.

Kontakta oss

Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.

×

Använd mall

Få direkt tillgång till denna n8n-arbetsflödes JSON-fil

Få prisoffert redan idag!
Få prisoffert redan idag!

Berätta vad ni behöver hjälp med så hör vi av oss inom en arbetsdag!

Få prisoffert redan idag!
Få prisoffert redan idag!

Berätta vad ni behöver hjälp med så hör vi av oss inom en arbetsdag!

Launch login modal Launch register modal