Behöver ert företag hjälp med att implementera AI? Kontakta oss och få prisoffert här →
AI Skolan
januari 22, 2026

Reddit + Google Sheets: SEO-utkast redo att redigera

Rickard Andersson Partner, Nodenordic.se

Dina SEO-utkast misslyckas inte för att du inte kan skriva. De misslyckas för att researchen sprids över flikar, anteckningar och halvt färdiga dokument, och sedan ”höftar du” för att få ut något publicerat.

Content marketers känner det här varje vecka. SEO-specialister känner det när rankingen stannar av. Och byråteam som jonglerar flera kunder? De lever i den här röran. Den här automatiseringen för Reddit SEO-utkast samlar verkliga frågor på ett ställe och gör om dem till strukturerade, redigerbara HTML-utkast.

Du får se hur workflowet samlar Reddit-trådar, YouTube-videor och branschnyheter, och sedan använder AI för att syntetisera och skriva ett SEO-vänligt utkast som hamnar i Google Sheets, redo för din sista genomgång.

Så här fungerar automatiseringen

Här är hela workflowet som du kommer att sätta upp:

n8n Workflow Template: Reddit + Google Sheets: SEO-utkast redo att redigera

Varför det här spelar roll: splittrad research dödar bra innehåll

SEO-innehållsskapande låter enkelt tills du ska göra det konsekvent. Du börjar med ”snabb research” och slutar med 20 öppna flikar, tre verktyg, några lovande Reddit-trådar och en YouTube-video du svär att du ska återkomma till. Senare skriver du på minnet eftersom anteckningarna är röriga. Det är då utkasten blir generiska, FAQ:er känns påhittade och du fastnar i att skriva om introduktioner om och om igen. Det handlar inte bara om tid. Det är mental belastning, och den bromsar publicering i smyg till snigelfart.

Det eskalerar snabbt. Så här fallerar det i riktiga team.

  • Du letar upp samma källor om och om igen eftersom gårdagens research inte sparas någonstans på ett användbart sätt.
  • Insikter från Reddit försvinner i skärmdumpar och länkar, så utkastet missar det folk faktiskt frågar.
  • YouTube-research blir till ”jag sammanfattar det här senare”, vilket oftast betyder aldrig.
  • Även när ett utkast är helt okej tar formatering och struktur fortfarande cirka en timme per artikel.

Det du bygger: research från flera källor till HTML-utkast i Sheets

Det här workflowet gör spridd research till ett repeterbart system för utkast. Du startar det manuellt i n8n och det hämtar direkt ny research från tre ställen: Reddit-diskussioner, YouTube-videor och ett API för branschnyheter. De här researchflödena slås ihop till en dataset, blir rensade och syntetiserade till användbara insikter. Därefter använder en AI-copywriting-agent den samlade researchen för att planera och skriva en strukturerad SEO-artikel. Den kör även SERP-analys i Google-sök-stil och kontrollerar Wikipedia för faktagrundning, så utkastet inte bara bygger på ”AI-känsla”. Till sist konverterar workflowet utkastet till strukturerad HTML och lägger till det i Google Sheets, där teamet kan redigera, tilldela och publicera.

Workflowet börjar med inställningar (nyckelord, källor och gränser) och samlar sedan in research parallellt. Därefter slår det ihop och sammanfattar inputen, genererar ett SEO-utkast via OpenAI, konverterar Markdown till HTML och sparar slututkastet i en rad i Google Sheets för smidig överlämning.

Det du bygger

Förväntade resultat

Säg att du publicerar 3 SEO-inlägg per vecka. Manuellt kan en typisk cykel vara cirka 1 timme för att samla Reddit- och YouTube-insikter, ytterligare 1 timme för att skanna SERP-konkurrenter och sedan cirka 1 timme för att skriva och fixa formatering till ett användbart utkast. Det är ungefär 9 timmar i veckan. Med det här workflowet kan du trigga körningen på en minut, låta det bearbeta research och generera HTML-utkastet på cirka 20–30 minuter och lägga din tid på det som faktiskt spelar roll: att redigera för korrekthet, tonläge och konvertering.

Innan du börjar

  • n8n-instans (testa n8n Cloud gratis)
  • Alternativ för egen hosting om du föredrar det (Hostinger fungerar bra)
  • Google Sheets för att lagra utkast och följa status.
  • Reddit API-åtkomst för att hämta relevanta trådar och diskussioner.
  • YouTube Data API-nyckel (hämta den från Google Cloud Console).
  • OpenAI API-nyckel (hämta den från din OpenAI-dashboard).
  • SERP API-nyckel för Google-sökanalys (från ditt konto hos din SERP-leverantör).
  • API för branschnyheter för aktuella rubriker (från din nyhets-API-leverantör).

Kunskapsnivå: Medel. Du kommer att koppla API:er, klistra in nycklar och justera prompts, men du behöver inte skriva kod från grunden.

Vill du att någon bygger detta åt dig? Prata med en automationsexpert (gratis 15-minuters konsultation).

Steg för steg

En manuell körning startar allt. Du startar workflowet när du vill ha ett nytt utkast, vilket är smidigt om du batchar innehållsämnen på en måndag och genererar flera utkast i ett svep.

Inställningar initieras för konsekventa körningar. Workflowet sätter dina ämnesinput och eventuella parametrar (som hur många objekt som ska hämtas) och använder sedan dessa inställningar för att fråga Reddit, YouTube och din endpoint för branschnyheter parallellt.

Research slås ihop och blir ”skrivklara” anteckningar. n8n kombinerar de tre researchflödena och ett syntessteg destillerar dem till de viktigaste vinklarna, invändningarna och fakta som spelar roll, så att AI-agenten inte gissar.

AI-agenten skriver, validerar och formaterar. Den skapar ett strukturerat utkast (med stöd av SEO-analys och Wikipedia-uppslag), konverterar Markdown till strukturerad HTML och lägger till slutresultatet i Google Sheets för ditt redigera-och-publicera-flöde.

Du kan enkelt ändra researchkällorna för att inkludera andra communities eller konkurrenter utifrån dina behov. Se den fullständiga implementationsguiden nedan för anpassningsalternativ.

Steg-för-steg-guide för implementering

Steg 1: Konfigurera den manuella triggern

Starta arbetsflödet manuellt och initiera de indata-variabler som styr all efterföljande research och innehållsgenerering.

  1. Lägg till Manual Start Trigger som trigger för det här arbetsflödet.
  2. I Initialize Settings ställer ni in serviceType till teaching.
  3. Ställ in targetAudience till students och industry till AI and Engineering.
  4. Ställ in contentType till landing page, tone till professional yet approachable och wordCount till 800.
  5. Konfigurera research-indata: redditSubreddits till artificial,MachineLearning,engineering,learnprogramming, youtubeSearchQuery till AI engineering education, newsApiUrl till https://newsapi.org/v2/everything och newsApiQuery till AI engineering education training.

Tips: Om ni ändrar bransch eller målgrupp i Initialize Settings kommer alla research-frågor automatiskt att uppdateras längre ned i flödet.

Steg 2: Anslut research-källor (parallella grenar)

Hämta Reddit-trådar, YouTube-videor och branschnyheter parallellt och slå sedan ihop allt till en gemensam research-ström.

  1. Konfigurera Retrieve Reddit Threads med Operation satt till search, Limit satt till 20, Keyword satt till ={{ $json.industry }} {{ $json.serviceType }} och Subreddit satt till ={{ $json.redditSubreddits }}.
  2. Konfigurera Collect YouTube Videos med Resource satt till video, Limit satt till 20 och Filters → q satt till ={{ $json.youtubeSearchQuery }}.
  3. Konfigurera Request Industry News med URL satt till ={{ $json.newsApiUrl }}, Send Query aktiverat och frågeparametrar: q satt till ={{ $json.newsApiQuery }}, apiKey satt till [CONFIGURE_YOUR_API_KEY], pageSize till 20 och sortBy till relevancy.
  4. Initialize Settings skickar utdata till Retrieve Reddit Threads, Collect YouTube Videos och Request Industry News parallellt.
  5. Ställ in Merge Research Streams till Mode combine och Combine By combineAll.

⚠️ Vanlig fallgrop: Om ni lämnar [CONFIGURE_YOUR_API_KEY] i Request Industry News kommer HTTP-anropet att misslyckas. Ersätt det med en giltig NewsAPI-nyckel.

Steg 3: Sätt upp syntes av insikter

Sammanställ den sammanslagna research-datan och generera strukturerade insikter som används av AI-agenten.

  1. Öppna Synthesize Insights och behåll den medföljande JavaScript Code för att aggregera trender, frågor, sentiment och sammanfattningsdata.
  2. Verifiera flödet: Merge Research StreamsSynthesize InsightsSEO Copywriting Agent.

Tips: Utdata innehåller insights.summary och insights.keyTrends, som refereras direkt i AI-prompten, så behåll fältnamnen oförändrade.

Steg 4: Sätt upp AI-baserad innehållsgenerering

Generera strukturerat SEO-innehåll med en LangChain-agent som drivs av OpenAI och research-verktyg.

  1. I SEO Copywriting Agent ställer ni in Text till uttrycket över flera rader som börjar med =Service: {{ $json.serviceType }} och slutar med {{ $json.insights.commonQuestions.slice(0, 5).join("\n") }}.
  2. Behåll Prompt Type som define och säkerställ att Has Output Parser är aktiverat.
  3. Anslut OpenAI Chat Model som språkmodell för SEO Copywriting Agent och ställ in Model till gpt-4o med Temperature 0.7.
  4. Koppla Structured Output Parser, SERP Research Tool och Wikipedia Lookup som verktyg/parsers för SEO Copywriting Agent.

Inloggningsuppgifter krävs: Anslut era openAiApi-inloggningsuppgifter i OpenAI Chat Model.

⚠️ Vanlig fallgrop: SERP Research Tool och Wikipedia Lookup är AI-verktyg. Om de kräver inloggningsuppgifter, lägg till dem på SEO Copywriting Agent (föräldern), inte på verktygsnoderna.

Steg 5: Konfigurera utdataformatering och lagring

Konvertera den AI-genererade markdownen till HTML och spara resultatet i Google Sheets.

  1. I Markdown to HTML ställer ni in Mode till markdownToHtml och Markdown till ={{ $json.mainContent }}.
  2. Konfigurera Append to Google Sheets med Operation satt till appendOrUpdate, Sheet Name satt till SEO Content och Document ID satt till [YOUR_ID].
  3. Låt Columns vara satt till autoMapInputData så att utdatafälten mappas automatiskt.

Inloggningsuppgifter krävs: Anslut era googleSheetsOAuth2Api-inloggningsuppgifter i Append to Google Sheets.

Steg 6: Testa och aktivera ert arbetsflöde

Kör ett komplett manuellt test för att bekräfta att datainsamling, AI-generering och lagring fungerar hela vägen.

  1. Klicka på Execute WorkflowManual Start Trigger för att köra hela arbetsflödet.
  2. Bekräfta att Merge Research Streams tar emot data från Reddit, YouTube och nyhetskällor.
  3. Verifiera att SEO Copywriting Agent ger strukturerade fält som headline, metaDescription och mainContent.
  4. Kontrollera Append to Google Sheets efter en ny rad i arket SEO Content.
  5. När allt är verifierat, växla arbetsflödet till Active för användning i produktion.
🔒

Lås upp fullständig steg-för-steg-guide

Få den kompletta implementeringsguiden + nedladdningsbar mall

Felsökningstips

  • Google Sheets-inloggningar kan löpa ut eller kräva specifika behörigheter. Om något skapar fel, kontrollera först åtkomsten för det anslutna Google-kontot och kalkylarkets delningsinställningar.
  • Om du använder Wait-noder eller extern rendering varierar processingtiderna. Öka väntetiden om efterföljande noder misslyckas på grund av tomma svar.
  • OpenAI-utdata beror starkt på prompts, och standarden är ärligt talat intetsägande. Lägg in din varumärkesröst tidigt (ton, förbjudna fraser, formateringsregler) annars kommer du att redigera varje stycke.

Snabba svar

Hur lång tid tar det att sätta upp den här automatiseringen för Reddit SEO-utkast?

Cirka en timme om dina API-nycklar är klara.

Krävs kodning för den här automatiseringen av SEO-utkast?

Nej. Du kopplar konton, lägger till API-nycklar och justerar prompts och kolumner i Sheets.

Är n8n gratis att använda för det här workflowet för Reddit SEO-utkast?

Ja. n8n har ett gratis alternativ för egen hosting och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna med OpenAI API-användning och eventuella betalda SERP- eller nyhets-API:er.

Var kan jag hosta n8n för att köra den här automatiseringen?

Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller egen hosting på en VPS. För egen hosting är Hostinger VPS prisvärd och hanterar n8n bra. Egen hosting ger dig obegränsat antal körningar men kräver grundläggande serverhantering.

Kan jag anpassa det här workflowet för Reddit SEO-utkast för andra användningsfall?

Ja, och det bör du. Du kan byta ut stegen som hämtar från Reddit och YouTube för att rikta in dig på andra subreddits, sökstilar eller kanaler, och sedan justera värdena i ”Initiera inställningar” och prompten till AI-agenten så att den matchar din varumärkesröst. Många team anpassar också steget ”Markdown till HTML” för att tvinga fram specifika rubrikstrukturer, CTA-block eller FAQ-formatering. Om du vill ha fler källor kan du lägga till ytterligare en HTTP Request-input och slå ihop den i ”Slå ihop researchflöden”.

Varför misslyckas min Google Sheets-anslutning i det här workflowet?

Oftast handlar det om behörigheter. Säkerställ att Google-kontot som är anslutet i n8n har redigeringsåtkomst till kalkylarket och bekräfta att Sheet-ID/fliknamn fortfarande matchar vad workflowet förväntar sig. Om du nyligen bytte Google-inloggning, anslut Google Sheets-noden igen och välj filen på nytt. Det kan också misslyckas om dina kolumner har ändrats och append-steget försöker skriva till fält som inte längre finns.

Vilken volym kan det här workflowet för Reddit SEO-utkast hantera?

De flesta team kör det i batchar (till exempel 5–20 ämnen åt gången), och den praktiska gränsen är dina API-kvoter och hur snabbt du vill spendera OpenAI-krediter.

Är den här automatiseringen för Reddit SEO-utkast bättre än att använda Zapier eller Make?

Ofta, ja. Det här flödet drar nytta av n8n:s förmåga att slå ihop flera researchflöden, köra mer avancerad logik och använda AI-agent-liknande steg utan att varje gren blir en extra betald task. Du kan också hosta n8n själv, vilket är viktigt när du genererar många utkast varje månad. Zapier eller Make kan fortfarande fungera om du vill ha något väldigt enkelt, som en inputkälla och en outputdestination. För research från flera källor plus AI-utkast är n8n oftast det mer flexibla valet. Prata med en automationsexpert om du vill ha hjälp att välja.

När detta väl är igång slutar din research vara en hög av flikar och börjar fungera som ett system. Du publicerar snabbare, och utkasten blir betydligt enklare att finslipa.

Kontakta oss

Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.

×

Använd mall

Få direkt tillgång till denna n8n-arbetsflödes JSON-fil

Få prisoffert redan idag!
Få prisoffert redan idag!

Berätta vad ni behöver hjälp med så hör vi av oss inom en arbetsdag!

Få prisoffert redan idag!
Få prisoffert redan idag!

Berätta vad ni behöver hjälp med så hör vi av oss inom en arbetsdag!

Launch login modal Launch register modal