Dina SEO-utkast misslyckas inte för att du inte kan skriva. De misslyckas för att researchen sprids över flikar, anteckningar och halvt färdiga dokument, och sedan ”höftar du” för att få ut något publicerat.
Content marketers känner det här varje vecka. SEO-specialister känner det när rankingen stannar av. Och byråteam som jonglerar flera kunder? De lever i den här röran. Den här automatiseringen för Reddit SEO-utkast samlar verkliga frågor på ett ställe och gör om dem till strukturerade, redigerbara HTML-utkast.
Du får se hur workflowet samlar Reddit-trådar, YouTube-videor och branschnyheter, och sedan använder AI för att syntetisera och skriva ett SEO-vänligt utkast som hamnar i Google Sheets, redo för din sista genomgång.
Så här fungerar automatiseringen
Här är hela workflowet som du kommer att sätta upp:
n8n Workflow Template: Reddit + Google Sheets: SEO-utkast redo att redigera
flowchart LR
subgraph sg0["When clicking 'Test workflow' Flow"]
direction LR
n0@{ icon: "mdi:play-circle", form: "rounded", label: "When clicking 'Test workflow'", pos: "b", h: 48 }
n1@{ icon: "mdi:swap-vertical", form: "rounded", label: "Workflow Configuration", pos: "b", h: 48 }
n2@{ icon: "mdi:robot", form: "rounded", label: "SEO Content Generator Agent", pos: "b", h: 48 }
n3@{ icon: "mdi:brain", form: "rounded", label: "OpenAI GPT-4", pos: "b", h: 48 }
n4@{ icon: "mdi:wrench", form: "rounded", label: "Google Search for SEO Research", pos: "b", h: 48 }
n5@{ icon: "mdi:robot", form: "rounded", label: "Structured Content Output", pos: "b", h: 48 }
n6["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/markdown.dark.svg' width='40' height='40' /></div><br/>Convert to HTML"]
n7["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/reddit.svg' width='40' height='40' /></div><br/>Fetch Reddit Discussions"]
n8@{ icon: "mdi:cog", form: "rounded", label: "Fetch YouTube Videos", pos: "b", h: 48 }
n9["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/httprequest.dark.svg' width='40' height='40' /></div><br/>Fetch Industry News API"]
n10@{ icon: "mdi:wrench", form: "rounded", label: "Wikipedia Research", pos: "b", h: 48 }
n11["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/merge.svg' width='40' height='40' /></div><br/>Combine Research Data"]
n12["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/code.svg' width='40' height='40' /></div><br/>Aggregate Insights"]
n13@{ icon: "mdi:database", form: "rounded", label: "Save to Google Sheets", pos: "b", h: 48 }
n3 -.-> n2
n6 --> n13
n12 --> n2
n10 -.-> n2
n8 --> n11
n11 --> n12
n1 --> n7
n1 --> n8
n1 --> n9
n7 --> n11
n5 -.-> n2
n2 --> n6
n0 --> n1
n4 -.-> n2
end
%% Styling
classDef trigger fill:#e8f5e9,stroke:#388e3c,stroke-width:2px
classDef ai fill:#e3f2fd,stroke:#1976d2,stroke-width:2px
classDef aiModel fill:#e8eaf6,stroke:#3f51b5,stroke-width:2px
classDef decision fill:#fff8e1,stroke:#f9a825,stroke-width:2px
classDef database fill:#fce4ec,stroke:#c2185b,stroke-width:2px
classDef api fill:#fff3e0,stroke:#e65100,stroke-width:2px
classDef code fill:#f3e5f5,stroke:#7b1fa2,stroke-width:2px
classDef disabled stroke-dasharray: 5 5,opacity: 0.5
class n0 trigger
class n2,n5 ai
class n3 aiModel
class n4,n10 ai
class n13 database
class n9 api
class n12 code
class n2 disabled
classDef customIcon fill:none,stroke:none
class n6,n7,n9,n11,n12 customIcon
Varför det här spelar roll: splittrad research dödar bra innehåll
SEO-innehållsskapande låter enkelt tills du ska göra det konsekvent. Du börjar med ”snabb research” och slutar med 20 öppna flikar, tre verktyg, några lovande Reddit-trådar och en YouTube-video du svär att du ska återkomma till. Senare skriver du på minnet eftersom anteckningarna är röriga. Det är då utkasten blir generiska, FAQ:er känns påhittade och du fastnar i att skriva om introduktioner om och om igen. Det handlar inte bara om tid. Det är mental belastning, och den bromsar publicering i smyg till snigelfart.
Det eskalerar snabbt. Så här fallerar det i riktiga team.
- Du letar upp samma källor om och om igen eftersom gårdagens research inte sparas någonstans på ett användbart sätt.
- Insikter från Reddit försvinner i skärmdumpar och länkar, så utkastet missar det folk faktiskt frågar.
- YouTube-research blir till ”jag sammanfattar det här senare”, vilket oftast betyder aldrig.
- Även när ett utkast är helt okej tar formatering och struktur fortfarande cirka en timme per artikel.
Det du bygger: research från flera källor till HTML-utkast i Sheets
Det här workflowet gör spridd research till ett repeterbart system för utkast. Du startar det manuellt i n8n och det hämtar direkt ny research från tre ställen: Reddit-diskussioner, YouTube-videor och ett API för branschnyheter. De här researchflödena slås ihop till en dataset, blir rensade och syntetiserade till användbara insikter. Därefter använder en AI-copywriting-agent den samlade researchen för att planera och skriva en strukturerad SEO-artikel. Den kör även SERP-analys i Google-sök-stil och kontrollerar Wikipedia för faktagrundning, så utkastet inte bara bygger på ”AI-känsla”. Till sist konverterar workflowet utkastet till strukturerad HTML och lägger till det i Google Sheets, där teamet kan redigera, tilldela och publicera.
Workflowet börjar med inställningar (nyckelord, källor och gränser) och samlar sedan in research parallellt. Därefter slår det ihop och sammanfattar inputen, genererar ett SEO-utkast via OpenAI, konverterar Markdown till HTML och sparar slututkastet i en rad i Google Sheets för smidig överlämning.
Det du bygger
| Det som automatiseras | Det du uppnår |
|---|---|
|
|
Förväntade resultat
Säg att du publicerar 3 SEO-inlägg per vecka. Manuellt kan en typisk cykel vara cirka 1 timme för att samla Reddit- och YouTube-insikter, ytterligare 1 timme för att skanna SERP-konkurrenter och sedan cirka 1 timme för att skriva och fixa formatering till ett användbart utkast. Det är ungefär 9 timmar i veckan. Med det här workflowet kan du trigga körningen på en minut, låta det bearbeta research och generera HTML-utkastet på cirka 20–30 minuter och lägga din tid på det som faktiskt spelar roll: att redigera för korrekthet, tonläge och konvertering.
Innan du börjar
- n8n-instans (testa n8n Cloud gratis)
- Alternativ för egen hosting om du föredrar det (Hostinger fungerar bra)
- Google Sheets för att lagra utkast och följa status.
- Reddit API-åtkomst för att hämta relevanta trådar och diskussioner.
- YouTube Data API-nyckel (hämta den från Google Cloud Console).
- OpenAI API-nyckel (hämta den från din OpenAI-dashboard).
- SERP API-nyckel för Google-sökanalys (från ditt konto hos din SERP-leverantör).
- API för branschnyheter för aktuella rubriker (från din nyhets-API-leverantör).
Kunskapsnivå: Medel. Du kommer att koppla API:er, klistra in nycklar och justera prompts, men du behöver inte skriva kod från grunden.
Vill du att någon bygger detta åt dig? Prata med en automationsexpert (gratis 15-minuters konsultation).
Steg för steg
En manuell körning startar allt. Du startar workflowet när du vill ha ett nytt utkast, vilket är smidigt om du batchar innehållsämnen på en måndag och genererar flera utkast i ett svep.
Inställningar initieras för konsekventa körningar. Workflowet sätter dina ämnesinput och eventuella parametrar (som hur många objekt som ska hämtas) och använder sedan dessa inställningar för att fråga Reddit, YouTube och din endpoint för branschnyheter parallellt.
Research slås ihop och blir ”skrivklara” anteckningar. n8n kombinerar de tre researchflödena och ett syntessteg destillerar dem till de viktigaste vinklarna, invändningarna och fakta som spelar roll, så att AI-agenten inte gissar.
AI-agenten skriver, validerar och formaterar. Den skapar ett strukturerat utkast (med stöd av SEO-analys och Wikipedia-uppslag), konverterar Markdown till strukturerad HTML och lägger till slutresultatet i Google Sheets för ditt redigera-och-publicera-flöde.
Du kan enkelt ändra researchkällorna för att inkludera andra communities eller konkurrenter utifrån dina behov. Se den fullständiga implementationsguiden nedan för anpassningsalternativ.
Steg-för-steg-guide för implementering
Steg 1: Konfigurera den manuella triggern
Starta arbetsflödet manuellt och initiera de indata-variabler som styr all efterföljande research och innehållsgenerering.
- Lägg till Manual Start Trigger som trigger för det här arbetsflödet.
- I Initialize Settings ställer ni in serviceType till
teaching. - Ställ in targetAudience till
studentsoch industry tillAI and Engineering. - Ställ in contentType till
landing page, tone tillprofessional yet approachableoch wordCount till800. - Konfigurera research-indata: redditSubreddits till
artificial,MachineLearning,engineering,learnprogramming, youtubeSearchQuery tillAI engineering education, newsApiUrl tillhttps://newsapi.org/v2/everythingoch newsApiQuery tillAI engineering education training.
Steg 2: Anslut research-källor (parallella grenar)
Hämta Reddit-trådar, YouTube-videor och branschnyheter parallellt och slå sedan ihop allt till en gemensam research-ström.
- Konfigurera Retrieve Reddit Threads med Operation satt till
search, Limit satt till20, Keyword satt till={{ $json.industry }} {{ $json.serviceType }}och Subreddit satt till={{ $json.redditSubreddits }}. - Konfigurera Collect YouTube Videos med Resource satt till
video, Limit satt till20och Filters → q satt till={{ $json.youtubeSearchQuery }}. - Konfigurera Request Industry News med URL satt till
={{ $json.newsApiUrl }}, Send Query aktiverat och frågeparametrar: q satt till={{ $json.newsApiQuery }}, apiKey satt till[CONFIGURE_YOUR_API_KEY], pageSize till20och sortBy tillrelevancy. - Initialize Settings skickar utdata till Retrieve Reddit Threads, Collect YouTube Videos och Request Industry News parallellt.
- Ställ in Merge Research Streams till Mode
combineoch Combine BycombineAll.
[CONFIGURE_YOUR_API_KEY] i Request Industry News kommer HTTP-anropet att misslyckas. Ersätt det med en giltig NewsAPI-nyckel.Steg 3: Sätt upp syntes av insikter
Sammanställ den sammanslagna research-datan och generera strukturerade insikter som används av AI-agenten.
- Öppna Synthesize Insights och behåll den medföljande JavaScript Code för att aggregera trender, frågor, sentiment och sammanfattningsdata.
- Verifiera flödet: Merge Research Streams → Synthesize Insights → SEO Copywriting Agent.
insights.summary och insights.keyTrends, som refereras direkt i AI-prompten, så behåll fältnamnen oförändrade.Steg 4: Sätt upp AI-baserad innehållsgenerering
Generera strukturerat SEO-innehåll med en LangChain-agent som drivs av OpenAI och research-verktyg.
- I SEO Copywriting Agent ställer ni in Text till uttrycket över flera rader som börjar med
=Service: {{ $json.serviceType }}och slutar med{{ $json.insights.commonQuestions.slice(0, 5).join("\n") }}. - Behåll Prompt Type som
defineoch säkerställ att Has Output Parser är aktiverat. - Anslut OpenAI Chat Model som språkmodell för SEO Copywriting Agent och ställ in Model till
gpt-4omed Temperature0.7. - Koppla Structured Output Parser, SERP Research Tool och Wikipedia Lookup som verktyg/parsers för SEO Copywriting Agent.
Inloggningsuppgifter krävs: Anslut era openAiApi-inloggningsuppgifter i OpenAI Chat Model.
Steg 5: Konfigurera utdataformatering och lagring
Konvertera den AI-genererade markdownen till HTML och spara resultatet i Google Sheets.
- I Markdown to HTML ställer ni in Mode till
markdownToHtmloch Markdown till={{ $json.mainContent }}. - Konfigurera Append to Google Sheets med Operation satt till
appendOrUpdate, Sheet Name satt tillSEO Contentoch Document ID satt till[YOUR_ID]. - Låt Columns vara satt till
autoMapInputDataså att utdatafälten mappas automatiskt.
Inloggningsuppgifter krävs: Anslut era googleSheetsOAuth2Api-inloggningsuppgifter i Append to Google Sheets.
Steg 6: Testa och aktivera ert arbetsflöde
Kör ett komplett manuellt test för att bekräfta att datainsamling, AI-generering och lagring fungerar hela vägen.
- Klicka på Execute Workflow på Manual Start Trigger för att köra hela arbetsflödet.
- Bekräfta att Merge Research Streams tar emot data från Reddit, YouTube och nyhetskällor.
- Verifiera att SEO Copywriting Agent ger strukturerade fält som
headline,metaDescriptionochmainContent. - Kontrollera Append to Google Sheets efter en ny rad i arket
SEO Content. - När allt är verifierat, växla arbetsflödet till Active för användning i produktion.
Felsökningstips
- Google Sheets-inloggningar kan löpa ut eller kräva specifika behörigheter. Om något skapar fel, kontrollera först åtkomsten för det anslutna Google-kontot och kalkylarkets delningsinställningar.
- Om du använder Wait-noder eller extern rendering varierar processingtiderna. Öka väntetiden om efterföljande noder misslyckas på grund av tomma svar.
- OpenAI-utdata beror starkt på prompts, och standarden är ärligt talat intetsägande. Lägg in din varumärkesröst tidigt (ton, förbjudna fraser, formateringsregler) annars kommer du att redigera varje stycke.
Snabba svar
Cirka en timme om dina API-nycklar är klara.
Nej. Du kopplar konton, lägger till API-nycklar och justerar prompts och kolumner i Sheets.
Ja. n8n har ett gratis alternativ för egen hosting och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna med OpenAI API-användning och eventuella betalda SERP- eller nyhets-API:er.
Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller egen hosting på en VPS. För egen hosting är Hostinger VPS prisvärd och hanterar n8n bra. Egen hosting ger dig obegränsat antal körningar men kräver grundläggande serverhantering.
Ja, och det bör du. Du kan byta ut stegen som hämtar från Reddit och YouTube för att rikta in dig på andra subreddits, sökstilar eller kanaler, och sedan justera värdena i ”Initiera inställningar” och prompten till AI-agenten så att den matchar din varumärkesröst. Många team anpassar också steget ”Markdown till HTML” för att tvinga fram specifika rubrikstrukturer, CTA-block eller FAQ-formatering. Om du vill ha fler källor kan du lägga till ytterligare en HTTP Request-input och slå ihop den i ”Slå ihop researchflöden”.
Oftast handlar det om behörigheter. Säkerställ att Google-kontot som är anslutet i n8n har redigeringsåtkomst till kalkylarket och bekräfta att Sheet-ID/fliknamn fortfarande matchar vad workflowet förväntar sig. Om du nyligen bytte Google-inloggning, anslut Google Sheets-noden igen och välj filen på nytt. Det kan också misslyckas om dina kolumner har ändrats och append-steget försöker skriva till fält som inte längre finns.
De flesta team kör det i batchar (till exempel 5–20 ämnen åt gången), och den praktiska gränsen är dina API-kvoter och hur snabbt du vill spendera OpenAI-krediter.
Ofta, ja. Det här flödet drar nytta av n8n:s förmåga att slå ihop flera researchflöden, köra mer avancerad logik och använda AI-agent-liknande steg utan att varje gren blir en extra betald task. Du kan också hosta n8n själv, vilket är viktigt när du genererar många utkast varje månad. Zapier eller Make kan fortfarande fungera om du vill ha något väldigt enkelt, som en inputkälla och en outputdestination. För research från flera källor plus AI-utkast är n8n oftast det mer flexibla valet. Prata med en automationsexpert om du vill ha hjälp att välja.
När detta väl är igång slutar din research vara en hög av flikar och börjar fungera som ett system. Du publicerar snabbare, och utkasten blir betydligt enklare att finslipa.
Kontakta oss
Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.