Du ser ett ämne som börjar ta fart, och plötsligt har du tappat en timme på att hoppa mellan Reddit-flikar, X-sökningar och halvfärdiga anteckningar. Länkarna blir röriga. “Insikterna” blir till skärmdumpar. Och när du väl publicerar har ögonblicket redan passerat.
Automatisering av trend brief träffar marknadsförare först, eftersom snabbhet är jobbet. Men innehållsskapare och byråledare känner det också, särskilt när du behöver ett repeterbart sätt att göra snack till en veckoplan.
Det här n8n-flödet tar ett ämne, hämtar relevanta inlägg från Reddit och X, poängsätter vad som är värt din uppmärksamhet och skriver sedan en rankad trend brief direkt i Google Sheets. Du får se vad det gör, vad du behöver och vilka resultat du kan förvänta dig.
Så fungerar automatiseringen
Hela n8n-flödet, från trigger till slutligt resultat:
n8n Workflow Template: Reddit + X till Google Sheets, rankade trender
flowchart LR
subgraph sg0["Form Intake Flow"]
direction LR
n0["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/form.svg' width='40' height='40' /></div><br/>Form Intake Trigger"]
n1["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/httprequest.dark.svg' width='40' height='40' /></div><br/>External API Fetch"]
n2["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/x.dark.svg' width='40' height='40' /></div><br/>Search Social Posts"]
n3["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/code.svg' width='40' height='40' /></div><br/>Parse Reddit Results"]
n4@{ icon: "mdi:cog", form: "rounded", label: "Collect Reddit Items", pos: "b", h: 48 }
n5@{ icon: "mdi:swap-vertical", form: "rounded", label: "Map Reddit Fields", pos: "b", h: 48 }
n6@{ icon: "mdi:swap-vertical", form: "rounded", label: "Map Social Fields", pos: "b", h: 48 }
n7@{ icon: "mdi:cog", form: "rounded", label: "Collect Social Items", pos: "b", h: 48 }
n8["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/merge.svg' width='40' height='40' /></div><br/>Combine Sources"]
n9@{ icon: "mdi:robot", form: "rounded", label: "Keyword Expansion Agent", pos: "b", h: 48 }
n10@{ icon: "mdi:robot", form: "rounded", label: "Keyword Output Parser", pos: "b", h: 48 }
n11@{ icon: "mdi:brain", form: "rounded", label: "Gemini Parser Model", pos: "b", h: 48 }
n12@{ icon: "mdi:brain", form: "rounded", label: "Gemini Keyword Model", pos: "b", h: 48 }
n13@{ icon: "mdi:swap-vertical", form: "rounded", label: "Iterate Keywords", pos: "b", h: 48 }
n14["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/code.svg' width='40' height='40' /></div><br/>Extract Keywords"]
n15@{ icon: "mdi:swap-vertical", form: "rounded", label: "Unnest Keyword Data", pos: "b", h: 48 }
n16@{ icon: "mdi:robot", form: "rounded", label: "Content Insight Agent", pos: "b", h: 48 }
n17@{ icon: "mdi:swap-vertical", form: "rounded", label: "Iterate Content Items", pos: "b", h: 48 }
n18@{ icon: "mdi:brain", form: "rounded", label: "Gemini Insight Model", pos: "b", h: 48 }
n19@{ icon: "mdi:robot", form: "rounded", label: "Insight Output Parser", pos: "b", h: 48 }
n20@{ icon: "mdi:brain", form: "rounded", label: "Gemini Parser Model 2", pos: "b", h: 48 }
n21@{ icon: "mdi:robot", form: "rounded", label: "Trend Synthesis Agent", pos: "b", h: 48 }
n22@{ icon: "mdi:brain", form: "rounded", label: "Gemini Strategy Model", pos: "b", h: 48 }
n23["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/code.svg' width='40' height='40' /></div><br/>Normalize Agent Output"]
n24@{ icon: "mdi:cog", form: "rounded", label: "Placeholder Extra Source", pos: "b", h: 48 }
n25@{ icon: "mdi:cog", form: "rounded", label: "Placeholder Source", pos: "b", h: 48 }
n3 --> n5
n14 --> n13
n8 --> n13
n16 --> n17
n9 --> n14
n21 --> n23
n4 --> n8
n15 --> n17
n7 --> n8
n5 --> n4
n6 --> n7
n1 --> n3
n2 --> n6
n13 --> n15
n13 --> n1
n13 --> n2
n13 --> n24
n13 --> n25
n17 --> n21
n17 --> n16
n0 --> n9
n18 -.-> n16
n10 -.-> n9
n11 -.-> n10
n12 -.-> n9
n20 -.-> n19
n22 -.-> n21
n19 -.-> n16
end
%% Styling
classDef trigger fill:#e8f5e9,stroke:#388e3c,stroke-width:2px
classDef ai fill:#e3f2fd,stroke:#1976d2,stroke-width:2px
classDef aiModel fill:#e8eaf6,stroke:#3f51b5,stroke-width:2px
classDef decision fill:#fff8e1,stroke:#f9a825,stroke-width:2px
classDef database fill:#fce4ec,stroke:#c2185b,stroke-width:2px
classDef api fill:#fff3e0,stroke:#e65100,stroke-width:2px
classDef code fill:#f3e5f5,stroke:#7b1fa2,stroke-width:2px
classDef disabled stroke-dasharray: 5 5,opacity: 0.5
class n0 trigger
class n9,n10,n16,n19,n21 ai
class n11,n12,n18,n20,n22 aiModel
class n1 api
class n3,n14,n23 code
classDef customIcon fill:none,stroke:none
class n0,n1,n2,n3,n8,n14,n23 customIcon
Problemet: trendresearch är utspridd och svår att lita på
Manuell trendresearch ser enkel ut tills du ska göra den konsekvent. Du börjar med “vi kollar ett ämne”, och plötsligt jonglerar du Reddit-sökningar, X-frågor, engagemangssiffror och en massa inlägg som är halvrelevanta men inte användbara. Du klistrar in länkar i ett dokument, glömmer var de kom ifrån och slutar med att skriva om samma sammanfattning varje vecka. Det värsta är beslutsutmattningen: du sitter och stirrar på 40 inlägg och försöker gissa vad som kommer spela roll för din publik, utan struktur och utan poängsättning.
Det eskalerar snabbt. Här är var det faller isär när du försöker skala bortom “jag gör det själv”.
- Att söka på Reddit och X separat gör ett ämne till cirka 30 minuters flikhoppande.
- Engagemangssignaler är lätta att misstolka när du jämför inlägg mellan plattformar med blotta ögat.
- Anteckningar blir ingen backlogg, så samma research upprepas nästa vecka.
- Utan gruppering och rankning landar du i “intressanta länkar” i stället för publicerbara vinklar.
Lösningen: ett ämne in, rankad trend brief ut
Det här flödet börjar med ett enkelt formulär där du anger ett enda ämne (som “e-postleveransbarhet” eller “AI för anteckningar”). En AI-agent utvecklar ämnet till subämnen och nyckelord, och sedan söker n8n automatiskt på Reddit och X efter inlägg som matchar. För varje inlägg fångar det det du faktiskt behöver senare: titel/text, engagemangsmått och originallänken. Därefter analyserar en AI-modell varje post och märker den med trendpotential, målgruppsrelevans, plattformsfit, rekommenderade format, kategorier och nyckelord. Till sist grupperar en syntesagent liknande fynd, rankar de starkaste möjligheterna och skriver ut en korrekt formaterad brief i Google Sheets så att teamet får en plats att arbeta från.
Flödet är rakt på sak. En formulärinsändning triggar nyckelordsutveckling, sedan samlar arbetsflödet in innehåll från Reddit och X parallellt. Efter AI-poängsättning och gruppering får du en rankad, strukturerad trend brief i Sheets, redo för innehållsplanering eller kundrapportering.
Det du får: automatisering vs. resultat
| Vad det här flödet automatiserar | Resultat du får |
|---|---|
|
|
Exempel: så här ser det ut
Säg att du researchar 3 ämnen per vecka till din innehållskalender. Manuellt tar en “snabb” genomgång ofta 30 minuter på Reddit plus 30 minuter på X, och sedan ytterligare 30 minuter för att sammanfatta och organisera, vilket blir ungefär 4 till 5 timmar i veckan. Med det här flödet tar det cirka 2 minuter att lägga in varje ämne, och den automatiserade insamlingen plus AI-analysen kör i bakgrunden medan du gör annat. Du granskar fortfarande slutarket, men det blir en fokuserad genomläsning, inte en skattjakt.
Det här behöver du
- n8n-instans (prova n8n Cloud gratis)
- Alternativ för self-hosting om du föredrar det (Hostinger fungerar bra)
- Google Sheets för att lagra den rankade trend briefen
- X (Twitter) API-åtkomst för att söka och hämta inlägg
- Google Gemini (PaLM) API-nyckel (hämta den från Google AI Studio / Google Cloud)
Kunskapsnivå: Medel. Du kopplar några inloggningar, säkerställer att formulärtriggern är åtkomlig och justerar prompts om du vill ha andra utdata.
Vill du inte sätta upp detta själv? Prata med en automationsexpert (gratis 15-minuters konsultation).
Så fungerar det
En formulärinsändning startar allt. Du anger ett enda ämne i n8n Form Trigger, vilket håller inputen så enkel att vem som helst i teamet kan använda den.
AI utvecklar ditt ämne till nyckelord. Agenten för nyckelordsutveckling skapar subämnen och söktermer och parsar dem sedan till en strukturerad lista så att n8n kan iterera snyggt utan att du behöver kopiera något.
Innehåll från Reddit och X samlas in och normaliseras. För varje nyckelord hämtar flödet Reddit-resultat via HTTP-anrop och söker på X via OAuth. Det mappar fält till ett konsekvent format (text, titel, länk, engagemang) och slår sedan ihop båda källorna till en ström.
Varje post poängsätts och sammanfattas sedan till en trend brief. Agenten för innehållsinsikter analyserar inlägg ett i taget, och trend-syntesagenten grupperar liknande insikter, rankar möjligheter och tar fram strategiska innehållsrekommendationer som är enkla att klistra in i en plan.
Du kan enkelt ändra källorna (till exempel lägga till YouTube eller Hacker News) så att det matchar var din målgrupp faktiskt spenderar tid. Se hela implementationsguiden nedan för anpassningsalternativ.
Steg-för-steg-guide för implementering
Steg 1: Konfigurera formulärtriggern
Konfigurera intagsformuläret som startar arbetsflödet och fångar upp forskningstemat.
- Lägg till och öppna Form Intake Trigger.
- Ställ in Form Title på
topic. - Ställ in Form Description på
Auto-Research Assistant for Market Trends. - Bekräfta att formulärfältets etikett är
topicmed platshållarenone word is enough.
Steg 2: Konfigurera nyckelordsutvidgning och parsning
Det här steget utvidgar användarens tema till delteman och strukturerad nyckelordsutdata med hjälp av AI-stacken.
- Öppna Keyword Expansion Agent och behåll prompten Text som den är, inklusive uttrycksreferenserna
{{ $json.topic }}. - Bekräfta att Keyword Expansion Agent har Has Output Parser aktiverat.
- Öppna Keyword Output Parser och ställ in Auto Fix på
true. - Ställ in JSON Schema Example i Keyword Output Parser till det angivna schemablocket.
- Autentiseringsuppgifter krävs: Anslut era
googlePalmApi-autentiseringsuppgifter till Gemini Keyword Model. - Autentiseringsuppgifter krävs: Anslut era
googlePalmApi-autentiseringsuppgifter till Gemini Parser Model. - Säkerställ att Gemini Keyword Model är ansluten som språkmodell för Keyword Expansion Agent.
- Säkerställ att Gemini Parser Model är ansluten som språkmodell för Keyword Output Parser (autentiseringsuppgifter läggs till i Gemini Parser Model, inte i parsern).
Steg 3: Hämta Reddit- och socialt innehåll för varje nyckelord
Det här steget itererar nyckelorden, hämtar innehåll från Reddit och X och normaliserar fält för aggregering.
- Öppna Extract Keywords och behåll JavaScript-koden som plattar ut
$json.output.subtopicstill enskilda nyckelordsobjekt. - Använd Iterate Keywords för att batcha nyckelord; koppla dess första utgång till Unnest Keyword Data.
- I Unnest Keyword Data ställer ni in Field to Split Out på
data[0].keywordoch Include påallOtherFields. - Från Iterate Keywords andra utgång, koppla i parallell till både External API Fetch och Search Social Posts, samt till platshållarna.
- I External API Fetch, ställ in URL på
=https://www.reddit.com/search.json?q={{ $json.keyword }}och lägg till frågeparameternlimit=5. - I Search Social Posts, ställ in Operation på
search, Limit på10, Search Text på={{ $json.topic }}och Sort Order pårecency. - Autentiseringsuppgifter krävs: Anslut era
twitterOAuth2Api-autentiseringsuppgifter till Search Social Posts. - Behåll JavaScript-koden i Parse Reddit Results som den är för att mappa Reddit-fält till ren JSON.
- I Map Reddit Fields, ställ in source på
redditoch keyword på={{ $('Extract Keywords').item.json.keyword }}, med Include Other Fields aktiverat. - I Map Social Fields, ställ in source på
x (formally twitter), text på={{ $json.text }}och keyword på={{ $('Extract Keywords').item.json.keyword }}. - Aggregera varje ström med Collect Reddit Items och Collect Social Items, och sammanfoga sedan i Combine Sources.
={{ $json.topic }} fylls i från formuläret.Steg 4: Analysera innehållsobjekt med AI-insikter
Det här steget poängsätter varje innehållsobjekt och tar fram strukturerade insikter för trendsyntes.
- Routa Combine Sources in i Iterate Keywords och därefter in i Unnest Keyword Data enligt arbetsflödet.
- Från Unnest Keyword Data, mata in Iterate Content Items för att batcha innehållsobjekt.
- Öppna Content Insight Agent och behåll hela prompten, inklusive uttrycket
{{ $json.data[0].title }}och nyckelordsreferensen{{ $('Extract Keywords').item.json.keyword }}. - Säkerställ att Insight Output Parser är ansluten till Content Insight Agent för strukturerad utdata; autentiseringsuppgifter läggs till i modellnoden, inte i parsern.
- Autentiseringsuppgifter krävs: Anslut era
googlePalmApi-autentiseringsuppgifter till Gemini Insight Model. - Autentiseringsuppgifter krävs: Anslut era
googlePalmApi-autentiseringsuppgifter till Gemini Parser Model 2. - Säkerställ att Gemini Insight Model är ansluten som språkmodell för Content Insight Agent.
- Säkerställ att Gemini Parser Model 2 är ansluten som språkmodell för Insight Output Parser.
Steg 5: Syntetisera trender och normalisera utdata
Det här steget konsoliderar insikter till slutliga trendrekommendationer och städar upp AI-utdata.
- Från Iterate Content Items, skicka objekten till Trend Synthesis Agent.
- Behåll prompten för Trend Synthesis Agent intakt, inklusive
{{ JSON.stringify($json) }}för batchbearbetning. - Autentiseringsuppgifter krävs: Anslut era
googlePalmApi-autentiseringsuppgifter till Gemini Strategy Model. - Säkerställ att Gemini Strategy Model är ansluten som språkmodell för Trend Synthesis Agent.
- I Normalize Agent Output, behåll JavaScript-koden som tar bort code fences och parsar JSON-utdata.
Steg 6: Testa och aktivera ert arbetsflöde
Kör ett fullständigt test för att bekräfta att datainsamling, AI-analys och slutlig trendutdata fungerar hela vägen.
- Klicka på Execute Workflow och skicka in ett exempelt tema via Form Intake Trigger.
- Verifiera att External API Fetch och Search Social Posts returnerar data, och att Combine Sources slår ihop båda strömmarna.
- Kontrollera att Content Insight Agent ger strukturerade insiktsobjekt som parsas av Insight Output Parser.
- Bekräfta att Normalize Agent Output ger ren JSON med
final_trendsochstrategy_recommendations. - När allt fungerar, slå om arbetsflödet till Active för användning i produktion.
Vanliga fallgropar
- X (Twitter) OAuth2-inloggningar kan gå ut eller sakna rätt scopes. Om det skapar fel, kontrollera först din panel för Credentials i n8n och behörigheterna i X Developer-appen.
- Om du använder Wait-noder eller extern bearbetning varierar körtiderna. Öka väntetiden om nedströms AI-noder fallerar för att de fick en tom eller ofullständig batch.
- Gemini-prompts börjar ärligt talat generiskt. Lägg in varumärkesröst, målgrupp och “hur bra ser ut” nära Keyword Expansion Agent och Content Insight Agent, annars kommer du att redigera briefen varje gång.
Vanliga frågor
Cirka 30–60 minuter om dina Gemini-, X- och Google-konton är redo.
Nej. Du kopplar mest konton och klistrar in API-uppgifter. Den enda “tekniska” delen är att kontrollera att formulärtriggerns URL är åtkomlig.
Ja. n8n har ett gratis self-hosted-alternativ och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna in Gemini API-kostnader, som beror på användning och modellval.
Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller self-hosting på en VPS. För self-hosting är Hostinger VPS prisvärd och hanterar n8n bra. Self-hosting ger dig obegränsade körningar men kräver grundläggande serverhantering.
Ja, och det är en vanlig justering. Du ersätter Google Sheets-steget för output med en Notion-databas create/update-åtgärd och behåller samma normaliserade fält som produceras efter Trend Synthesis Agent. Många team lägger också till ett fält för “innehållsstatus” (Utkast, Redigering, Schemalagt) så att briefen blir en fungerande pipeline. Vill du ha båda kan du skriva till Sheets för rapportering och Notion för genomförande.
Oftast beror det på utgångna OAuth-uppgifter eller saknade scopes i X Developer-appen. Återanslut X-uppgiften i n8n och kör sedan om ett enda nyckelord för att testa. Om du hämtar många inlägg i en körning kan det också vara rate limiting, så att minska antalet nyckelord per körning stabiliserar det ofta.
Många, men det beror på din n8n-plan, din server och dina API-gränser.
För det här användningsfallet vinner n8n oftast när du behöver batchning, slå ihop två källor och flerstegs AI-analys i en och samma körning. Zapier och Make kan göra delar av det, men logiken blir pillig när du lägger till “utveckla nyckelord, loopa, poängsätt varje post och syntetisera.” n8n ger dig också ett self-host-alternativ, vilket spelar roll om du kör stora research-batcher. Med det sagt: om du bara vill ha ett enkelt “nytt Reddit-inlägg → lägg till i ark” kan andra verktyg vara snabbare att komma igång med. Prata med en automationsexpert om du är osäker på vad som passar.
Sätt upp detta en gång och din research slutar bo i webbläsarflikar. Flödet sköter den röriga insamlingen och rankningen så att du kan fokusera på vad du ska publicera härnäst.
Kontakta oss
Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.