Att följa artiklar från WeChat-offentliga konton låter enkelt tills du jonglerar länkar, datum, dubbletter och stökig copy-pastad HTML. En ”snabbkoll” blir snabbt ett research-kaninhål. Och när du väl har summerat är tajmingen redan förbi.
Det här är typen av arbete som i det tysta dränerar marknadsförare som bygger veckovisa insikter, innehållsskapare som letar vinklar och researchansvariga som försöker hålla teamet synkat. Med WeChat RSS-automatisering slutar du barnvakta länkar och börjar samla felfria, relevanta sammanfattningar i ett kalkylark du faktiskt kan använda.
Nedan ser du hur arbetsflödet hämtar inlägg från dina WeChat RSS-källor, filtrerar senaste poster, rensar innehållet, kontrollerar relevans, skapar kinesiska sammanfattningar och sparar allt i Google Sheets (och Notion om du vill).
Så fungerar automatiseringen
Hela n8n-arbetsflödet, från trigger till slutresultat:
n8n Workflow Template: WeChat RSS till Google Sheets – rensade sammanfattningar
flowchart LR
subgraph sg0["When clicking ‘Execute workflow’ Flow"]
direction LR
n0@{ icon: "mdi:database", form: "rounded", label: "Read Initial Links", pos: "b", h: 48 }
n1@{ icon: "mdi:database", form: "rounded", label: "Read RSS Links", pos: "b", h: 48 }
n2@{ icon: "mdi:swap-horizontal", form: "rounded", label: "IF (Filter by Date)", pos: "b", h: 48 }
n3@{ icon: "mdi:database", form: "rounded", label: "Save Initial Data", pos: "b", h: 48 }
n4@{ icon: "mdi:cog", form: "rounded", label: "RSS Read", pos: "b", h: 48 }
n5@{ icon: "mdi:play-circle", form: "rounded", label: "When clicking ‘Execute workf..", pos: "b", h: 48 }
n6["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/merge.svg' width='40' height='40' /></div><br/>Merge"]
n7["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/code.svg' width='40' height='40' /></div><br/>Filter Unique Links"]
n8@{ icon: "mdi:swap-vertical", form: "rounded", label: "Filtered Data", pos: "b", h: 48 }
n9@{ icon: "mdi:swap-vertical", form: "rounded", label: "pubDate&link Only", pos: "b", h: 48 }
n10@{ icon: "mdi:swap-vertical", form: "rounded", label: "pubDate Processing", pos: "b", h: 48 }
n11["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/merge.svg' width='40' height='40' /></div><br/>Merge1"]
n12["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/code.svg' width='40' height='40' /></div><br/>Restore Full Data with Code"]
n13@{ icon: "mdi:robot", form: "rounded", label: "Relevance Classification for..", pos: "b", h: 48 }
n14@{ icon: "mdi:brain", form: "rounded", label: "OpenAI Chat Model1", pos: "b", h: 48 }
n15@{ icon: "mdi:robot", form: "rounded", label: "Basic LLM Chain", pos: "b", h: 48 }
n16@{ icon: "mdi:brain", form: "rounded", label: "OpenAI Chat Model", pos: "b", h: 48 }
n17@{ icon: "mdi:swap-vertical", form: "rounded", label: "Set Fields - Relevant Articles", pos: "b", h: 48 }
n18@{ icon: "mdi:database", form: "rounded", label: "Google Sheets - Add relevant..", pos: "b", h: 48 }
n19["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/code.svg' width='40' height='40' /></div><br/>Clean HTML Content"]
n20["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/notion.dark.svg' width='40' height='40' /></div><br/>Create a database page"]
n6 --> n9
n11 --> n12
n4 --> n10
n8 --> n3
n8 --> n11
n1 --> n4
n15 --> n17
n16 -.-> n15
n3 --> n6
n9 --> n7
n19 --> n13
n14 -.-> n13
n0 --> n6
n10 --> n2
n7 --> n11
n2 --> n8
n12 --> n19
n17 --> n18
n17 --> n20
n5 --> n0
n5 --> n1
n13 --> n15
end
%% Styling
classDef trigger fill:#e8f5e9,stroke:#388e3c,stroke-width:2px
classDef ai fill:#e3f2fd,stroke:#1976d2,stroke-width:2px
classDef aiModel fill:#e8eaf6,stroke:#3f51b5,stroke-width:2px
classDef decision fill:#fff8e1,stroke:#f9a825,stroke-width:2px
classDef database fill:#fce4ec,stroke:#c2185b,stroke-width:2px
classDef api fill:#fff3e0,stroke:#e65100,stroke-width:2px
classDef code fill:#f3e5f5,stroke:#7b1fa2,stroke-width:2px
classDef disabled stroke-dasharray: 5 5,opacity: 0.5
class n5 trigger
class n13,n15 ai
class n14,n16 aiModel
class n2 decision
class n0,n1,n3,n18,n20 database
class n7,n12,n19 code
classDef customIcon fill:none,stroke:none
class n6,n7,n11,n12,n19,n20 customIcon
Problemet: WeChat-research blir snabbt kalkylarkskaos
Om du använder inlägg från WeChats offentliga konton för marknadsresearch vet du redan att det stökiga inte är att ”hitta” artiklar. Det är allt efteråt. Länkar hamnar i slumpmässiga dokument. Samma artikel sparas två gånger. Datum är inkonsekventa, så ”senaste 10 dagarna” blir en manuell gissning. Och själva innehållet är jobbigt eftersom WeChat-sidor ofta kommer med tung HTML, vilket gör sammanfattningar både svårare och långsammare att skriva. Efter några veckor slutar din uppföljningssheet att vara en källa till sanning och blir en kyrkogård av halvfärdiga anteckningar.
Det bygger upp snabbt. Här är var det brukar fallera.
- Du slösar cirka 10 minuter per artikel bara på att rensa text och formatera innan du ens kan läsa den ordentligt.
- ”Relevans” blir subjektivt, så olika personer taggar samma ämne på olika sätt och din research blir brusig.
- Dubbletter smyger in när flera RSS-källor publicerar samma text, vilket gör att du granskar samma idé två gånger.
- Utan ett konsekvent sammanfattningsformat blir det långrandiga meddelanden och följdfrågor när insikter ska delas i teamet.
Lösningen: WeChat RSS → Google Sheets + Notion, med AI-sammanfattningar
Det här arbetsflödet tar dina WeChat RSS-källor och gör dem till en felfri, sökbar research-pipeline. Du börjar med att lagra RSS-flödeslänkar (och eventuella startlänkar du redan har) i Google Sheets. När du kör arbetsflödet hämtar det nya RSS-poster, normaliserar publiceringsdatum och filtrerar till endast de senaste 10 dagarna så att du inte processar gamla nyheter igen. Därefter bygger det om hela artiklarna, tar bort HTML-brus och kör en relevansklassificerare så att bara inlägg som matchar dina ämnen går vidare. Till sist genererar en OpenAI-driven sammanfattningskedja en insiktsfull kinesisk sammanfattning och skriver strukturerat resultat till Google Sheets, med en valfri Notion-post för ett mer ”wiki-liknande” bibliotek.
Arbetsflödet startar med en manuell körning i n8n och hämtar RSS-källor från Google Sheets. Sedan rensar och avdubbletterar det länkar, kontrollerar aktualitet och använder AI för att klassificera och sammanfatta innehåll. I slutet får ditt team en konsekvent rad i Google Sheets (och en Notion-sida om aktiverat) som är redo att söka i, sortera och dela.
Det du får: automatisering vs. resultat
| Det här arbetsflödet automatiserar | Resultat du får |
|---|---|
|
|
Exempel: så här ser det ut
Säg att du följer 3 WeChat RSS-källor och vanligtvis granskar cirka 10 nya inlägg per dag. Manuellt kan det lätt ta cirka 15 minuter per inlägg att rensa HTML, kontrollera datum, tagga relevans och skriva en kort kinesisk sammanfattning, så du lägger ungefär 2,5 timmar per dag. Med det här arbetsflödet kör du det en gång, väntar några minuter på bearbetningen och skummar sedan igenom de ”relevanta” raderna i Google Sheets. Din tid sjunker till cirka 20 minuters granskning, inte 2+ timmar av rutinjobb.
Det här behöver du
- n8n-instans (testa n8n Cloud gratis)
- Alternativ för egen hosting om du föredrar det (Hostinger funkar bra)
- Google Sheets för att lagra RSS-källor och resultat.
- OpenAI för att klassificera relevans och skriva kinesiska sammanfattningar.
- WeChat RSS-flödes-URL (från din RSS-leverantör eller generator).
Svårighetsnivå: Nybörjare. Du kopplar konton, klistrar in ID:n/URL:er och justerar ett par prompts.
Vill du inte sätta upp det här själv? Prata med en automatiseringsexpert (gratis 15-minuters konsultation).
Så fungerar det
Du triggar en körning i n8n. Arbetsflödet är byggt för att köras när du klickar på ”Execute workflow”, vilket passar perfekt för kontrollerade batchar medan du blir varm i kläderna.
Det hämtar RSS-källor och startlänkar från Google Sheets. Ett ark innehåller initiala länkar, ett annat innehåller dina RSS-flödeskällor. Arbetsflödet slår ihop dessa indata så att allt går genom ett system i stället för utspridda flikar.
Det filtrerar, avdubbletterar och rensar innehållet. Publiceringsdatum normaliseras, sedan tas allt äldre än 10 dagar bort. Länkar avdubbletteras, fullständiga poster byggs om och artikeltexten rensas från HTML så att AI:n jobbar med riktig text.
AI kontrollerar relevans och genererar kinesiska sammanfattningar. En ämnesklassificerare avgör vad som är värt att behålla (utifrån dina kategorier), och därefter tar en LLM-kedja fram sammanfattning och strukturerade fält. Relevanta resultat läggs till i Google Sheets och kan även sparas i Notion.
Du kan enkelt justera relevanskategorierna och sammanfattningsstilen efter dina behov. Se hela implementationsguiden nedan för anpassningsalternativ.
Steg-för-steg-guide för implementation
Steg 1: konfigurera den manuella triggern
Det här arbetsflödet startar vid behov och grenar direkt ut i två vägar för datainsamling.
- Lägg till och behåll noden Manual Run Trigger som startpunkt.
- Bekräfta att Manual Run Trigger skickar utdata till både Fetch Seed Links och Retrieve RSS Sources parallellt.
- Lämna parametrarna för Manual Run Trigger på standardvärdena (inga fält krävs).
Steg 2: anslut Google Sheets
Två ark tillhandahåller källänkar och RSS-flöden, och två ark lagrar utdata. Alla Google Sheets-noder kräver OAuth2-autentiseringsuppgifter.
- Öppna Fetch Seed Links och välj dokumentet där Document är satt till
[YOUR_ID]och Sheet är satt tillSave Initial Links. Autentiseringsuppgift krävs: Anslut era googleSheetsOAuth2Api-autentiseringsuppgifter. - Öppna Retrieve RSS Sources och sätt Document till
[YOUR_ID]och Sheet tillRSS Links. Autentiseringsuppgift krävs: Anslut era googleSheetsOAuth2Api-autentiseringsuppgifter. - I Store Initial Records sätter ni Operation till
appendOrUpdateoch mappar kolumner: link →{{ $json.link }}, title →{{ $json.title }}, pubDate →{{ $json.pubDate }}. Autentiseringsuppgift krävs: Anslut era googleSheetsOAuth2Api-autentiseringsuppgifter. - I Append Relevant to Sheets sätter ni Operation till
appendoch mappar kolumner som title →{{ $('Topic Relevance Classifier').item.json.title }}och summary →{{ $json.summary }}. Autentiseringsuppgift krävs: Anslut era googleSheetsOAuth2Api-autentiseringsuppgifter.
Steg 3: konfigurera RSS-tolkning och datumfiltrering
Den här vägen hämtar RSS-poster, normaliserar datum, filtrerar på aktualitet och delar upp i parallella strömmar.
- I Parse RSS Feed sätter ni URL till
={{ $json.rss_feed_url }}för att läsa varje flöde från arket. - I Normalize Publish Date sätter ni pubDate till
={{ new Date($json.pubDate).toISOString() }}och behåller övriga innehållsfält enligt mappningen i noden. - I Date Range Check behåller ni villkoret som jämför
={{ new Date($json.pubDate).getTime() }}med={{ new Date(Date.now() - 10* 24 * 60 * 60 * 1000).getTime() }}så att endast de senaste 10 dagarna bearbetas. - I Map Filtered Fields behåller ni fältmappningarna för pubDate, title, link och innehållsfälten enligt visningen.
- Bekräfta att Map Filtered Fields skickar utdata till både Store Initial Records och Rejoin Streams parallellt.
10* 24 * 60 * 60 * 1000 i Date Range Check.Steg 4: avduplicera och bygg upp fullständiga poster igen
Det här steget sammanfogar seed-länkar med tolkade poster, tar bort dubbletter och återställer fullständigt innehåll för summering.
- Säkerställ att både Fetch Seed Links och Store Initial Records matar in i Combine Inputs och därefter till Keep Date and Link.
- I Keep Date and Link behåller ni endast pubDate och link med värden satta till
={{ $json.pubDate }}respektive={{ $json.link }}. - Lämna Deduplicate Links som den är för att filtrera unika länkar med hjälp av dess JavaScript-logik.
- Bekräfta att både Deduplicate Links och Map Filtered Fields flödar in i Rejoin Streams och därefter in i Rebuild Full Items.
- Behåll Rebuild Full Items som den är så att den återskapar innehållsrika poster för nästa steg.
Steg 5: konfigurera AI-klassificering och summering
Innehållet rensas, klassificeras för relevans och summeras med LLM-kedjan som är kopplad till OpenAI-modeller.
- Behåll Strip HTML Content som den är för att skapa cleanedContent från RSS-HTML.
- I Topic Relevance Classifier sätter ni Input Text till
={{ $json.title }}{{ $json.cleanedContent }}och behåller kategoridefinitionerna. - OpenAI Chat Model A är ansluten som språkmodell för Topic Relevance Classifier — säkerställ att autentiseringsuppgifter är tillagda i OpenAI Chat Model A. Autentiseringsuppgift krävs: Anslut era openAiApi-autentiseringsuppgifter.
- I LLM Summary Chain sätter ni Text till
={{ $json.cleanedContent }}och behåller Prompt Type satt tilldefine. - OpenAI Chat Model B är ansluten som språkmodell för LLM Summary Chain — säkerställ att autentiseringsuppgifter är tillagda i OpenAI Chat Model B. Autentiseringsuppgift krävs: Anslut era openAiApi-autentiseringsuppgifter.
Steg 6: konfigurera utdata-destinationer
Relevanta summeringar formateras och skrivs sedan till Google Sheets och Notion samtidigt.
- I Prepare Relevant Output behåller ni mappningar som article_url →
={{ $('Topic Relevance Classifier').item.json.link }}, summary →={{ $json.text }}, fetched_at →={{$now}}och publish_date →={{ $('Topic Relevance Classifier').item.json.pubDate.toDateTime().format('yyyy-MM-dd') }}. - Bekräfta att Prepare Relevant Output skickar utdata till både Append Relevant to Sheets och Create Notion Entry parallellt.
- I Create Notion Entry behåller ni Resource satt till
databasePageoch mappar egenskaper: article_url →={{ $json.article_url }}, summary →={{ $json.summary }}, fetched_at →={{ $json.fetched_at }}. Autentiseringsuppgift krävs: Anslut era notionApi-autentiseringsuppgifter.
Steg 7: testa och aktivera ert arbetsflöde
Kör arbetsflödet manuellt för att verifiera varje gren och utdata innan ni aktiverar det för produktion.
- Klicka på Execute Workflow för att köra från Manual Run Trigger.
- Verifiera att Manual Run Trigger startar både Fetch Seed Links och Retrieve RSS Sources parallellt och att flödet fortsätter genom Parse RSS Feed, Date Range Check och Rebuild Full Items.
- Bekräfta att relevanta poster når Prepare Relevant Output och sedan visas både i utdataarket för Append Relevant to Sheets och i databasen för Create Notion Entry.
- När allt är validerat, växla arbetsflödet till Active för produktionsanvändning.
Vanliga fallgropar
- Google Sheets-autentisering kan gå ut eller kräva specifika behörigheter. Om något slutar fungera, kontrollera först n8n-skärmen Credentials och delningsinställningarna för Sheet.
- Om du använder Wait-noder eller extern rendering varierar processtiderna. Öka väntetiden om nedströms noder misslyckas på grund av tomma svar.
- Standardprompterna i AI-noder är generiska. Lägg in din tonalitet tidigt, annars kommer du att sitta och redigera output för alltid.
Vanliga frågor
Cirka 30 minuter om dina konton och ark är redo.
Nej. Du kopplar främst Google Sheets och OpenAI och klistrar sedan in din RSS-URL och dina sheet-ID:n.
Ja. n8n har ett gratis alternativ för egen hosting och en gratis testperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna in kostnader för OpenAI API, som vanligtvis landar på några cent per batch av sammanfattningar beroende på längd.
Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller egen hosting på en VPS. För egen hosting är Hostinger VPS prisvärd och klarar n8n bra. Egen hosting ger dig obegränsade körningar men kräver grundläggande serverhantering.
Ja, och det bör du. Uppdatera kategorierna och beslutsreglerna i noden ”Topic Relevance Classifier” så att de matchar din nisch, och justera sedan prompten i ”LLM Summary Chain” för att styra ton, längd och struktur. Vanliga justeringar är att lägga till ett avsnitt med ”viktigaste slutsatser”, tvinga fram en rubrik på en rad och tagga varje post med en fast taxonomi du använder i Google Sheets. Om du sparar till Notion kan du även mappa extra fält (som författare, källkonto eller kampanjtagg) till egenskaper i din databas.
Oftast beror det på att auktoriseringen gått ut eller att arket inte är delat med det anslutna Google-kontot. Återanslut Google Sheets i n8n-credentials och bekräfta sedan att documentId och sheet-namnen matchar exakt (inklusive ”Save Initial Links” och ”Save Processed Data”). Om det fortfarande inte fungerar, kontrollera Googles API-behörighetsprompter och säkerställ att ditt konto kan redigera filen, inte bara visa den.
Mer än tillräckligt för typisk daglig research, men den faktiska gränsen beror på din n8n-plan och din OpenAI-användning.
För just det här arbetsflödet har n8n några fördelar: mer komplex logik med obegränsad förgrening utan extra kostnad, möjlighet till egen hosting för obegränsade körningar och inbyggda noder i AI-kedjestil som är lättare att kontrollera än många ”en prompt”-steg. Zapier eller Make kan fortfarande funka om du bara behöver ”RSS till kalkylark” med en lätt formatterare. Så fort du vill ha avdubblettering, datumnormalisering, en relevansklassificerare och ett strukturerat sammanfattningsformat blir scenariot ofta klumpigt (och dyrt) i enklare verktyg. Om du vill ha hjälp att välja enklaste alternativet för din volym, prata med en automatiseringsexpert.
När det här väl rullar slutar din WeChat-research att kännas skör. Arbetsflödet tar hand om den repetitiva rensningen och sammanfattningen så att ditt Google-ark håller sig prydligt, sökbart och faktiskt användbart.
Kontakta oss
Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.