Behöver ert företag hjälp med att implementera AI? Kontakta oss och få prisoffert här →
AI Skolan
januari 22, 2026

WeChat RSS till Google Sheets – rensade sammanfattningar

Rickard Andersson Partner, Nodenordic.se

Att följa artiklar från WeChat-offentliga konton låter enkelt tills du jonglerar länkar, datum, dubbletter och stökig copy-pastad HTML. En ”snabbkoll” blir snabbt ett research-kaninhål. Och när du väl har summerat är tajmingen redan förbi.

Det här är typen av arbete som i det tysta dränerar marknadsförare som bygger veckovisa insikter, innehållsskapare som letar vinklar och researchansvariga som försöker hålla teamet synkat. Med WeChat RSS-automatisering slutar du barnvakta länkar och börjar samla felfria, relevanta sammanfattningar i ett kalkylark du faktiskt kan använda.

Nedan ser du hur arbetsflödet hämtar inlägg från dina WeChat RSS-källor, filtrerar senaste poster, rensar innehållet, kontrollerar relevans, skapar kinesiska sammanfattningar och sparar allt i Google Sheets (och Notion om du vill).

Så fungerar automatiseringen

Hela n8n-arbetsflödet, från trigger till slutresultat:

n8n Workflow Template: WeChat RSS till Google Sheets – rensade sammanfattningar

Problemet: WeChat-research blir snabbt kalkylarkskaos

Om du använder inlägg från WeChats offentliga konton för marknadsresearch vet du redan att det stökiga inte är att ”hitta” artiklar. Det är allt efteråt. Länkar hamnar i slumpmässiga dokument. Samma artikel sparas två gånger. Datum är inkonsekventa, så ”senaste 10 dagarna” blir en manuell gissning. Och själva innehållet är jobbigt eftersom WeChat-sidor ofta kommer med tung HTML, vilket gör sammanfattningar både svårare och långsammare att skriva. Efter några veckor slutar din uppföljningssheet att vara en källa till sanning och blir en kyrkogård av halvfärdiga anteckningar.

Det bygger upp snabbt. Här är var det brukar fallera.

  • Du slösar cirka 10 minuter per artikel bara på att rensa text och formatera innan du ens kan läsa den ordentligt.
  • ”Relevans” blir subjektivt, så olika personer taggar samma ämne på olika sätt och din research blir brusig.
  • Dubbletter smyger in när flera RSS-källor publicerar samma text, vilket gör att du granskar samma idé två gånger.
  • Utan ett konsekvent sammanfattningsformat blir det långrandiga meddelanden och följdfrågor när insikter ska delas i teamet.

Lösningen: WeChat RSS → Google Sheets + Notion, med AI-sammanfattningar

Det här arbetsflödet tar dina WeChat RSS-källor och gör dem till en felfri, sökbar research-pipeline. Du börjar med att lagra RSS-flödeslänkar (och eventuella startlänkar du redan har) i Google Sheets. När du kör arbetsflödet hämtar det nya RSS-poster, normaliserar publiceringsdatum och filtrerar till endast de senaste 10 dagarna så att du inte processar gamla nyheter igen. Därefter bygger det om hela artiklarna, tar bort HTML-brus och kör en relevansklassificerare så att bara inlägg som matchar dina ämnen går vidare. Till sist genererar en OpenAI-driven sammanfattningskedja en insiktsfull kinesisk sammanfattning och skriver strukturerat resultat till Google Sheets, med en valfri Notion-post för ett mer ”wiki-liknande” bibliotek.

Arbetsflödet startar med en manuell körning i n8n och hämtar RSS-källor från Google Sheets. Sedan rensar och avdubbletterar det länkar, kontrollerar aktualitet och använder AI för att klassificera och sammanfatta innehåll. I slutet får ditt team en konsekvent rad i Google Sheets (och en Notion-sida om aktiverat) som är redo att söka i, sortera och dela.

Det du får: automatisering vs. resultat

Exempel: så här ser det ut

Säg att du följer 3 WeChat RSS-källor och vanligtvis granskar cirka 10 nya inlägg per dag. Manuellt kan det lätt ta cirka 15 minuter per inlägg att rensa HTML, kontrollera datum, tagga relevans och skriva en kort kinesisk sammanfattning, så du lägger ungefär 2,5 timmar per dag. Med det här arbetsflödet kör du det en gång, väntar några minuter på bearbetningen och skummar sedan igenom de ”relevanta” raderna i Google Sheets. Din tid sjunker till cirka 20 minuters granskning, inte 2+ timmar av rutinjobb.

Det här behöver du

  • n8n-instans (testa n8n Cloud gratis)
  • Alternativ för egen hosting om du föredrar det (Hostinger funkar bra)
  • Google Sheets för att lagra RSS-källor och resultat.
  • OpenAI för att klassificera relevans och skriva kinesiska sammanfattningar.
  • WeChat RSS-flödes-URL (från din RSS-leverantör eller generator).

Svårighetsnivå: Nybörjare. Du kopplar konton, klistrar in ID:n/URL:er och justerar ett par prompts.

Vill du inte sätta upp det här själv? Prata med en automatiseringsexpert (gratis 15-minuters konsultation).

Så fungerar det

Du triggar en körning i n8n. Arbetsflödet är byggt för att köras när du klickar på ”Execute workflow”, vilket passar perfekt för kontrollerade batchar medan du blir varm i kläderna.

Det hämtar RSS-källor och startlänkar från Google Sheets. Ett ark innehåller initiala länkar, ett annat innehåller dina RSS-flödeskällor. Arbetsflödet slår ihop dessa indata så att allt går genom ett system i stället för utspridda flikar.

Det filtrerar, avdubbletterar och rensar innehållet. Publiceringsdatum normaliseras, sedan tas allt äldre än 10 dagar bort. Länkar avdubbletteras, fullständiga poster byggs om och artikeltexten rensas från HTML så att AI:n jobbar med riktig text.

AI kontrollerar relevans och genererar kinesiska sammanfattningar. En ämnesklassificerare avgör vad som är värt att behålla (utifrån dina kategorier), och därefter tar en LLM-kedja fram sammanfattning och strukturerade fält. Relevanta resultat läggs till i Google Sheets och kan även sparas i Notion.

Du kan enkelt justera relevanskategorierna och sammanfattningsstilen efter dina behov. Se hela implementationsguiden nedan för anpassningsalternativ.

Steg-för-steg-guide för implementation

Steg 1: konfigurera den manuella triggern

Det här arbetsflödet startar vid behov och grenar direkt ut i två vägar för datainsamling.

  1. Lägg till och behåll noden Manual Run Trigger som startpunkt.
  2. Bekräfta att Manual Run Trigger skickar utdata till både Fetch Seed Links och Retrieve RSS Sources parallellt.
  3. Lämna parametrarna för Manual Run Trigger på standardvärdena (inga fält krävs).

Steg 2: anslut Google Sheets

Två ark tillhandahåller källänkar och RSS-flöden, och två ark lagrar utdata. Alla Google Sheets-noder kräver OAuth2-autentiseringsuppgifter.

  1. Öppna Fetch Seed Links och välj dokumentet där Document är satt till [YOUR_ID] och Sheet är satt till Save Initial Links. Autentiseringsuppgift krävs: Anslut era googleSheetsOAuth2Api-autentiseringsuppgifter.
  2. Öppna Retrieve RSS Sources och sätt Document till [YOUR_ID] och Sheet till RSS Links. Autentiseringsuppgift krävs: Anslut era googleSheetsOAuth2Api-autentiseringsuppgifter.
  3. I Store Initial Records sätter ni Operation till appendOrUpdate och mappar kolumner: link{{ $json.link }}, title{{ $json.title }}, pubDate{{ $json.pubDate }}. Autentiseringsuppgift krävs: Anslut era googleSheetsOAuth2Api-autentiseringsuppgifter.
  4. I Append Relevant to Sheets sätter ni Operation till append och mappar kolumner som title{{ $('Topic Relevance Classifier').item.json.title }} och summary{{ $json.summary }}. Autentiseringsuppgift krävs: Anslut era googleSheetsOAuth2Api-autentiseringsuppgifter.

Steg 3: konfigurera RSS-tolkning och datumfiltrering

Den här vägen hämtar RSS-poster, normaliserar datum, filtrerar på aktualitet och delar upp i parallella strömmar.

  1. I Parse RSS Feed sätter ni URL till ={{ $json.rss_feed_url }} för att läsa varje flöde från arket.
  2. I Normalize Publish Date sätter ni pubDate till ={{ new Date($json.pubDate).toISOString() }} och behåller övriga innehållsfält enligt mappningen i noden.
  3. I Date Range Check behåller ni villkoret som jämför ={{ new Date($json.pubDate).getTime() }} med ={{ new Date(Date.now() - 10* 24 * 60 * 60 * 1000).getTime() }} så att endast de senaste 10 dagarna bearbetas.
  4. I Map Filtered Fields behåller ni fältmappningarna för pubDate, title, link och innehållsfälten enligt visningen.
  5. Bekräfta att Map Filtered Fields skickar utdata till både Store Initial Records och Rejoin Streams parallellt.
Tips: Om ni behöver ett annat tidsfönster för aktualitet, justera värdet 10* 24 * 60 * 60 * 1000 i Date Range Check.

Steg 4: avduplicera och bygg upp fullständiga poster igen

Det här steget sammanfogar seed-länkar med tolkade poster, tar bort dubbletter och återställer fullständigt innehåll för summering.

  1. Säkerställ att både Fetch Seed Links och Store Initial Records matar in i Combine Inputs och därefter till Keep Date and Link.
  2. I Keep Date and Link behåller ni endast pubDate och link med värden satta till ={{ $json.pubDate }} respektive ={{ $json.link }}.
  3. Lämna Deduplicate Links som den är för att filtrera unika länkar med hjälp av dess JavaScript-logik.
  4. Bekräfta att både Deduplicate Links och Map Filtered Fields flödar in i Rejoin Streams och därefter in i Rebuild Full Items.
  5. Behåll Rebuild Full Items som den är så att den återskapar innehållsrika poster för nästa steg.

Steg 5: konfigurera AI-klassificering och summering

Innehållet rensas, klassificeras för relevans och summeras med LLM-kedjan som är kopplad till OpenAI-modeller.

  1. Behåll Strip HTML Content som den är för att skapa cleanedContent från RSS-HTML.
  2. I Topic Relevance Classifier sätter ni Input Text till ={{ $json.title }}{{ $json.cleanedContent }} och behåller kategoridefinitionerna.
  3. OpenAI Chat Model A är ansluten som språkmodell för Topic Relevance Classifier — säkerställ att autentiseringsuppgifter är tillagda i OpenAI Chat Model A. Autentiseringsuppgift krävs: Anslut era openAiApi-autentiseringsuppgifter.
  4. I LLM Summary Chain sätter ni Text till ={{ $json.cleanedContent }} och behåller Prompt Type satt till define.
  5. OpenAI Chat Model B är ansluten som språkmodell för LLM Summary Chain — säkerställ att autentiseringsuppgifter är tillagda i OpenAI Chat Model B. Autentiseringsuppgift krävs: Anslut era openAiApi-autentiseringsuppgifter.
⚠️ Vanlig fallgrop: Topic Relevance Classifier och LLM Summary Chain lagrar inte autentiseringsuppgifter direkt. Lägg till autentiseringsuppgifter i deras anslutna modeller: OpenAI Chat Model A och OpenAI Chat Model B.

Steg 6: konfigurera utdata-destinationer

Relevanta summeringar formateras och skrivs sedan till Google Sheets och Notion samtidigt.

  1. I Prepare Relevant Output behåller ni mappningar som article_url={{ $('Topic Relevance Classifier').item.json.link }}, summary={{ $json.text }}, fetched_at={{$now}} och publish_date={{ $('Topic Relevance Classifier').item.json.pubDate.toDateTime().format('yyyy-MM-dd') }}.
  2. Bekräfta att Prepare Relevant Output skickar utdata till både Append Relevant to Sheets och Create Notion Entry parallellt.
  3. I Create Notion Entry behåller ni Resource satt till databasePage och mappar egenskaper: article_url={{ $json.article_url }}, summary={{ $json.summary }}, fetched_at={{ $json.fetched_at }}. Autentiseringsuppgift krävs: Anslut era notionApi-autentiseringsuppgifter.

Steg 7: testa och aktivera ert arbetsflöde

Kör arbetsflödet manuellt för att verifiera varje gren och utdata innan ni aktiverar det för produktion.

  1. Klicka på Execute Workflow för att köra från Manual Run Trigger.
  2. Verifiera att Manual Run Trigger startar både Fetch Seed Links och Retrieve RSS Sources parallellt och att flödet fortsätter genom Parse RSS Feed, Date Range Check och Rebuild Full Items.
  3. Bekräfta att relevanta poster når Prepare Relevant Output och sedan visas både i utdataarket för Append Relevant to Sheets och i databasen för Create Notion Entry.
  4. När allt är validerat, växla arbetsflödet till Active för produktionsanvändning.
🔒

Lås upp fullständig steg-för-steg-guide

Få den kompletta implementeringsguiden + nedladdningsbar mall

Vanliga fallgropar

  • Google Sheets-autentisering kan gå ut eller kräva specifika behörigheter. Om något slutar fungera, kontrollera först n8n-skärmen Credentials och delningsinställningarna för Sheet.
  • Om du använder Wait-noder eller extern rendering varierar processtiderna. Öka väntetiden om nedströms noder misslyckas på grund av tomma svar.
  • Standardprompterna i AI-noder är generiska. Lägg in din tonalitet tidigt, annars kommer du att sitta och redigera output för alltid.

Vanliga frågor

Hur lång tid tar det att sätta upp den här WeChat RSS-automatiseringen?

Cirka 30 minuter om dina konton och ark är redo.

Behöver jag kunna koda för att automatisera WeChat RSS?

Nej. Du kopplar främst Google Sheets och OpenAI och klistrar sedan in din RSS-URL och dina sheet-ID:n.

Är n8n gratis att använda för det här arbetsflödet för WeChat RSS-automatisering?

Ja. n8n har ett gratis alternativ för egen hosting och en gratis testperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna in kostnader för OpenAI API, som vanligtvis landar på några cent per batch av sammanfattningar beroende på längd.

Var kan jag hosta n8n för att köra den här automatiseringen?

Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller egen hosting på en VPS. För egen hosting är Hostinger VPS prisvärd och klarar n8n bra. Egen hosting ger dig obegränsade körningar men kräver grundläggande serverhantering.

Kan jag anpassa det här arbetsflödet för WeChat RSS-automatisering för olika ämnen och sammanfattningsstilar?

Ja, och det bör du. Uppdatera kategorierna och beslutsreglerna i noden ”Topic Relevance Classifier” så att de matchar din nisch, och justera sedan prompten i ”LLM Summary Chain” för att styra ton, längd och struktur. Vanliga justeringar är att lägga till ett avsnitt med ”viktigaste slutsatser”, tvinga fram en rubrik på en rad och tagga varje post med en fast taxonomi du använder i Google Sheets. Om du sparar till Notion kan du även mappa extra fält (som författare, källkonto eller kampanjtagg) till egenskaper i din databas.

Varför fungerar inte min Google Sheets-koppling i det här arbetsflödet?

Oftast beror det på att auktoriseringen gått ut eller att arket inte är delat med det anslutna Google-kontot. Återanslut Google Sheets i n8n-credentials och bekräfta sedan att documentId och sheet-namnen matchar exakt (inklusive ”Save Initial Links” och ”Save Processed Data”). Om det fortfarande inte fungerar, kontrollera Googles API-behörighetsprompter och säkerställ att ditt konto kan redigera filen, inte bara visa den.

Hur många artiklar klarar den här WeChat RSS-automatiseringen?

Mer än tillräckligt för typisk daglig research, men den faktiska gränsen beror på din n8n-plan och din OpenAI-användning.

Är den här WeChat RSS-automatiseringen bättre än att använda Zapier eller Make?

För just det här arbetsflödet har n8n några fördelar: mer komplex logik med obegränsad förgrening utan extra kostnad, möjlighet till egen hosting för obegränsade körningar och inbyggda noder i AI-kedjestil som är lättare att kontrollera än många ”en prompt”-steg. Zapier eller Make kan fortfarande funka om du bara behöver ”RSS till kalkylark” med en lätt formatterare. Så fort du vill ha avdubblettering, datumnormalisering, en relevansklassificerare och ett strukturerat sammanfattningsformat blir scenariot ofta klumpigt (och dyrt) i enklare verktyg. Om du vill ha hjälp att välja enklaste alternativet för din volym, prata med en automatiseringsexpert.

När det här väl rullar slutar din WeChat-research att kännas skör. Arbetsflödet tar hand om den repetitiva rensningen och sammanfattningen så att ditt Google-ark håller sig prydligt, sökbart och faktiskt användbart.

Kontakta oss

Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.

×

Använd mall

Få direkt tillgång till denna n8n-arbetsflödes JSON-fil

Launch login modal Launch register modal