Behöver ert företag hjälp med att implementera AI? Kontakta oss och få prisoffert här →
AI Skolan
januari 22, 2026

Twitter- och Youtube-trender till Google Sheets

Rickard Andersson Partner, Nodenordic.se

Trendanalys ser enkel ut tills du gör den varje dag. Du hoppar mellan Twitter, YouTube, anteckningar och kalkylblad, och ändå sitter du och tvekar på hashtags precis innan publicering.

Den här trend hashtag automation slår hårdast mot sociala medier-ansvariga, men content marketers och små team som driver grundarledda konton känner av den också. Målet är enkelt: vakna upp till en strukturerad lista med trender och färdiga taggidéer, utan den dagliga skattjakten.

Du kopplar Twitter- och YouTube-scraping av trender till Google Sheets och använder sedan en AI-modell för att ta fram hashtags som håller sig inom varumärket. Nedan ser du vad arbetsflödet gör, vad du behöver och hur du anpassar det.

Så fungerar den här automatiseringen

Här är hela arbetsflödet du kommer att sätta upp:

n8n Workflow Template: Twitter- och Youtube-trender till Google Sheets

Varför det här spelar roll: daglig trendanalys äter upp ditt publiceringsfönster

Trender rör sig snabbt, men din kalender gör det inte. Om du lägger första delen av morgonen på att jaga vad som exploderar på Twitter och sedan kör samma varv på YouTube har du redan bränt den bästa tiden att publicera. Och då har du fortfarande inte skrivit en caption, stämt av varumärkesspråk eller försökt undvika konstiga tags som inte matchar din nisch. Det är mentalt stökigt. En flik blir femton. Du copy-pastar trendnamn, städar upp dem, tar bort dubletter och undrar ändå om du missat något uppenbart.

Det blir snabbt mycket. Här är var det faller isär.

  • Manuella trendkollar blir en daglig ritual som stjäl ungefär en timme som du tänkte lägga på att skapa.
  • Att skriva hashtags blir repetitivt, så inlägg börjar låta likadant oavsett ämne.
  • Team tappar koll på vad som användes förra veckan, vilket gör dubletter och inlägg med “gammal nyhet” mer sannolika.
  • En person blir trendvakt, och publiceringen stannar när de är upptagna eller borta.

Vad du bygger: ett dagligt trend- och hashtag-ark som teamet faktiskt kan använda

Det här arbetsflödet körs på ett dagligt schema och gör det tråkiga jobbet innan du ens öppnar datorn. Det hämtar trendande ämnen från Twitter och YouTube genom att scrapa de källsidor du väljer (många börjar med Trends24 för Twitter och en YouTube-trendsida för sin region). Sedan parsar det HTML:en, trimmar bort brus, tar bort dubletter och behåller en hanterbar toppmängd så att du inte stirrar på en gigantisk lista. Därefter skickar det varje trend till en AI-chattmodell (Mistral Cloud, eller valfri OpenAI-kompatibel API) och ber om hashtag-idéer som passar ämnet. Till sist skriver det resultaten till Google Sheets med plattformskälla och tidsstämpel, så att du får en enkel daglig “meny” för vad du kan posta.

Arbetsflödet startar med en daglig trigger. Därifrån gör scraping och parsing webbsidor till en strukturerad lista med trender, och sedan genererar AI hashtags per trend. Google Sheets blir den gemensamma basen så att ni kan välja, posta och följa upp vad ni använt.

Vad du bygger

Förväntade resultat

Säg att du publicerar 2 inlägg per dag och brukar skanna både Twitter och YouTube först. Manuellt tar det kanske 20 minuter att hitta och städa trender per plattform (cirka 40 minuter), och sedan ytterligare 10 minuter att brainstorma hashtags, alltså ungefär 50 minuter per dag. Med det här arbetsflödet lägger du cirka 5 minuter på att snabbt kika i Google Sheet och välja en trend, medan scraping och AI kör i bakgrunden enligt schema. Det är ungefär 45 minuter tillbaka varje dag, och teamet får samma “single source of truth”.

Innan du börjar

  • n8n-instans (testa n8n Cloud gratis)
  • Alternativ för self-hosting om du föredrar det (Hostinger fungerar bra)
  • Google Sheets för att lagra trender och hashtag-resultat
  • Mistral Cloud (eller OpenAI-kompatibel LLM) för att generera hashtags per trend
  • LLM API-nyckel (hämtas i din LLM-leverantörs dashboard)

Kunskapsnivå: Medel. Du kopplar konton, klistrar in URL:er/selectors för scraping och gör lätt testning för att bekräfta att den parsade trendtexten ser rätt ut.

Vill du att någon bygger detta åt dig? Prata med en automatiseringsexpert (gratis 15-minuters konsultation).

Steg för steg

Dagligt schema drar igång det. Arbetsflödet körs automatiskt en gång per dag, så du behöver inte komma ihåg något. Välj en tid som passar din publiceringsrutin.

Trender från Twitter och YouTube samlas in. Två scraping-steg hämtar rå HTML från dina valda trendkällor. Sedan parsar arbetsflödet den HTML:en till trendpunkter i klartext som du faktiskt kan jobba med.

Listan städas och slås ihop. Ett kodsteg begränsar listan (upp till topp 100), sedan slår en merge ihop båda plattformarna till ett flöde så att allt följer samma regler härifrån.

AI genererar hashtags och Sheets lagrar resultatet. Arbetsflödet loopar igenom trender i batchar, skickar var och en till Mistral-chattmodellen (eller din OpenAI-kompatibla API), parsar den strukturerade outputen och lägger sedan till en rad i Google Sheets med trend, plattform, hashtags och tidsstämpel.

Du kan enkelt ändra trendkällorna så att de matchar ditt land eller en nischad sajt utifrån dina behov. Se hela implementationsguiden nedan för anpassningsalternativ.

Steg-för-steg-guide för implementering

Steg 1: Konfigurera schematriggern

Konfigurera arbetsflödet så att det körs dagligen och startar de parallella insamlingsströmmarna för trender.

  1. Lägg till eller öppna Daily Schedule Trigger.
  2. Bekräfta att schemaregeln är konfigurerad i Rule med standardintervallet (daglig körning).
  3. Verifiera körflödet: Daily Schedule Trigger skickar utdata parallellt till både Collect Twitter Trend HTML och Collect YouTube Trend HTML.

Parallell körning säkerställer att båda källorna skrapas samtidigt, så att trenddatan hålls synkroniserad.

Steg 2: Anslut datakällor för trender

Hämta HTML från Twitters och YouTubes trendsidor och tolka trendlistorna.

  1. Öppna Collect Twitter Trend HTML och ställ in URL till https://trends24.in/ och Operation till extractHtml.
  2. Öppna Collect YouTube Trend HTML och ställ in URL till https://youtube.trends24.in/ och Operation till extractHtml.
  3. I Parse Twitter Trend List ställer ni in Operation till extractHtmlContent, Data Property Name till data.html och extraherar värden med CSS Selector .trend-card__list li a som returnerar en array.
  4. I Parse YouTube Trend List ställer ni in Operation till extractHtmlContent, Data Property Name till data.html och extraherar värden med CSS Selector .keywords-list li som returnerar en array.
  5. Koppla Parse Twitter Trend List till Limit Top 100 Trends och sedan till Combine Streams.
  6. Koppla Parse YouTube Trend List direkt till Combine Streams.

⚠️ Vanlig fallgrop: Om CSS-selektorerna inte matchar målsidorna kommer arrayen trends att vara tom. Verifiera selektorerna mot den live HTML-koden.

Steg 3: Sätt upp databerikning och sammanslagning

Begränsa trendvolymen och slå ihop båda källorna till en ström för AI-bearbetning.

  1. I Limit Top 100 Trends behåller ni JavaScript Code som return items.map(item => { item.json.trends = item.json.trends.slice(0, 100); return item; }); för att sätta ett tak på listan.
  2. Använd Combine Streams för att slå ihop utdata från Limit Top 100 Trends och Parse YouTube Trend List.

Att hålla listan till de 100 främsta trenderna hjälper AI:n att hålla fokus och minskar token-användningen.

Steg 4: Sätt upp AI-generering av hashtag

Konfigurera AI-modellen och den strukturerade output-parsern för att generera en enda ny hashtag.

  1. Öppna Generate New Hashtag och ställ in Text till ={{ $('Combine Streams').item.json.trends }},{{ $('Combine Streams').item.json.trends }}.
  2. Behåll Prompt Type som define och säkerställ att Has Output Parser är aktiverat.
  3. I Mistral Chat Model ställer ni in Model till mistral-small-latest.
  4. Inloggningsuppgifter krävs: Anslut era mistralCloudApi-inloggningsuppgifter i Mistral Chat Model.
  5. Verifiera att Structured Result Parser har schemaexemplet { "hashtag": ["", "", ""] }.

Structured Result Parser är en undernod till Generate New Hashtag; lägg till eventuella AI-inloggningsuppgifter i Mistral Chat Model, inte i parsern.

Steg 5: Konfigurera utdata till Google Sheets

Batcha utdata och lägg till de genererade hashtagsen i ert kalkylark.

  1. Bekräfta flödet Generate New HashtagBatch Through ItemsAppend to Spreadsheet.
  2. I Append to Spreadsheet ställer ni in Operation till append.
  3. Ställ in Document till kalkylarkets ID och Sheet Name till Sheet1 (gid 0).
  4. Mappa kolumnen hastag till ={{ $json.output.hashtag }}.
  5. Inloggningsuppgifter krävs: Anslut era googleSheetsOAuth2Api-inloggningsuppgifter i Append to Spreadsheet.

⚠️ Vanlig fallgrop: Kolumnnamnet är hastag (med ett avslutande blanksteg). Se till att kolumnrubriken i ert Google Sheet matchar exakt.

Steg 6: Testa och aktivera ert arbetsflöde

Kör ett manuellt test för att validera skrapning, AI-generering och utdata till Google Sheets innan ni slår på det dagliga schemat.

  1. Klicka på Execute Workflow för att köra ett manuellt test från Daily Schedule Trigger.
  2. Kontrollera att Combine Streams ger utdata som en sammanslagen trends-array.
  3. Bekräfta att Generate New Hashtag returnerar ett strukturerat svar och att Append to Spreadsheet skriver till kolumnen hastag .
  4. När ni är nöjda växlar ni arbetsflödet till Active så att det körs dagligen.
🔒

Lås upp fullständig steg-för-steg-guide

Få den kompletta implementeringsguiden + nedladdningsbar mall

Tips för felsökning

  • Google Sheets-autentisering kan gå ut eller kräva specifika behörigheter. Om det skapar fel, kontrollera först Google-kopplingen i n8n:s Credentials-panel och bekräfta sedan att målarket fortfarande är delat med samma Google-konto.
  • Om du använder Wait-liknande timing någon annanstans eller om scrape-källan är långsam varierar processtiderna. Öka batchstorlek och retry-inställningar om nedströmsnoder fallerar på tomma svar från scrape-steget.
  • Standardprompter i AI-noder är generiska. Lägg in din varumärkesröst tidigt (ton, förbjudna tags, önskat format) annars kommer du att redigera output för alltid.

Snabba svar

Hur lång tid tar det att sätta upp den här trend hashtag automation?

Cirka 15 minuter om dina scraping-URL:er och konton är redo.

Krävs det kodning för den här trend hashtag automation?

Nej. Du kopplar främst autentisering och justerar scraping-selectors om dina källsidor skiljer sig.

Är n8n gratis att använda för det här arbetsflödet för trend hashtag automation?

Ja. n8n har ett gratis self-hosted-alternativ och en gratis testperiod på n8n Cloud. Cloud-planer startar på 20 USD/månad för högre volym. Du behöver också räkna in kostnader för LLM-API, vilket vanligtvis landar på några cent per dag för en måttlig trendlista.

Var kan jag hosta n8n för att köra den här automatiseringen?

Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller self-hosting på en VPS. För self-hosting är Hostinger VPS prisvärd och klarar n8n bra. Self-hosting ger dig obegränsade körningar men kräver grundläggande serverhantering.

Kan jag anpassa det här arbetsflödet för trend hashtag automation för andra användningsfall?

Ja, och det bör du. Byt scraping-URL:er i Twitter/YouTube-noderna “Collect Trend HTML” för att rikta in dig på en annan region och justera sedan HTML-parsing-noderna om sidstrukturen ändras. Du kan också ändra steget “Limit Top 100 Trends” för att bara behålla 20–30 poster, vilket håller Sheets prydligt och minskar AI-anrop. Till sist uppdaterar du prompten i “Generate New Hashtag” för att tvinga fram ditt format (till exempel: max 8 tags, inga förbjudna ord, inkludera en varumärkes-tag).

Varför fungerar inte min Google Sheets-anslutning i det här arbetsflödet?

Oftast beror det på utgången OAuth-åtkomst eller att arket flyttats/byter namn. Anslut Google Sheets-autentiseringen på nytt i n8n och dubbelkolla sedan Spreadsheet ID samt fliknamnet som används av noden “Append to Spreadsheet”.

Vilken volym kan det här arbetsflödet för trend hashtag automation hantera?

De flesta team kör det dagligen för totalt 50–100 trender, och det förblir stabilt så länge du inte pressar LLM- och Google-gränser hårt. Om du self-hostar begränsas du främst av din server och hur aggressiv din batchstorlek är. På n8n Cloud handlar gränsen mer om månatliga körningar i din plan, så att trimma listan och batcha smart spelar roll.

Är den här trend hashtag automation bättre än att använda Zapier eller Make?

Ofta, ja, eftersom scraping + parsing + batching + strukturerad AI-output är där enkla “trigger-action”-verktyg börjar bli klumpiga. n8n hanterar grenar och loopar utan att du betalar per mikrosteg, och du kan self-hosta (vilket är viktigt om du kör det varje dag). Zapier eller Make kan fortfarande vara bra om du hoppar över scraping och bara hämtar trender från ett strukturerat API. Om du är osäker kan du prata med en automatiseringsexpert så kvalitetssäkrar vi bästa upplägg för din volym och ditt team.

När det här väl rullar blir trendanalys en snabb blick i ett ark, inte ett dagsprojekt. Arbetsflödet tar hand om det repetitiva, så att du kan lägga tiden på att skapa inlägg som är värda att klicka på.

Kontakta oss

Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.

×

Använd mall

Få direkt tillgång till denna n8n-arbetsflödes JSON-fil

Få prisoffert redan idag!
Få prisoffert redan idag!

Berätta vad ni behöver hjälp med så hör vi av oss inom en arbetsdag!

Få prisoffert redan idag!
Få prisoffert redan idag!

Berätta vad ni behöver hjälp med så hör vi av oss inom en arbetsdag!

Launch login modal Launch register modal