Behöver ert företag hjälp med att implementera AI? Kontakta oss och få prisoffert här →
AI Skolan
januari 22, 2026

YouTube + Telegram: konkurrentbriefar som når fram

Rickard Andersson Partner, Nodenordic.se

Dina konkurrenter släpper nytt budskap i det tysta. En YouTube-video här, ett ”litet” blogginlägg där. Och du märker det först när en potentiell kund upprepar deras talking points för dig i ett säljsamtal.

Det är här YouTube Telegram-briefingar hjälper som mest. Marknadsanalytiker känner av det först, men grundare och contentansvariga dras snabbt in i samma stress. Du behöver förändringen, sammanhanget och källänken – utan att lägga morgnarna på att skura igenom tidslinjer.

Det här n8n-workflowet bevakar konkurrenters YouTube-kanaler och RSS-flöden, hämtar transkript vid behov, kör en AI-analys och levererar sedan en strukturerad briefing i Telegram – samtidigt som hela rapporten arkiveras i Notion. Du får se vad det gör, vad det ersätter och hur du sätter upp det utan att fastna i detaljer.

Så fungerar den här automatiseringen

Hela n8n-workflowet, från trigger till slutresultat:

n8n Workflow Template: YouTube + Telegram: konkurrentbriefar som når fram

Problemet: Konkurrentuppdateringar är lätta att missa

Att hänga med i konkurrenternas budskap låter enkelt – tills du försöker göra det konsekvent. Du skummar RSS-rubriker, öppnar några inlägg och intalar dig att du ska ”titta på videon senare”. Senare händer sällan. Och även när du tittar är de viktiga påståendena begravda vid minut 17, och den ”riktiga” förändringen sitter i ton, positionering eller i vad de plötsligt slutar säga. Sedan fastnar du i att sammanfatta för teamet, svara på följdfrågor och leta upp länken igen när någon vill ha bevis. Det är dränerande. Ärligt talat är det också helt onödigt.

Friktionen bygger på. Här är var det faller isär i verkliga team.

  • Du slutar med att följa konkurrenter på flera ställen (YouTube, bloggar, nyhetsbrev), så något slinker alltid igenom.
  • Att se en 20-minutersvideo för att hitta två viktiga minuter bränner fokus som du behövde för faktiskt strategiarbete.
  • Manuella sammanfattningar driver iväg mellan personer, vilket gör att teamet diskuterar återgivningen i stället för konsekvensen.
  • Det finns inget hållbart arkiv, så ”Vad sa de förra månaden?” blir en tidsödande skattjakt.

Lösningen: Automatiserade briefingar från YouTube + RSS

Det här workflowet gör konkurrentbevakning till en återkommande, strukturerad leverans som teamet kan lita på. Enligt schema kontrollerar n8n specifika YouTube-kanaler och RSS-flöden som du anger. När den hittar något nytt samlar den innehållet i ett gemensamt ”intelligence bundle”. För YouTube går den ett steg djupare än metadata genom att använda Apify för att hämta hela transkriptet, så analysen bygger på vad som faktiskt sades. Sedan granskar en AI-modell (Google Gemini i den här mallen) den sammanslagna texten, identifierar teman, förändringar i positionering, ton och sannolikt syfte, och producerar en tydlig briefing. Till sist publicerar workflowet en ledningssammanfattning i Telegram med källänkar och lagrar hela rapporten i Notion för långsiktig research och jämförelser.

Det börjar med schemalagd bevakning av dina valda kanaler och flöden. Därefter slås transkript och artiklar ihop och rensas så att AI:n får ett sammanhängande underlag. Sedan skapar workflowet en strukturerad sammanfattning och skickar den till Telegram, samtidigt som en Notion-post skapas som du kan söka i senare.

Det du får: Automatisering vs. resultat

Exempel: Så här ser det ut

Säg att du följer 2 konkurrenters YouTube-kanaler och 2 RSS-flöden och att du kontrollerar varje källa tre gånger i veckan. Manuell hantering är kanske 10 minuter per källa bara för att skanna (cirka 2 timmar per vecka), plus ytterligare 30 minuter när en ny video släpps och du försöker hitta de ”viktiga” delarna (vilket enkelt drar upp det till cirka 3 timmar). Med det här workflowet lägger du ungefär 5 minuter i början på att ställa in källorna, och därefter består löpande arbete i att läsa Telegram-briefingarna. De flesta veckor är det bara några minuter totalt – och du får fortfarande ett komplett Notion-arkiv för senare.

Det här behöver du

  • n8n-instans (prova n8n Cloud gratis)
  • Self-hosting-alternativ om du föredrar det (Hostinger fungerar bra)
  • Apify för att skrapa YouTube-transkript.
  • Google Gemini för att analysera budskap och positionering.
  • Telegram för att leverera briefingar till ditt team.
  • Notion för att lagra fullständiga rapporter i en databas.
  • YouTube Data API-nyckel (hämta den från Google Cloud Console).

Kunskapsnivå: Medel. Du klistrar in API-nycklar, väljer kanal-ID:n och feed-URL:er och gör enklare justeringar av prompts.

Vill du inte sätta upp detta själv? Prata med en automationsexpert (gratis 15-minuters konsultation).

Så fungerar det

Schemalagd bevakning startar allt. Med en fast kadens kontrollerar n8n dina konkurrenters YouTube-kanaler och dina valda RSS-flöden efter nytt innehåll.

Innehåll samlas ihop och rensas. RSS-objekt slås ihop, YouTube-objekt slås ihop, och sedan kombineras båda strömmarna till ett underlag. Ett förberedelsesteg normaliserar datan så att sammanfattningarna blir konsekventa mellan källor.

Transkript-djupdykning och AI-analys sker i mitten. Nya videor triggar en Apify-actor som hämtar transkript, och därefter analyserar Google Gemini det sammanslagna innehållet för att plocka ut budskap, avsikt och strategiska skiften (inte bara en platt återgivning).

Resultat går till Telegram och Notion. Telegram får en kort, lättläst briefing med direkta länkar. Notion får hela rapporten som formaterade block, kopplade till en databaspost som du kan söka i och jämföra över tid.

Du kan enkelt ändra analys-prompten för att fokusera på prisändringar eller funktionslanseringar utifrån dina behov. Se hela implementationsguiden nedan för anpassningsalternativ.

Steg-för-steg-guide för implementering

Steg 1: Konfigurera schematriggaren

Det här arbetsflödet startar på ett dagligt schema och förgrenas sedan till flera källor parallellt.

  1. Lägg till noden Scheduled Run Launcher som din trigger.
  2. Ställ in Rule → Interval → Trigger At Hour8.
  3. Bekräfta den parallella körningen: Scheduled Run Launcher skickar utdata till Fetch YouTube Rival A, Fetch YouTube Rival B, Read RSS Rival A och Read RSS Rival B parallellt.

Om ni behöver en annan daglig tid, justera värdet Trigger At Hour i Scheduled Run Launcher.

Steg 2: Anslut YouTube- och RSS-indata

Hämta de senaste konkurrentvideorna och RSS-artiklarna och slå sedan ihop strömmarna.

  1. I Fetch YouTube Rival A, ställ in Resource till video och Limit till 3.
  2. Ställ in Filters → Channel ID till [YOUR_ID] och Filters → Published After till {{ new Date(Date.now() - 24*60*60*1000).toISOString() }}.
  3. Inloggningsuppgifter krävs: Anslut era youTubeOAuth2Api-inloggningsuppgifter i Fetch YouTube Rival A.
  4. Upprepa samma inställningar i Fetch YouTube Rival B och anslut youTubeOAuth2Api-inloggningsuppgifter där också.
  5. I Read RSS Rival A, ställ in URL till [YOUR_RSS_URL].
  6. I Read RSS Rival B, ställ in URL till [YOUR_RSS_URL].
  7. Bekräfta att Fetch YouTube Rival A och Fetch YouTube Rival B båda matar in i Combine YouTube Streams.
  8. Bekräfta att Read RSS Rival A och Read RSS Rival B båda matar in i Combine RSS Streams.

⚠️ Vanlig fallgrop: Ersätt alla platshållare [YOUR_ID] och [YOUR_RSS_URL] innan ni testar, annars kommer arbetsflödet att returnera tomma resultat.

Steg 3: Konfigurera Apify-berikning av transkript och sammanslagning

Använd Apify för att hämta transkript och normalisera YouTube-data tillsammans med RSS-innehåll.

  1. I Run Apify Actor, ställ in Actor ID till [YOUR_ID].
  2. Ställ in Custom Body till { "videoUrls": ["{{'https://www.youtube.com/watch?v=' + $json.id.videoId}}"] }.
  3. Inloggningsuppgifter krävs: Anslut era apifyOAuth2Api-inloggningsuppgifter i Run Apify Actor.
  4. I Retrieve Apify Dataset, ställ in Dataset ID till {{ $json.defaultDatasetId }}.
  5. Inloggningsuppgifter krävs: Anslut era apifyOAuth2Api-inloggningsuppgifter i Retrieve Apify Dataset.
  6. Låt Normalize Apify Results vara ansluten från Retrieve Apify Dataset för att standardisera transkript och metadata.
  7. Bekräfta att Normalize Apify Results och Combine RSS Streams båda matar in i Merge Content Sources.

Steg 4: Sätt upp bearbetning av insikter och AI-generering

Bygg ett kompakt context-paket, generera insikter via Gemini och tolka JSON-svaret.

  1. Låt Prepare Insight Payload vara ansluten från Merge Content Sources för att sätta ihop konkurrentkontexten.
  2. I Generate Gemini Insights, säkerställ att JSON Output är aktiverat och att Simplify är satt till false.
  3. Inloggningsuppgifter krävs: Anslut era googlePalmApi-inloggningsuppgifter i Generate Gemini Insights.
  4. Verifiera att prompten i Generate Gemini Insights refererar till {{ $json.competitorContext }} och datumet från {{$node["Prepare Insight Payload"].json.date}}.
  5. Låt Parse Gemini JSON vara ansluten för att hantera JSON-tolkning och Telegram-HTML-sanitization.
  6. Bekräfta parallell körning: Parse Gemini JSON skickar utdata till både Create Notion Record och Send Telegram Briefing parallellt.

Noden Prepare Insight Payload använder arbetsflödets statiska data för deduplicering. Om ni kopierar arbetsflödet, kör det en gång för att initiera statiska data.

Steg 5: Konfigurera utdata-destinationer (Notion och Telegram)

Skicka den dagliga briefen till Telegram och lagra en strukturerad rapport i Notion.

  1. I Send Telegram Briefing, ställ in Chat ID till [YOUR_ID] och Text till {{ $json.telegram_html }}.
  2. Inloggningsuppgifter krävs: Anslut era telegramApi-inloggningsuppgifter i Send Telegram Briefing.
  3. I Create Notion Record, ställ in Database ID till [YOUR_ID].
  4. Ställ in Properties → date till {{ $json.meta.date }} och Properties → Name till {{ $json.report_title }}.
  5. Inloggningsuppgifter krävs: Anslut era notionApi-inloggningsuppgifter i Create Notion Record.
  6. Låt Assemble Notion Blocks vara ansluten för att bygga sidinnehållet och anslut den sedan till Append Notion Children.
  7. I Append Notion Children, ställ in URL till {{`https://api.notion.com/v1/blocks/${$node["Create Notion Record"].json.id}/children`}}.
  8. Ställ in JSON Body till {{ JSON.stringify({ children: $node["Assemble Notion Blocks"].json.children }) }} och behåll metoden som PATCH.
  9. Inloggningsuppgifter krävs: Anslut era notionApi-inloggningsuppgifter i Append Notion Children.

⚠️ Vanlig fallgrop: Om Telegram-meddelanden misslyckas, kontrollera att HTML:en är giltig och att noden Parse Gemini JSON inte tar bort nödvändiga taggar.

Steg 6: Testa och aktivera ert arbetsflöde

Kör arbetsflödet en gång för att validera dataflödet och aktivera det sedan för daglig automatisering.

  1. Klicka på Execute Workflow för att köra ett manuellt test från Scheduled Run Launcher.
  2. Bekräfta att Send Telegram Briefing publicerar ett formaterat HTML-meddelande med källor.
  3. Verifiera att en ny sida skapas av Create Notion Record och berikas av Append Notion Children.
  4. När allt fungerar, slå på Active för att aktivera schemalagda körningar.
🔒

Lås upp fullständig steg-för-steg-guide

Få den kompletta implementeringsguiden + nedladdningsbar mall

Vanliga fallgropar

  • YouTube Data API-uppgifter kan gå ut eller sakna rätt kvot. Om något slutar fungera, kontrollera först din API-nyckel och kvotgränser i Google Cloud Console.
  • Om du använder Wait-noder eller extern rendering varierar processtiderna. Öka väntetiden om noder längre fram misslyckas på grund av tomma svar.
  • Apify-körningar kan misslyckas utan tydliga fel om actor- eller dataset-behörigheter inte är rätt. Öppna Apifys run-logg och bekräfta att datasetet faktiskt innehåller transkript innan du skyller på AI-steget.

Vanliga frågor

Hur lång tid tar det att sätta upp den här automatiseringen för YouTube Telegram-briefingar?

Cirka en timme om du redan har dina API-nycklar.

Behöver jag kunna koda för att automatisera konkurrentbriefingar från YouTube?

Nej. Du kopplar mest konton och klistrar in nycklar. Den enda ”tekniska” delen är att kopiera kanal-ID:n och ett Notion-databas-ID.

Är n8n gratis att använda för det här workflowet för YouTube Telegram-briefingar?

Ja. n8n har ett gratis self-hosted-alternativ och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna in Apify-användning och dina Gemini API-kostnader.

Var kan jag hosta n8n för att köra den här automatiseringen?

Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller self-hosting på en VPS. För self-hosting är Hostinger VPS prisvärd och klarar n8n bra. Self-hosting ger dig obegränsat antal körningar men kräver grundläggande serveradministration.

Kan jag anpassa det här workflowet för YouTube Telegram-briefingar för prisändringslarm?

Ja, och det handlar mest om att ändra en prompt. Uppdatera instruktionerna i noden ”Generate Gemini Insights” så att den prioriterar prissidor, paketeringsspråk och uppgraderingsvägar, och justera sedan mappningen i ”Parse Gemini JSON” så att Telegram visar en dedikerad sektion för ”Prissignaler”. Många team justerar också koden i ”Prepare Insight Payload” för att bara inkludera de allra senaste objekten vid varje körning, vilket håller analysen fokuserad.

Varför misslyckas min Telegram-anslutning i det här workflowet?

Oftast beror det på en återkallad bot-token eller att boten inte har lagts till i målchatten. Skapa en ny Telegram bot token i BotFather, uppdatera credential i n8n och bekräfta att chat-ID:t är korrekt. Kontrollera också att meddelandeformateringen du skickar är giltig HTML, eftersom Telegram är petigt.

Hur många objekt kan den här automatiseringen för YouTube Telegram-briefingar hantera?

I en typisk uppsättning för ett mindre team fungerar det bra med dussintals nya inlägg och en handfull videor per dag.

Är den här automatiseringen för YouTube Telegram-briefingar bättre än att använda Zapier eller Make?

Ofta, ja, eftersom det här inte är en enkel ”nytt objekt → skicka meddelande”-zap. Du slår ihop källor, anropar Apify, förbereder payloads, tolkar strukturerad AI-output och skriver formaterade Notion-block – den typen av flerstegslogik blir snabbt klumpig (och dyr) i enklare verktyg. n8n ger dig dessutom möjligheten att self-hosta, så du betalar inte per litet steg när volymen växer. Zapier eller Make kan fortfarande fungera om du bara vill vidarebefordra länkar med en enkel sammanfattning och utan arkiv. Om du är osäker, prata med en automationsexpert och beskriv din bevakningsvolym och teamets behov.

När det här väl rullar slutar konkurrentbevakning vara en bakgrundsoro. Du får briefingen, länken och arkivet – och går vidare.

Kontakta oss

Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.

×

Använd mall

Få direkt tillgång till denna n8n-arbetsflödes JSON-fil

Launch login modal Launch register modal