Behöver ert företag hjälp med att implementera AI? Kontakta oss och få prisoffert här →
AI Skolan
januari 22, 2026

Youtube + Telegram: sökbara transkript vid begäran

Rickard Andersson Partner, Nodenordic.se

Du hittar en riktigt bra YouTube-video. Sedan börjar det riktiga jobbet: skrolla i tidslinjen, pausa, titta om, kopiera citat till ett dokument och hoppas att du inte missade den bästa delen.

Den här YouTube-transkriptionautomatiseringen drabbar content marketers först, ärligt talat. Men byråstrateger som bygger kundbriefs och grundare som gör konkurrentanalys känner av den också. Resultatet är enkelt: du får en korrekt formaterad transkription plus viktig metadata, och du kan fråga Telegram efter exakt citat eller takeaway du behöver.

Nedan ser du hur workflowet hämtar videodata, sätter ihop transkriptionen och gör Telegram till en “sökruta” för videons idéer.

Så fungerar den här automatiseringen

Se hur detta löser problemet:

n8n Workflow Template: Youtube + Telegram: sökbara transkript vid begäran

Utmaningen: att hitta svar i långa videor

När en video är 20 minuter (eller 2 timmar) slutar “bara titta” vara en plan. Du slutar med stökiga anteckningar på tre ställen, tappar tidsstämplar och gör om samma sökning varje gång någon frågar: “Var sa de det?” Det är också bedrägligt dyrt. Om du gör om videor till briefs, inlägg eller forskningssammanfattningar syns tidskostnaden på värsta sätt: kontextbyten, halvfärdiga dokument och mycket tvekan. Och om du gör det här för ett team fastnar inte kunskapen. Den försvinner.

Det summeras snabbt. Här är var det fallerar i det dagliga arbetet.

  • Du pausar och spolar tillbaka hela tiden, vilket gör att en “snabb genomgång” blir en timme.
  • Citat kopieras utan tillräcklig kontext, så du tittar senare om för att bekräfta vad de menade.
  • Videometadata (titel, uppladdningsdatum, beskrivning) saknas i dina anteckningar, så källspårningen blir osäker.
  • När du behöver ett specifikt svar måste du ändå sålla igenom allt igen.

Lösningen: gör valfri YouTube-video till ett Telegram-“fråga vad som helst”

Det här workflowet tar ett YouTube-video-ID, hämtar videons metadata, extraherar transkriptionen och paketerar allt i ett korrekt formaterat JSON-svar som en AI-agent faktiskt kan använda. Därefter interagerar du via Telegram som om du chattade med en researcher som redan sett hela videon. Be om citat, sammanfattningar, nyckelinsikter eller förtydliganden kring ett specifikt avsnitt. Agenten hämtar sina svar från transkriptionen och videodetaljerna, så svaren förblir förankrade i det som faktiskt sades. Du letar inte längre inne i en video. Du frågar den. Det är skiftet som gör detta praktiskt för content-briefs och researcharbete.

Workflowet startar med att ett video-ID kommer in (ofta från ett överordnat workflow). Sedan hämtar det metadata via YouTube Data API, plockar ut och sätter ihop transkriptionen till läsbar text och skickar båda till en Telegram-baserad AI-agent. Till sist får du svaret tillbaka som ett chattmeddelande som du kan klistra in direkt i ett dokument.

Vad som förändras: före vs. efter

Effekt i verkligheten

Säg att du granskar 5 konkurrent- eller branschvideor i veckan och att varje video är runt 30–60 minuter. Manuellt kanske du lägger cirka 45 minuter på att titta, och sedan ytterligare 20 minuter på att plocka citat och skriva takeaways, alltså ungefär 5–6 timmar per vecka. Med det här workflowet handlar det mer om cirka 2 minuter för att klistra in ett video-ID och fråga det du behöver, plus några minuter för AI:ns svarstid. Även om du fortfarande skummar videon senare har du redan höjdpunkterna och de exakta raderna att hoppa till.

Krav

  • n8n-instans (prova n8n Cloud gratis)
  • Self-hosting-alternativ om du föredrar det (Hostinger fungerar bra)
  • Telegram för chattbaserade frågor och svar.
  • YouTube Data API för att hämta titel, beskrivning och datum.
  • OpenAI (eller kompatibel chattmodell) för att generera förankrade svar.
  • YouTube API-nyckel (hämta den via Google Cloud Console-uppgifter)

Kompetensnivå: Medel. Du kopplar konton, lägger in API-nycklar och är bekväm med att testa workflowet med några riktiga video-ID:n.

Behöver du hjälp att implementera detta? Prata med en automationsexpert (gratis 15-minuters konsultation).

Workflow-flödet

Ett YouTube-video-ID kommer in. Den här mallen är byggd för att triggas av ett överordnat workflow, men indata är enkel: ett video-ID som identifierar vad du vill analysera.

Workflowet hämtar källdata. En gren bygger YouTube API-anropet och hämtar metadata (titel, beskrivning, uppladdningsdetaljer). En annan gren extraherar transkriptionen, delar upp den i bitar och slår ihop den till ett enda läsbart textblock.

En AI-agent blir ditt gränssnitt. En Telegram-chatttrigger fångar din fråga, konversationsminnet behåller kontext för följdfrågor, och agenten använder en chattmodell för att svara baserat på den sammanslagna metadatan och transkriptionen.

Du får ett korrekt formaterat svar som går att återanvända. Workflowet aggregerar allt till en enda JSON-payload (smidigt för att spara senare i Google Sheets, Excel eller Drive) och skickar tillbaka agentens svar till Telegram.

Du kan enkelt ändra var transkriptionen sparas (Sheets, Excel, Drive eller Gmail) utifrån dina behov. Se hela implementeringsguiden nedan för anpassningsalternativ.

Steg-för-steg-guide för implementering

Steg 1: Konfigurera Execute Workflow-triggern

Konfigurera triggern i överordnat arbetsflöde och förbered den inkommande datastrukturen som används genom hela automatiseringen.

  1. Öppna Triggered by Parent Flow och ställ in Input Source till jsonExample.
  2. Klistra in exempel-JSON i JSON Example: { "query": { "videoId": "YouTube video id" } }.
  3. Öppna Set Workflow Inputs och ställ in GOOGLE_API_KEY till er faktiska API-nyckel (ersätt [CONFIGURE_YOUR_API_KEY]).
  4. I Set Workflow Inputs, ställ in VIDEO_ID till {{ $json.query.videoId }}.
  5. Bekräfta kopplingen från Triggered by Parent FlowSet Workflow Inputs.

⚠️ Vanlig fallgrop: Om ni lämnar [CONFIGURE_YOUR_API_KEY] oförändrat kommer Build YouTube API Link att kasta “The Google API Key is missing.”

Steg 2: Anslut YouTube Data API och hämtning av transkript

Bygg YouTube API-URL:en och hämta transkriptet. Dessa grenar körs samtidigt.

  1. Verifiera att Build YouTube API Link använder den angivna JavaScript-koden för att konstruera API-URL:en.
  2. Säkerställ att Retrieve Video Metadata sätter URL till {{ $json.youtubeUrl }}.
  3. Granska Fetch Video Transcript för att bekräfta att den förväntar sig VIDEO_ID från input och använder logiken för att hämta YouTube-transkript.
  4. Bekräfta parallell routning: Set Workflow Inputs skickar output till både Build YouTube API Link och Fetch Video Transcript parallellt.

Tips: Parallell exekvering snabbar upp bearbetningen genom att hämta metadata och transkript samtidigt.

Steg 3: Konfigurera transkriptbearbetning

Dela upp transkriptet i delar och slå ihop det till ett enda textblock för analys.

  1. I Separate Transcript Pieces, ställ in Field to Split Out till transcript.
  2. I Concatenate Transcript Text, säkerställ att Fields to Summarize inkluderar field text, separateBy och aggregation concatenate.
  3. Verifiera flödet Fetch Video TranscriptSeparate Transcript PiecesConcatenate Transcript Text.

Steg 4: Konfigurera merge och aggregera output

Kombinera metadata med transkripttext och bygg en enda JSON-payload.

  1. I Combine Details and Transcript, ställ in Mode till combine och Combine By till combineByPosition.
  2. Säkerställ att både Retrieve Video Metadata och Concatenate Transcript Text är kopplade till Combine Details and Transcript.
  3. I Aggregate into Single JSON, ställ in Aggregate till aggregateAllItemData.
  4. I Return Video Data Response, ställ in värdet för response till {{ $json.data }}.

Steg 5: Konfigurera AI-assistenten och verktygen

Konfigurera agenten, minnet och verktygsarbetsflödet som används för att analysera YouTube-videoinnehåll.

  1. Öppna Incoming Chat Event för att aktivera chatutlöst analys.
  2. I YouTube Insight Agent, ställ in Text till {{ $json.chatInput }} och behåll innehållet i den angivna System Message.
  3. Anslut Conversation Memory Window till YouTube Insight Agent som minne (inloggningsuppgifter läggs till på den överordnade AI-noden, inte här).
  4. Anslut YouTube Analysis Tool till YouTube Insight Agent som ett verktyg och behåll Name inställt till youtube_video_analyzer med Workflow ID {{ $workflow.id }}.
  5. Öppna Compact GPT Model och bekräfta att Model är gpt-4o-mini med Temperature 0.1.
  6. Öppna Utility: DeepSeek Chat Model och ställ in Model till deepseek-chat om den används för alternativa svar.

Inloggningsuppgifter krävs: Anslut era openAiApi-inloggningsuppgifter i Compact GPT Model och Utility: DeepSeek Chat Model. Conversation Memory Window och YouTube Analysis Tool är subnoder—inloggningsuppgifter ska läggas till i YouTube Insight Agent via dess anslutna språkmodell.

Steg 6: Testa och aktivera ert arbetsflöde

Kör ett manuellt test för att validera hämtning av transkript, inhämtning av metadata och AI-analys.

  1. Använd Triggered by Parent Flow för att skicka in ett exempel på videoId och kör arbetsflödet.
  2. Bekräfta att lyckad exekvering visar en kombinerad payload i Return Video Data Response med transkript och metadata.
  3. Trigga Incoming Chat Event med en prompt som innehåller en YouTube-URL eller ett ID för att verifiera att YouTube Insight Agent skapar en strukturerad sammanfattning.
  4. När allt är verifierat, växla arbetsflödet till Active för produktionsanvändning.
🔒

Lås upp fullständig steg-för-steg-guide

Få den kompletta implementeringsguiden + nedladdningsbar mall

Se upp med

  • Inloggningsuppgifter för YouTube Data API kan löpa ut eller sakna rätt aktiverat API. Om metadata slutar laddas, kontrollera först ditt Google Cloud Console-projekt och API-restriktioner.
  • Om du använder Wait-noder eller extern rendering varierar processtiderna. Öka väntetiden om nedströmsnoder fallerar på tomma svar.
  • Standardprompter i AI-noder är generiska. Lägg in din varumärkesröst tidigt, annars kommer du att redigera output för alltid.

Vanliga frågor

Hur snabbt kan jag implementera den här YouTube-transkriptionautomatiseringen?

Cirka 30 minuter om du redan har dina API-nycklar och Telegram redo.

Kan icke-tekniska team implementera den här transkriptionsautomatiseringen?

Ja. Du skriver ingen kod, men du kopplar konton och klistrar in API-nycklar.

Är n8n gratis att använda för det här workflowet för YouTube-transkriptionautomatisering?

Ja. n8n har ett gratis self-hosted-alternativ och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna med OpenAI API-kostnader, som oftast är några cent per körning beroende på transkriptlängd och hur många frågor du ställer.

Var kan jag hosta n8n för att köra den här automatiseringen?

Två alternativ: n8n Cloud (hanterat, enklaste uppsättningen) eller self-hosting på en VPS. För self-hosting är Hostinger VPS prisvärd och hanterar n8n bra. Self-hosting ger dig obegränsade körningar men kräver grundläggande serverhantering.

Hur anpassar jag den här YouTube-transkriptionautomatiseringslösningen till mina specifika utmaningar?

Börja med att justera vad som returneras i steget “Return Video Data Response” så att agenten alltid ser fälten du bryr dig om (till exempel kanalnamn, uppladdningsdatum eller en rensad beskrivning). Om du vill ha ett sökbart arkiv lägger du till ett sparsteg direkt efter “Aggregate into Single JSON” för att skriva transkript och metadata till Google Sheets eller Microsoft Excel 365. För olika svarsstilar redigerar du agentinstruktionerna i “YouTube Insight Agent” så att den producerar punktlistor som är redo för en brief, ordagranna citat eller ett sammanfattningsformat som teamet redan använder. Du kan också byta ut “Compact GPT Model” mot en annan modell om kostnad eller ton är en faktor.

Varför misslyckas min YouTube-anslutning i det här workflowet?

Oftast är det ett problem med API-nyckeln. Säkerställ att YouTube Data API är aktiverat i samma Google Cloud-projekt som din nyckel, och bekräfta sedan att nyckelrestriktionerna tillåter anropen. Om transkriptextraktionen fallerar men metadata fungerar kan videon sakna tillgängliga transkript (eller vara regions-/behörighetsbegränsad), så testa med en känd video som har undertexter. Rate limits kan också dyka upp om du kör många videor direkt efter varandra.

Vilken kapacitet har den här YouTube-transkriptionautomatiseringslösningen?

På en typisk n8n Cloud-plan kan du köra tusentals körningar per månad, och varje videoanalys är oftast en körning plus dina chattinteraktioner. Om du self-hostar finns ingen körningsgräns; den praktiska begränsningen är din server och hur snabbt din AI-leverantör hanterar anrop. Transkriptlängden är den verkliga flaskhalsen, så väldigt långa videor kan ta längre tid att bearbeta och kosta lite mer per fråga.

Är den här YouTube-transkriptionautomatiseringen bättre än att använda Zapier eller Make?

Ofta, ja. Det här workflowet drar nytta av n8n:s förmåga att slå ihop flera datagrenar (metadata + transkript) och köra agentlogik utan att varje förgrening blir en prishöjning. Zapier eller Make kan vara enklare för små automatiseringar, men när du vill ha konversationsbaserade frågor och svar, minne och ett “tool”-workflow-mönster är n8n mer flexibelt. Self-hosting är också viktigt om du vill ha förutsägbara kostnader. Om du är osäker, prata med en automationsexpert så mappar vi det mot din exakta volym och ditt use case.

Sätt upp detta en gång, så slutar du behandla videor som en black box. Din research blir snabbare, mer strukturerad och mycket enklare att återanvända.

Kontakta oss

Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.

×

Använd mall

Få direkt tillgång till denna n8n-arbetsflödes JSON-fil

Launch login modal Launch register modal