Behöver ert företag hjälp med att implementera AI? Kontakta oss och få prisoffert här →
AI Skolan
januari 22, 2026

YouTube + Apify: transkriptioner klara för briefar

Rickard Andersson Partner, Nodenordic.se

Du hittar en grym YouTube-video, trycker på play och inser sedan att du måste se om samma 40 minuter bara för att plocka ut tre citat och en definition. Anteckningar hamnar utspridda. Källor försvinner. Och när det är dags att skriva en brief är du tillbaka och skrollar i tidslinjen igen.

Det här är den typen av röra som contentstrateger känner av varje vecka, men marknadsansvariga och researchers som bygger kundbriefar drabbas också. Med automatisering av YouTube-transkript slutar du behandla videoresearch som ett manuellt slavgöra och börjar göra det till ett återanvändbart underlag du faktiskt kan nyttja igen.

Det här flödet ger dig en enkel ”research-server” i n8n: sök på YouTube, hämta korrekt formaterade transkript via Apify och kontrollera till och med din Apify-användning så att du inte blir överraskad senare.

Så fungerar den här automatiseringen

Hela n8n-flödet, från trigger till slutligt resultat:

n8n Workflow Template: YouTube + Apify: transkriptioner klara för briefar

Problemet: att göra YouTube till brief-klart researchunderlag tar tid

YouTube är fullpackat med aktuella insikter, men formatet är tufft när du ska göra riktig research. En enda ”måste-se”-video kan bli en timme av att pausa, spola tillbaka, kopiera tidsstämplar och försöka fånga talarens exakta formuleringar. Sedan gör du om samma sak för nästa video. Det värsta är den mentala belastningen: du lyssnar, tar anteckningar och avgör vad som är viktigt samtidigt. Det är lätt att missa en nyckelpoäng, få med fel citat eller glömma var något kom ifrån.

Det går snabbt att summera till mycket tid. Här är var det oftast fallerar i det dagliga arbetet.

  • De flesta team bränner cirka 1–2 timmar per ämne bara på att extrahera användbara anteckningar från långa videor.
  • Kopiera/klistra transkript blir rörigt, så du sitter och rensar text i stället för att skriva.
  • Länkar och källor separeras från anteckningarna, vilket gör att du senare lägger tid på att verifiera.
  • Kostnader kan smyga iväg med scraping-verktyg, och ingen märker det förrän fakturan kommer.

Lösningen: sökning + transkriptextrahering i ett och samma flöde

Det här n8n-flödet fungerar som en lättviktig YouTube-research-”MCP-server” som du kan koppla till en kompatibel klient (eller använda i en n8n AI Agent). Du skickar en begäran som säger vad du vill göra: söka videor, hämta transkript eller kontrollera användning. För sökning anropar det Apify och returnerar cirka 10 relevanta YouTube-resultat för en query, och normaliserar sedan outputen så att dina nedströmsverktyg får en strukturerad och konsekvent datamodell. För transkript tar det en eller flera YouTube-URL:er, ber Apify ladda ner undertexter och returnerar rensad text som du kan mata direkt till en AI-agent för sammanfattning eller briefarbete. Till sist kan det hämta dina Apify-användningsmätvärden och gränser, så att du kan hålla koll på kostnader innan det blir ett problem.

Flödet startar när MCP Server Trigger tar emot en åtgärdsbegäran. En Switch skickar begäran vidare till sökning, transkriptnedladdning eller användningsrapportering. Därefter körs relevant Apify HTTP-begäran, resultaten normaliseras och flödet returnerar strukturerad output som du kan återanvända direkt.

Det du får: automatisering vs. resultat

Exempel: så här ser det ut i praktiken

Säg att du bygger en kundbrief varje vecka och att du normalt går igenom 5 YouTube-videor. Manuellt kan sökning, öppna varje video, leta upp transkriptalternativ, kopiera text och rensa upp den lätt ta cirka 20 minuter per video, alltså ungefär 2 timmar. Med det här flödet kör du en sökning (returnerar cirka 10 resultat), väljer de bästa 5 länkarna och hämtar transkript i ett svep. ”Arbetet” blir 10 minuter för att välja källor, plus lite väntetid medan Apify levererar texten.

Det du behöver

  • n8n-instans (prova n8n Cloud gratis)
  • Alternativ för egen drift om du föredrar det (Hostinger fungerar bra)
  • Apify för YouTube-sökning och transkriptscraping
  • MCP-klient för att skicka åtgärder och ta emot resultat
  • Apify API-token (hämta den i Apify-kontoinställningar)

Svårighetsnivå: Mellan. Du klistrar in API-uppgifter, testar begäranden och justerar ett par fält, men du behöver inte skriva kod.

Vill du inte sätta upp detta själv? Prata med en automationsexpert (gratis 15-minuters konsultation).

Så fungerar det

En MCP-begäran startar allt. MCP Server Trigger tar emot en åtgärd som ”search”, ”get transcripts” eller ”usage report” från din MCP-klient (eller en n8n AI-agent som använder ett MCP-klientverktyg).

Routning sker utifrån avsikt. En Switch-nod (”Route by Action”) skickar begäran till rätt spår, så att du inte behöver underhålla tre separata automatiseringar för det som i grunden är ett och samma researchjobb.

Apify gör grovjobbet. Flödet använder HTTP Requests för att anropa Apify för YouTube-sökresultat eller undertextextrahering. Sedan normaliserar det svaret (via Edit Fields/Set och aggregering) så att outputen blir förutsägbar och enkel att lagra eller skicka vidare.

Korrekt formaterade resultat kommer tillbaka till ditt verktyg. Du får strukturerade sökresultat, transkripttext eller en användningssammanfattning. Den outputen kan du klistra in i en brief, spara i ett dokumentsystem eller mata in i en AI-agent som gör ”rått transkript” till ”viktigaste insikter”.

Du kan enkelt ändra vilka fält som returneras för att ta med extra metadata (kanalnamn, publiceringsdatum eller dina interna anteckningar som ”använd det här klippet till”) utifrån dina behov. Se hela implementationsguiden nedan för anpassningsalternativ.

Steg-för-steg-guide för implementering

Steg 1: Konfigurera triggern för körning av subflöde

Det här arbetsflödet startar som ett subflöde och dirigerar förfrågningar baserat på ett inkommande operationsvärde.

  1. Lägg till och öppna Subflow Execution Trigger.
  2. I Workflow Inputs definierar ni indata med namnen operation, query och urls så att de matchar den inkommande payloaden.
  3. Säkerställ att flödet är kopplat från Subflow Execution Trigger till Route by Action.

Steg 2: Konfigurera MCP-triggern för åtkomst till verktyg

MCP-triggern exponerar verktygsarbetsflödena som anropbara verktyg.

  1. Lägg till och öppna MCP Server Trigger.
  2. Ställ in Path till b975bb25-be7c-49fb-8cd2-8e135d91ed4e.
  3. Bekräfta att Tool: YouTube Search, Tool: Transcript Fetcher och Tool: Usage Reporter är anslutna till MCP Server Trigger som AI-verktyg.

Obs: Dessa verktygsarbetsflöden är AI-verktygsnoder. Eventuella inloggningsuppgifter som krävs av dessa verktyg ska konfigureras i deras överordnade verktygsarbetsflöden, inte på noderna Tool: YouTube Search, Tool: Transcript Fetcher eller Tool: Usage Reporter.

Steg 3: Routa operationer med switchen

Arbetsflödet förgrenar sig baserat på den begärda operationssträngen.

  1. Öppna Route by Action och behåll de tre utgångarna: Youtube Search, Youtube Transcripts och Usage Metrics.
  2. För Youtube Search, ställ in villkorets vänstervärde till {{ $json.operation }} och högervärde till youtube_search.
  3. För Youtube Transcripts, ställ in villkorets vänstervärde till {{ $json.operation }} och högervärde till youtube_transcripts.
  4. För Usage Metrics, ställ in villkorets vänstervärde till {{ $json.operation }} och högervärde till usage_metrics.

⚠️ Vanlig fallgrop: Om det inkommande värdet i operation inte exakt matchar dessa strängar kommer ingen gren att köras.

Steg 4: Konfigurera YouTube-sökförfrågningar och normalisering

Den här grenen utför en YouTube-sökning via Apify och normaliserar resultaten.

  1. Öppna Apify Search Request och ställ in URL till https://api.apify.com/v2/acts/streamers~youtube-scraper/run-sync-get-dataset-items.
  2. Ställ in Authentication till Generic Credential Type och Generic Auth Type till httpHeaderAuth.
  3. Ställ in JSON Body till {{ { "searchQueries": [$json.query], "maxResultStreams": 0, "maxResults": 5 } }}.
  4. Inloggningsuppgifter krävs: Anslut era httpHeaderAuth-inloggningsuppgifter i Apify Search Request.
  5. Öppna Normalize Search Output och mappa fält med uttryck: channelName = {{ $json.channelName }}, title = {{ $json.title }}, url = {{ $json.url }}, description = {{ $json.text.substr(0,2_000) }}, viewCount = {{ $json.viewCount }}, likes = {{ $json.likes }}.
  6. Öppna Combine Search Results och ställ in Aggregate till aggregateAllItemData med Destination Field Name satt till response.

Steg 5: Konfigurera hämtning av transkript och aggregering

Den här grenen hämtar undertexter för angivna URL:er och formaterar dem för utdata.

  1. Öppna Apify Transcript Request och ställ in URL till https://api.apify.com/v2/acts/streamers~youtube-scraper/run-sync-get-dataset-items.
  2. Ställ in JSON Body till {{ { "downloadSubtitles": true, "hasCC": false, "hasLocation": false, "hasSubtitles": false, "is360": false, "is3D": false, "is4K": false, "isBought": false, "isHD": false, "isHDR": false, "isLive": false, "isVR180": false, "maxResultStreams": 0, "maxResults": 1, "maxResultsShorts": 0, "preferAutoGeneratedSubtitles": false, "saveSubsToKVS": false, "startUrls": $json.urls.split(',').map(url => ({ "url": url, "method": "GET" })), "subtitlesFormat": "plaintext", "subtitlesLanguage": "en" } }}.
  3. Inloggningsuppgifter krävs: Anslut era httpHeaderAuth-inloggningsuppgifter i Apify Transcript Request.
  4. Öppna Normalize Transcript Output och mappa title = {{ $json.title }}, url = {{ $json.url }}, transcript = {{ $json.subtitles[0].plaintext }}.
  5. Öppna Combine Transcript Results och ställ in Aggregate till aggregateAllItemData med Destination Field Name satt till response.

Steg 6: Konfigurera hämtning av användningsstatistik

Den här grenen samlar in användning från Apify och formaterar en sammanfattning.

  1. Öppna Retrieve Usage Metrics och ställ in URL till https://api.apify.com/v2/users/me/usage/monthly.
  2. Inloggningsuppgifter krävs: Anslut era httpHeaderAuth-inloggningsuppgifter i Retrieve Usage Metrics.
  3. Öppna Fetch Usage Limits och ställ in URL till https://api.apify.com/v2/users/me/limits.
  4. Inloggningsuppgifter krävs: Anslut era httpHeaderAuth-inloggningsuppgifter i Fetch Usage Limits.
  5. Öppna Format Usage Summary och behåll fältuttrycken, inklusive monthlyUsageCycle_startAt = {{ $json.data.monthlyUsageCycle.startAt }} och monthlyUsageUsd = {{ $json.data.current.monthlyUsageUsd.toFixed(2) }} of {{ $json.data.limits.maxMonthlyUsageUsd.toFixed(2) }}.
  6. Verifiera att de refererade uttrycken från Retrieve Usage Metrics, som {{ $('Retrieve Usage Metrics').item.json.data.monthlyServiceUsage.ACTOR_COMPUTE_UNITS.amountAfterVolumeDiscountUsd }}, förblir oförändrade.

⚠️ Vanlig fallgrop: Noden för användningsformatering refererar till Retrieve Usage Metrics via namn—om ni byter namn på den noden kommer dessa uttryck att sluta fungera.

Steg 7: Testa och aktivera ert arbetsflöde

Validera varje gren med realistiska indata och aktivera sedan arbetsflödet.

  1. Använd Execute Workflow med indata för Subflow Execution Trigger, till exempel operation = youtube_search och query = n8n automation, och bekräfta sedan att resultaten visas i Combine Search Results.
  2. Testa transkriptgrenen med operation = youtube_transcripts och urls = https://www.youtube.com/watch?v=VIDEO_ID, och bekräfta sedan att Combine Transcript Results returnerar en response-array.
  3. Testa användningsgrenen med operation = usage_metrics och verifiera att Format Usage Summary returnerar en formaterad användningssammanfattning.
  4. Om ni använder MCP-verktygen, anropa endpointen för MCP Server Trigger med hjälp av dess path och bekräfta att varje verktyg returnerar förväntad payload.
  5. När alla tester är godkända, sätt arbetsflödet till Active för att möjliggöra användning i produktion.
🔒

Lås upp fullständig steg-för-steg-guide

Få den kompletta implementeringsguiden + nedladdningsbar mall

Vanliga fallgropar

  • Apify-uppgifter kan gå ut eller kräva specifika behörigheter. Om det slutar fungera, kontrollera din Apify-token i n8n Credentials och bekräfta att den fortfarande har åtkomst till den actor du anropar.
  • Om du använder Wait-noder eller extern rendering varierar processtiderna. Öka väntetiden om nedströmsnoder misslyckas på grund av tomma svar.
  • Standardprompter i AI-noder är generiska. Lägg in er tonalitet tidigt, annars kommer du att redigera output i all evighet.

Vanliga frågor

Hur lång tid tar det att sätta upp den här automatiseringen av YouTube-transkript?

Cirka 30 minuter om du redan har din Apify-token.

Behöver jag kunna koda för att automatisera YouTube-transkript?

Nej. Du kopplar Apify och testar sedan ett par begäranden. Det mesta handlar bara om att mappa fält så att transkriptet kommer tillbaka korrekt formaterat.

Är n8n gratis att använda för det här flödet för automatisering av YouTube-transkript?

Ja. n8n har ett gratis alternativ för egen drift och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna med Apify-kostnader (det finns en liten gratisnivå, därefter betalar du baserat på användning).

Var kan jag hosta n8n för att köra den här automatiseringen?

Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller egen drift på en VPS. För egen drift är Hostinger VPS prisvärd och klarar n8n bra. Egen drift ger dig obegränsade exekveringar men kräver grundläggande serverhantering.

Kan jag anpassa det här flödet för automatisering av YouTube-transkript så att transkript sparas i Google Drive?

Ja, och det är en vanlig uppgradering. Efter ”Normalize Transcript Output” eller ”Combine Transcript Results” lägger du till en Google Drive-nod för att skapa ett dokument (eller ladda upp en textfil) med transkripttexten och den ursprungliga YouTube-URL:en. Du kan också spara sökresultaten på samma sätt så att teamet ser vad som övervägdes, inte bara vad som valdes.

Varför misslyckas min Apify-anslutning i det här flödet?

Oftast är det ett API-tokenproblem. Skapa en ny Apify-token, uppdatera den i n8n Credentials och kör om HTTP Request-noderna. Om det fortfarande misslyckas, kontrollera att actor-endpoints du anropar är korrekta och titta efter användningsgränser om du har kört många sökningar eller transkripthämtningar tätt efter varandra.

Hur många transkript kan den här automatiseringen av YouTube-transkript hantera?

Tillräckligt för normal veckoresearch. I n8n Cloud är din gräns främst antal exekveringar per månad i din plan, och Apify-användningen beror på hur många videor du bearbetar. Om du kör egen drift begränsar inte n8n i sig exekveringar, men din server och Apifys gränser spelar fortfarande roll.

Är den här automatiseringen av YouTube-transkript bättre än att använda Zapier eller Make?

Ofta, ja, eftersom flödet drar nytta av routning (sökning vs transkript vs användning), normalisering och strukturerade outputs, vilket är enklare att hantera i n8n. Zapier kan kännas snabbare för enkla ”en trigger, en åtgärd”-zaps, men det blir snabbt klumpigt när du vill ha förgreningar och återanvändbara, ”verktygslika” beteenden. Make är mer flexibelt än Zapier, men du får ändå bygga mycket struktur för hand. Ärligt talat är kostnadskontroll en annan anledning: egen drift av n8n undviker att ”per åtgärd”-prissättningen skenar. Prata med en automationsexpert om du vill ha hjälp att välja den enklaste setupen för din volym.

När det här väl rullar slutar YouTube vara en tidstjuv och börjar fungera som ett sökbart researchunderlag. Sätt upp det, hämta transkript vid behov och gå tillbaka till att skriva briefen som faktiskt spelar roll.

Kontakta oss

Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.

×

Använd mall

Få direkt tillgång till denna n8n-arbetsflödes JSON-fil

Launch login modal Launch register modal