Behöver ert företag hjälp med att implementera AI? Kontakta oss och få prisoffert här →
AI Skolan
januari 22, 2026

YouTube till Google Sheets: rensade transkript

Rickard Andersson Partner, Nodenordic.se

Du hämtar en YouTube-transkription, klistrar in den i ett dokument och det ser bra ut … tills du upptäcker saknade rader, slumpmässiga tidsstämplar, trasig radbrytning eller dubblerad text. Sedan bränner du ytterligare 20 minuter på att fixa den. Igen.

Den här automatiseringen för YouTube-transkriptioner i Sheets drabbar content marketers hårdast, men SEO-ansvariga och byråteam som gör research känner av det också. Resultatet är enkelt: felfri transkriptionstext plus ord- och teckenräkning, redo att loggas i Google Sheets utan den vanliga formateringsröran.

Nedan ser du hur arbetsflödet körs, vad det åtgärdar och vad du behöver för att koppla in det i din egen content pipeline.

Så här fungerar automatiseringen

Se hur den här löser problemet:

n8n Workflow Template: YouTube till Google Sheets: rensade transkript

Utmaningen: felfria transkriptioner är aldrig ”felfria”

Transkriptarbete är lurigt. Första hämtningen känns snabb, sedan kommer verkligheten: transkriptionen är segmenterad på ett konstigt sätt, blanksteg och radbrytningar är kaotiska och ibland returnerar API:et en struktur du inte förväntade dig. Du slutar med att manuellt leta efter saknade delar, formatera om till läsbara stycken och räkna ord med ett andra verktyg eftersom du behöver ett sätt att uppskatta omfång för sammanfattningar, briefar eller SEO. Och om du gör det här mer än en gång i veckan blir det en återkommande skatt på din koncentration.

Här är var det brister i vardagen.

  • Du kopierar och klistrar in transkriptioner i Sheets och lägger sedan massor av tid på att ta bort extra radbrytningar och märklig spacing.
  • Transkriptkällan ändrar sitt svarsformat, så det som funkade förra veckan ger plötsligt tom text.
  • Du upptäcker inte saknade avsnitt förrän du redan har skrivit sammanfattningar eller briefar utifrån ofullständig text.
  • Utan wordCount och charCount blir det gissningar att uppskatta omfattning för AI-sammanfattningar och SEO-arbete.

Lösningen: en felfri transkription + mätvärden, skickas direkt till Sheets

Det här arbetsflödet tar ett YouTube-video-ID och en API-token, anropar ett transkript-endpoint (youtube-transcript.io) och gör den del som vanligtvis slösar din tid: det tolkar API-svaret, kontrollerar att en användbar transkription faktiskt finns och normaliserar texten till något du kan jobba med. Om transkriptionen finns rensar den blanksteg och formatering så att slutresultatet blir ett konsekvent textblock. Den returnerar också grundläggande mätvärden (ord- och teckenräkning), vilket är oväntat nyttigt när du ska köra sammanfattningar, nyckelordsutvinning eller researchanteckningar. Om transkriptionen saknas eller API:et returnerar fel eller kreditproblem stoppar den med ett tydligt felmeddelande i stället för att tyst skicka skräp vidare i kedjan.

Arbetsflödet startar när en annan automatisering anropar det (det är byggt som ett sub-workflow). Det skickar ditt video-ID till transkript-API:et, tolkar och rensar sedan det som kommer tillbaka. Till sist levererar det transkriptionstext plus wordCount och charCount, redo att läggas in i Google Sheets från ditt överordnade arbetsflöde.

Vad som förändras: före vs. efter

Effekt i praktiken

Säg att du hanterar 10 konkurrentvideor i veckan för research. Manuellt tar det oftast ungefär 20 minuter per video att hämta en transkription, rensa den och klistra in i Google Sheets, så du tappar cirka 3 timmar i veckan. Med det här arbetsflödet lägger du in video-ID:t i ditt överordnade arbetsflöde, väntar en minut på API-anropet och rensningen, och transkriptionen landar redo att loggas med ord- och teckenräkning. Du granskar den fortfarande, men grovjobbet är borta.

Krav

  • n8n-instans (prova n8n Cloud gratis)
  • Alternativ för egen hosting om du föredrar det (Hostinger funkar bra)
  • YouTube för att tillhandahålla ett publikt video-ID
  • Google Sheets för att lagra transkriptioner och mätvärden
  • API-token för youtube-transcript.io (hämta den i din youtube-transcript.io-dashboard)

Kunskapsnivå: Nybörjare. Du kommer främst att klistra in inloggningsuppgifter och mappa några fält i ditt överordnade arbetsflöde.

Behöver du hjälp att implementera detta? Prata med en automationsexpert (gratis 15-minuters konsultation).

Flödet i arbetsflödet

Ett överordnat arbetsflöde triggar det. Den här automatiseringen är designad som ett sub-workflow, så den startar när ett annat n8n-arbetsflöde anropar den och skickar två indata: ditt YouTube-video-ID och din API-token.

Transkript-API:et anropas. n8n skickar en POST-request till youtube-transcript.io och routar sedan resultatet baserat på statuskod så att fel inte behandlas som ”lyckat”.

Svaret tolkas och valideras. Arbetsflödet normaliserar olika svarsformat till en förväntad struktur och kontrollerar sedan att transkriptinnehåll faktiskt finns. Om det inte gör det avslutar den med ett tydligt fel om ”saknad transkription”.

Texten rensas och mätvärden läggs till. Den normaliserar blanksteg och skapar felfri transkriptionstext, plus wordCount och charCount för enkel loggning i Google Sheets (eller för nedströms AI-steg).

Du kan enkelt modifiera utdatafälten så att de matchar dina kolumner i Sheets, eller bygga ut det för att köra sammanfattningar direkt efter rensningen. Se hela implementationsguiden nedan för anpassningsalternativ.

Steg-för-steg-guide för implementering

Steg 1: konfigurera triggern för underflödet

Det här arbetsflödet är utformat för att anropas från ett annat arbetsflöde, så triggern måste ta emot de obligatoriska indata som krävs.

  1. Lägg till noden Sub-Workflow Trigger som startpunkt.
  2. I Workflow Inputs lägger ni till två värden med namnen youtubeVideoId och apiToken.
  3. Säkerställ att triggern är kopplad till Assign Input Fields.

Steg 2: anslut anropet till transcript-API:et

Det här steget förbereder indata och anropar YouTubes transcript-endpoint.

  1. I Assign Input Fields lägger ni till två tilldelningar: sätt youtubeVideoId till {{ $json.youtubeVideoId }} och apiToken till {{ $json.apiToken }}.
  2. I Request Transcript API sätter ni URL till https://www.youtube-transcript.io/api/transcripts och Method till POST.
  3. Sätt Specify Body till json och JSON Body till { "ids": [ "{{ $('Assign Input Fields').item.json.youtubeVideoId }}" ] }.
  4. Lägg till headers i Header Parameters: Content-Type = application/json och Authorization = Basic {{ $json.apiToken }}.
  5. Aktivera Full Response och sätt Response Format till text i nodens svarsalternativ.

Steg 3: routa svar och tolka resultat

Routa baserat på statuskoder och parsa samt normalisera sedan API-svaret.

  1. I Route Status Code sätter ni den första regeln till att matcha {{ $json.statusCode }} lika med 200 och namnger utgången OK.
  2. Lägg till en andra regel för kreditfel: matcha {{ $json.statusCode }} lika med 402 och byt namn på utgången till Not enough credits.
  3. Lägg till en tredje regel för en icke-tom status: matcha {{ $json.statusCode }} är inte tom och byt namn till Generic Error.
  4. Koppla utgången OK till Interpret API Result.
  5. Behåll standardkoden i Interpret API Result för att parsa $json.body och skapa text, language och status.

Steg 4: validera och normalisera transcript-innehåll

Det här steget verifierar att transcript finns och standardiserar textutmatningen.

  1. I Transcript Present Check sätter ni villkoret till {{ $json.text !== null && $json.text !== undefined && $json.text !== '' }}.
  2. Koppla grenen true till Normalize Transcript Text.
  3. Lämna rensningslogiken i Normalize Transcript Text som den är för att ta bort radbrytningar och extra mellanslag samt för att beräkna wordCount och charCount.
  4. Koppla grenen false till Fallback No Transcript för ett strukturerat felsvar.

Om ert anropande arbetsflöde förväntar sig ett specifikt språk, uppdatera värdet preferredLanguage uppströms så att Fallback No Transcript kan använda det som standard.

Steg 5: lägg till felhanteringsvägar

Arbetsflödet innehåller explicita stopnoder för saknade transcripts, otillräckliga krediter och generella fel.

  1. Från Route Status Code kopplar ni utgången Not enough credits till Stop: Credit Shortage.
  2. Från Route Status Code kopplar ni utgången Generic Error till Stop: General Failure.
  3. Koppla Fallback No Transcript till Stop: Missing Transcript för att ge ett tydligt fel vid tomma resultat.
  4. Verifiera att varje stopnod har korrekt Error Message (t.ex. Not enough credits to fetch these transcripts).

⚠️ Vanlig fallgrop: Om ni inaktiverar Full Response i Request Transcript API kommer Interpret API Result inte att få statusCode och kommer att routa fel på fel sätt.

Steg 6: testa och aktivera ert arbetsflöde

Kör en manuell exekvering för att bekräfta att transcript-tolkning och felroutning fungerar som förväntat.

  1. Kör arbetsflödet manuellt från Sub-Workflow Trigger med ett exempel på youtubeVideoId och en giltig apiToken.
  2. Verifiera att Normalize Transcript Text ger status = success, samt text, wordCount och charCount.
  3. Testa en video utan transcripts för att bekräfta att Fallback No Transcript leder till Stop: Missing Transcript.
  4. När resultaten är korrekta, slå om arbetsflödet till Active för produktionsanvändning.
🔒

Lås upp fullständig steg-för-steg-guide

Få den kompletta implementeringsguiden + nedladdningsbar mall

Se upp för

  • youtube-transcript.io-inloggningar kan löpa ut eller kräva specifika behörigheter. Om något slutar fungera, kontrollera först din tokenstatus i youtube-transcript.io-dashboarden.
  • Om du använder Wait-noder eller extern rendering i ditt överordnade arbetsflöde varierar processtiderna. Öka väntetiden om nedströms noder fallerar på tomma svar.
  • Standardprompter i AI-noder är generiska. Lägg in er tonalitet tidigt, annars kommer du redigera utdata i all evighet.

Vanliga frågor

Hur snabbt kan jag implementera den här automatiseringen för YouTube-transkriptioner i Sheets?

Oftast cirka 30 minuter om din API-token är klar.

Kan icke-tekniska team implementera den här automatiseringen för transkriptloggning?

Ja. Du kopplar konton, klistrar in API-token och mappar transkriptfälten till Google Sheets.

Är n8n gratis att använda för det här arbetsflödet för YouTube-transkriptioner i Sheets?

Ja. n8n har ett gratis alternativ för self-hosting och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna in youtube-transcript.io-API-kostnader baserat på din användning.

Var kan jag hosta n8n för att köra den här automatiseringen?

Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller self-hosting på en VPS. För self-hosting är Hostinger VPS prisvärd och klarar n8n bra. Self-hosting ger dig obegränsade körningar men kräver grundläggande serveradministration.

Hur anpassar jag den här YouTube transcript sheets-lösningen till mina specifika utmaningar?

Du kan anpassa fälten direkt efter ”Assign Input Fields” för att acceptera en full YouTube-URL, metadata från en spellista eller ett kund-/projekt-ID. Om du vill ha andra rensningsregler justerar du kodsteget ”Normalize Transcript Text” för att behålla talarbyten, ta bort utfyllnadsord eller behålla tidsstämplar. Många team bygger också ut det överordnade arbetsflödet för att trycka den rensade transkriptionen till Google Drive och sedan skicka en Slack-notis när raden skapas i Sheets.

Varför misslyckas min youtube-transcript.io-anslutning i det här arbetsflödet?

Oftast beror det på en ogiltig eller utgången API-token, så skapa en ny och uppdatera autentiseringsuppgiften i n8n. Det kan också vara att du har slut på krediter på ditt youtube-transcript.io-konto, vilket det här arbetsflödet stoppar och flaggar tydligt. Om du skickar ett felaktigt video-ID (extra parametrar, förkortade länkar eller ett spelliste-ID) kan API:et returnera ett ”success”-svar utan transkriptinnehåll, och arbetsflödet stoppar vid kontrollen av att transkript finns.

Vilken kapacitet har den här YouTube transcript sheets-lösningen?

Om du self-hostar n8n finns ingen körningsgräns (det beror främst på din server och transkript-API:ets begränsningar). På n8n Cloud beror den månatliga körningsgränsen på din plan, och det här arbetsflödet använder en körning per bearbetat video-ID.

Är den här automatiseringen för YouTube-transkriptioner i Sheets bättre än att använda Zapier eller Make?

Ofta ja, eftersom det här arbetsflödet behöver riktig förgrening och felhantering, inte bara ”försök och hoppas”. n8n gör det enkelt att routa baserat på statuskoder, stoppa vid saknade transkriptioner och normalisera svar som kommer tillbaka i olika format. Du får också möjligheten att self-hosta, vilket blir viktigt när du börjar bearbeta transkriptioner i bulk. Zapier eller Make kan fortfarande fungera om din version är väldigt enkel (en request, en rads skrivning), men du brukar behöva lägga till extra steg för att hantera edge cases. Om du vill ha en snabb rekommendation för just din setup, prata med en automationsexpert.

Felfria transkriptioner ska vara tråkiga. Sätt upp det här en gång, så håller din Sheets-logg sig pålitlig medan teamet fokuserar på jobbet som faktiskt kräver en hjärna.

Kontakta oss

Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.

×

Använd mall

Få direkt tillgång till denna n8n-arbetsflödes JSON-fil

Få prisoffert redan idag!
Få prisoffert redan idag!

Berätta vad ni behöver hjälp med så hör vi av oss inom en arbetsdag!

Få prisoffert redan idag!
Få prisoffert redan idag!

Berätta vad ni behöver hjälp med så hör vi av oss inom en arbetsdag!

Launch login modal Launch register modal