Behöver ert företag hjälp med att implementera AI? Kontakta oss och få prisoffert här →
AI Skolan
januari 22, 2026

YouTube till Google Sheets: sökbara sammanfattningar

Rickard Andersson Partner, Nodenordic.se

Din “research” är förmodligen en hög med halvsedda YouTube-videor, röriga transkript och anteckningar du inte hittar när du behöver dem. Du tänkte gå tillbaka och strukturera allt. Det gjorde du inte.

Det här är den typen av kaos som drabbar marknadsförare som bygger swipe-filer, grundare som gör konkurrentanalys och studenter som samlar källor. Med automatisering av YouTube-sammanfattningar kan du förvandla vilken video som helst till en strukturerad sammanfattning och logga den i Google Sheets så att den går att söka fram senare.

Nedan ser du exakt vad arbetsflödet gör, vad du får ut av det och hur du kör det utan att göra din dag till ännu ett “verktygssetup”-projekt.

Så fungerar den här automatiseringen

Hela n8n-arbetsflödet, från trigger till slutresultat:

n8n Workflow Template: YouTube till Google Sheets: sökbara sammanfattningar

Problemet: YouTube-“research” blir ett svart hål

Du hittar en bra YouTube-video, du sparar den och tänker att du ska plocka ut nyckelpunkterna senare. Sedan blir “senare” nästa vecka. Eller aldrig. När du till slut försöker få ut guldkornen fastnar du med att skrolla fram och tillbaka i en 45-minutersvideo, kopiera ett transkript fullt av tidsstämplar och skriva om det till något du faktiskt kan använda. Det är långsamt, irriterande och märkligt lätt att missa den enda raden som betydde något.

Friktionen bygger på. Lite manuellt arbete per video blir till en backlog du undviker.

  • Du slösar cirka 30 minuter per video bara på att gå från “sparad” till “användbara anteckningar”.
  • Transkript är sällan korrekt formaterade, så att söka senare känns meningslöst.
  • Dina bästa insikter fastnar i bokmärken, DM:s och slumpmässiga dokument.
  • När du behöver bevis eller ett citat minns du inte vilken video som innehöll det.

Lösningen: sammanfatta videor och lagra dem där du faktiskt söker

Det här n8n-arbetsflödet hämtar ett komplett YouTube-transkript automatiskt, sätter ihop det till en läsbar text och kör det genom en AI-kedja för sammanfattning för att skapa en tydlig, koncis sammanfattning. Du börjar med ett YouTube-video-ID. Arbetsflödet hämtar transkriptet via SearchApi.io, delar sedan upp det i hanterbara delar så att modellen klarar långa videor utan att klippa bort. Därefter producerar sammanfattningskedjan en strukturerad “det här spelar roll”-version av innehållet. Till sist kan du logga resultatet i Google Sheets, vilket gör det enkelt att söka, filtrera och bygga ett personligt bibliotek över tid.

Det börjar med en manuell körning i n8n (eller en trigger som du kan byta in senare). SearchApi hämtar transkriptet, n8n rensar och slår ihop det, och OpenAI:s chattmodell driver själva sammanfattningen. Därifrån blir Sheets din källa till sanning.

Det du får: automatisering vs. resultat

Exempel: så här ser det ut

Säg att du går igenom 10 YouTube-videor i veckan för marknadsresearch. Manuellt: räkna med cirka 30 minuter per video för att hämta transkriptet, skumma igenom det och skriva något användbart, vilket är ungefär 5 timmar per vecka. Med det här arbetsflödet klistrar du in video-ID:t och låter det köra. Även om du lägger 5 minuter per sammanfattning på en snabb genomläsning och redigering hamnar du på under en timme i veckan, plus att bearbetningen sker i bakgrunden. Du får tillbaka runt 4 timmar och ett Sheet du kan söka i när som helst.

Det du behöver

  • n8n-instans (testa n8n Cloud gratis)
  • Alternativ för egen hosting om du föredrar det (Hostinger funkar bra)
  • SearchApi.io för att hämta YouTube-transkript pålitligt
  • OpenAI (eller kompatibel LLM) för att generera sammanfattningarna
  • Google Sheets för att lagra och söka i dina sammanfattningar
  • SearchApi API-nyckel (hämta den i din SearchApi.io-dashboard)

Nivå: Medel. Du kopplar några konton, lägger in autentiseringsuppgifter i n8n och klistrar in ett YouTube-video-ID för att testa.

Vill du inte sätta upp det här själv? Prata med en automationsexpert (gratis 15-minuters konsultation).

Så fungerar det

Du startar körningen med ett video-ID. I grundflödet är det en manuell trigger, så du kan testa tryggt innan du automatiserar något på schema.

Arbetsflödet hämtar transkriptet. SearchApi hämtar YouTube-transkriptet och returnerar det som flera items (textbitar), vilket är hjälpsamt men ännu inte “redo för sammanfattning”.

Transkriptet förbereds för modellen. n8n separerar transkript-items, slår ihop dem till en sammanhängande text och använder sedan en rekursiv textdelare för att bryta långa videor i hanterbara sektioner för sammanfattning.

En OpenAI-chattmodell producerar den slutliga sammanfattningen. Sammanfattningskedjan skapar ett koncist resultat som du kan lagra, granska och återanvända (för anteckningar, briefs eller innehållsplanering).

Du kan enkelt ändra triggern så att den kör från Telegram eller en webhook i stället för manuella körningar, beroende på vad du behöver. Se hela implementationsguiden nedan för anpassningsalternativ.

Steg-för-steg-guide för implementering

Steg 1: Konfigurera den manuella triggern

Börja med att konfigurera den manuella triggern som startar workflowet.

  1. Lägg till noden Manual Execution Start i ert workflow.
  2. Lämna alla parametrar tomma, eftersom Manual Execution Start använder standardinställningar.
  3. Koppla Manual Execution Start till Search API Fetch.

Steg 2: Anslut Search API Fetch

Konfigurera Search API-anropet som hämtar transkriptdata.

  1. Lägg till noden Search API Fetch.
  2. Ställ in parametern video_id[YOUR_ID].
  3. Koppla Search API Fetch till Separate Transcript Items.

Inloggningsuppgifter krävs: Anslut era Search API-inloggningsuppgifter i Search API Fetch. Den här noden kommer att misslyckas utan giltiga inloggningsuppgifter.

Använd ett riktigt video-ID i [YOUR_ID] för att säkerställa att transkriptdata returneras.

Steg 3: Sätt upp kedjan för sammanfattningsbearbetning

Konfigurera AI-kedjan för sammanfattning och dess stödjande AI-komponenter.

  1. Lägg till Summary Processing Chain och ställ in Chunking Modeadvanced.
  2. Lägg till Recursive Text Divider och ställ in Chunk Size6000.
  3. Lägg till OpenAI Chat Engine och ställ in Modelgpt-4o-mini.
  4. Koppla Recursive Text Divider till Summary Processing Chain via anslutningen ai_textSplitter.
  5. Koppla OpenAI Chat Engine till Summary Processing Chain via anslutningen ai_languageModel.

Inloggningsuppgifter krävs: Anslut era OpenAI-inloggningsuppgifter i OpenAI Chat Engine. Summary Processing Chain är beroende av den här AI-modellanslutningen.

Steg 4: Konfigurera noder för transkriptbearbetning

Dela upp transkriptposter, slå ihop textfält och skicka innehållet till AI-kedjan för sammanfattning.

  1. Lägg till Separate Transcript Items och ställ in Field To Split Outtranscripts.
  2. Lägg till Merge Text Content och konfigurera Fields To Summarize med Field text, Separate By och Aggregation concatenate.
  3. Koppla Separate Transcript Items till Merge Text Content.
  4. Koppla Merge Text Content till Summary Processing Chain.

Om ert transkriptfältnamn skiljer sig åt, uppdatera Field To Split Out så att det matchar API-svaret.

Steg 5: Testa och aktivera ert workflow

Kör ett manuellt test för att bekräfta att data flödar korrekt och att sammanfattningen skapas.

  1. Klicka på Execute Workflow för att köra Manual Execution Start.
  2. Verifiera att Search API Fetch returnerar transkriptdata och att Separate Transcript Items ger delade poster som output.
  3. Bekräfta att Merge Text Content skapar ett sammanslaget text-fält och att Summary Processing Chain returnerar en sammanfattad output.
  4. När testet är lyckat, slå om workflowet till Active för användning i produktion.
🔒

Lås upp fullständig steg-för-steg-guide

Få den kompletta implementeringsguiden + nedladdningsbar mall

Vanliga fallgropar

  • SearchApi.io-autentiseringsuppgifter kan gå ut eller kräva specifika behörigheter. Om det skapar fel, kontrollera först status på din nyckel och dina användningsgränser i SearchApi.io-dashboarden.
  • Om du använder Wait-noder eller extern rendering varierar bearbetningstiderna. Öka väntetiden om nedströms noder fallerar på tomma svar.
  • Standardprompter i AI-noder är generiska. Lägg in din tonalitet tidigt, annars kommer du redigera utdata för alltid.

Vanliga frågor

Hur lång tid tar det att sätta upp den här automatiseringen av YouTube-sammanfattningar?

Cirka 30 minuter om dina API-nycklar är klara.

Behöver jag kunna koda för att automatisera YouTube-sammanfattningar till Google Sheets?

Nej. Du klistrar in autentiseringsuppgifter och justerar några fält i n8n.

Är n8n gratis att använda för det här arbetsflödet för automatisering av YouTube-sammanfattningar?

Ja. n8n har ett gratis alternativ för egen hosting och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna in användningen av SearchApi.io och dina LLM-kostnader (ofta bara några cent per videosammanfattning).

Var kan jag hosta n8n för att köra den här automatiseringen?

Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller egen hosting på en VPS. För egen hosting är Hostinger VPS prisvärt och hanterar n8n bra. Egen hosting ger dig obegränsade körningar men kräver grundläggande serverhantering.

Kan jag anpassa det här arbetsflödet för automatisering av YouTube-sammanfattningar till punktlistor i stället för stycken?

Ja, och det är mest en prompt-ändring. Uppdatera instruktionerna i Summary Processing Chain så att den skriver punkter, highlights eller “key takeaways” i ditt föredragna format. Du kan också justera inställningarna i Recursive Text Divider om du ofta sammanfattar långa intervjuer eller poddar. Många lägger till ett sista steg som skriver in sammanfattningen, käll-URL och ämnestaggar i kolumner i Google Sheets för enklare filtrering.

Varför misslyckas min SearchApi.io-anslutning i det här arbetsflödet?

Oftast beror det på en utgången eller felaktig API-nyckel i n8n. Kontrollera status för ditt SearchApi.io-konto, bekräfta att nyckeln har åtkomst och säkerställ att du inte slår i en användningsgräns när du testar flera videor direkt efter varandra. Verifiera också att du skickar in ett giltigt YouTube-video-ID, inte hela URL:en, om din nod är konfigurerad för ID:n.

Hur många videor kan den här automatiseringen av YouTube-sammanfattningar hantera?

Många—din praktiska gräns är din n8n-plan, serverkapacitet och API-kvoter.

Är den här automatiseringen av YouTube-sammanfattningar bättre än att använda Zapier eller Make?

Det beror på hur kräsen du är med utdata. Zapier och Make kan trigga arbetsflöden enkelt, men sammanfattning av lång text blir ofta snabbt klumpigt eftersom du behöver chunking, sammanslagning och omkörningar när transkript är enorma. n8n hanterar den typen av logik mer bekvämt, och egen hosting kan vara avgörande om du vill processa många videor utan att oroa dig för varje “task”-mätare. Om du bara sammanfattar enstaka korta videor kan ett enklare verktyg räcka. Om det här blir en veckorutin brukar n8n kännas mindre skört. Prata med en automationsexpert om du vill ha hjälp att välja.

När det här väl rullar slutar dina bästa YouTube-insikter försvinna i flikar. De hamnar i ett sökbart Sheet som du faktiskt kan använda nästa vecka.

Kontakta oss

Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.

×

Använd mall

Få direkt tillgång till denna n8n-arbetsflödes JSON-fil

Launch login modal Launch register modal