Din “research” är förmodligen en hög med halvsedda YouTube-videor, röriga transkript och anteckningar du inte hittar när du behöver dem. Du tänkte gå tillbaka och strukturera allt. Det gjorde du inte.
Det här är den typen av kaos som drabbar marknadsförare som bygger swipe-filer, grundare som gör konkurrentanalys och studenter som samlar källor. Med automatisering av YouTube-sammanfattningar kan du förvandla vilken video som helst till en strukturerad sammanfattning och logga den i Google Sheets så att den går att söka fram senare.
Nedan ser du exakt vad arbetsflödet gör, vad du får ut av det och hur du kör det utan att göra din dag till ännu ett “verktygssetup”-projekt.
Så fungerar den här automatiseringen
Hela n8n-arbetsflödet, från trigger till slutresultat:
n8n Workflow Template: YouTube till Google Sheets: sökbara sammanfattningar
flowchart LR
subgraph sg0["When clicking ‘Test workflow’ Flow"]
direction LR
n0@{ icon: "mdi:play-circle", form: "rounded", label: "When clicking ‘Test workflow’", pos: "b", h: 48 }
n1@{ icon: "mdi:robot", form: "rounded", label: "Summarization Chain", pos: "b", h: 48 }
n2@{ icon: "mdi:robot", form: "rounded", label: "Recursive Character Text Spl..", pos: "b", h: 48 }
n3@{ icon: "mdi:swap-vertical", form: "rounded", label: "Split Out", pos: "b", h: 48 }
n4@{ icon: "mdi:cog", form: "rounded", label: "Summarize", pos: "b", h: 48 }
n5@{ icon: "mdi:web", form: "rounded", label: "SearchApi", pos: "b", h: 48 }
n6@{ icon: "mdi:brain", form: "rounded", label: "OpenAI Chat Model", pos: "b", h: 48 }
n5 --> n3
n3 --> n4
n4 --> n1
n6 -.-> n1
n2 -.-> n1
n0 --> n5
end
%% Styling
classDef trigger fill:#e8f5e9,stroke:#388e3c,stroke-width:2px
classDef ai fill:#e3f2fd,stroke:#1976d2,stroke-width:2px
classDef aiModel fill:#e8eaf6,stroke:#3f51b5,stroke-width:2px
classDef decision fill:#fff8e1,stroke:#f9a825,stroke-width:2px
classDef database fill:#fce4ec,stroke:#c2185b,stroke-width:2px
classDef api fill:#fff3e0,stroke:#e65100,stroke-width:2px
classDef code fill:#f3e5f5,stroke:#7b1fa2,stroke-width:2px
classDef disabled stroke-dasharray: 5 5,opacity: 0.5
class n0 trigger
class n1,n2 ai
class n6 aiModel
class n5 api
Problemet: YouTube-“research” blir ett svart hål
Du hittar en bra YouTube-video, du sparar den och tänker att du ska plocka ut nyckelpunkterna senare. Sedan blir “senare” nästa vecka. Eller aldrig. När du till slut försöker få ut guldkornen fastnar du med att skrolla fram och tillbaka i en 45-minutersvideo, kopiera ett transkript fullt av tidsstämplar och skriva om det till något du faktiskt kan använda. Det är långsamt, irriterande och märkligt lätt att missa den enda raden som betydde något.
Friktionen bygger på. Lite manuellt arbete per video blir till en backlog du undviker.
- Du slösar cirka 30 minuter per video bara på att gå från “sparad” till “användbara anteckningar”.
- Transkript är sällan korrekt formaterade, så att söka senare känns meningslöst.
- Dina bästa insikter fastnar i bokmärken, DM:s och slumpmässiga dokument.
- När du behöver bevis eller ett citat minns du inte vilken video som innehöll det.
Lösningen: sammanfatta videor och lagra dem där du faktiskt söker
Det här n8n-arbetsflödet hämtar ett komplett YouTube-transkript automatiskt, sätter ihop det till en läsbar text och kör det genom en AI-kedja för sammanfattning för att skapa en tydlig, koncis sammanfattning. Du börjar med ett YouTube-video-ID. Arbetsflödet hämtar transkriptet via SearchApi.io, delar sedan upp det i hanterbara delar så att modellen klarar långa videor utan att klippa bort. Därefter producerar sammanfattningskedjan en strukturerad “det här spelar roll”-version av innehållet. Till sist kan du logga resultatet i Google Sheets, vilket gör det enkelt att söka, filtrera och bygga ett personligt bibliotek över tid.
Det börjar med en manuell körning i n8n (eller en trigger som du kan byta in senare). SearchApi hämtar transkriptet, n8n rensar och slår ihop det, och OpenAI:s chattmodell driver själva sammanfattningen. Därifrån blir Sheets din källa till sanning.
Det du får: automatisering vs. resultat
| Det här arbetsflödet automatiserar | Resultat du får |
|---|---|
|
|
Exempel: så här ser det ut
Säg att du går igenom 10 YouTube-videor i veckan för marknadsresearch. Manuellt: räkna med cirka 30 minuter per video för att hämta transkriptet, skumma igenom det och skriva något användbart, vilket är ungefär 5 timmar per vecka. Med det här arbetsflödet klistrar du in video-ID:t och låter det köra. Även om du lägger 5 minuter per sammanfattning på en snabb genomläsning och redigering hamnar du på under en timme i veckan, plus att bearbetningen sker i bakgrunden. Du får tillbaka runt 4 timmar och ett Sheet du kan söka i när som helst.
Det du behöver
- n8n-instans (testa n8n Cloud gratis)
- Alternativ för egen hosting om du föredrar det (Hostinger funkar bra)
- SearchApi.io för att hämta YouTube-transkript pålitligt
- OpenAI (eller kompatibel LLM) för att generera sammanfattningarna
- Google Sheets för att lagra och söka i dina sammanfattningar
- SearchApi API-nyckel (hämta den i din SearchApi.io-dashboard)
Nivå: Medel. Du kopplar några konton, lägger in autentiseringsuppgifter i n8n och klistrar in ett YouTube-video-ID för att testa.
Vill du inte sätta upp det här själv? Prata med en automationsexpert (gratis 15-minuters konsultation).
Så fungerar det
Du startar körningen med ett video-ID. I grundflödet är det en manuell trigger, så du kan testa tryggt innan du automatiserar något på schema.
Arbetsflödet hämtar transkriptet. SearchApi hämtar YouTube-transkriptet och returnerar det som flera items (textbitar), vilket är hjälpsamt men ännu inte “redo för sammanfattning”.
Transkriptet förbereds för modellen. n8n separerar transkript-items, slår ihop dem till en sammanhängande text och använder sedan en rekursiv textdelare för att bryta långa videor i hanterbara sektioner för sammanfattning.
En OpenAI-chattmodell producerar den slutliga sammanfattningen. Sammanfattningskedjan skapar ett koncist resultat som du kan lagra, granska och återanvända (för anteckningar, briefs eller innehållsplanering).
Du kan enkelt ändra triggern så att den kör från Telegram eller en webhook i stället för manuella körningar, beroende på vad du behöver. Se hela implementationsguiden nedan för anpassningsalternativ.
Steg-för-steg-guide för implementering
Steg 1: Konfigurera den manuella triggern
Börja med att konfigurera den manuella triggern som startar workflowet.
- Lägg till noden Manual Execution Start i ert workflow.
- Lämna alla parametrar tomma, eftersom Manual Execution Start använder standardinställningar.
- Koppla Manual Execution Start till Search API Fetch.
Steg 2: Anslut Search API Fetch
Konfigurera Search API-anropet som hämtar transkriptdata.
- Lägg till noden Search API Fetch.
- Ställ in parametern video_id på
[YOUR_ID]. - Koppla Search API Fetch till Separate Transcript Items.
Inloggningsuppgifter krävs: Anslut era Search API-inloggningsuppgifter i Search API Fetch. Den här noden kommer att misslyckas utan giltiga inloggningsuppgifter.
Använd ett riktigt video-ID i [YOUR_ID] för att säkerställa att transkriptdata returneras.
Steg 3: Sätt upp kedjan för sammanfattningsbearbetning
Konfigurera AI-kedjan för sammanfattning och dess stödjande AI-komponenter.
- Lägg till Summary Processing Chain och ställ in Chunking Mode på
advanced. - Lägg till Recursive Text Divider och ställ in Chunk Size på
6000. - Lägg till OpenAI Chat Engine och ställ in Model på
gpt-4o-mini. - Koppla Recursive Text Divider till Summary Processing Chain via anslutningen ai_textSplitter.
- Koppla OpenAI Chat Engine till Summary Processing Chain via anslutningen ai_languageModel.
Inloggningsuppgifter krävs: Anslut era OpenAI-inloggningsuppgifter i OpenAI Chat Engine. Summary Processing Chain är beroende av den här AI-modellanslutningen.
Steg 4: Konfigurera noder för transkriptbearbetning
Dela upp transkriptposter, slå ihop textfält och skicka innehållet till AI-kedjan för sammanfattning.
- Lägg till Separate Transcript Items och ställ in Field To Split Out på
transcripts. - Lägg till Merge Text Content och konfigurera Fields To Summarize med Field
text, Separate Byoch Aggregationconcatenate. - Koppla Separate Transcript Items till Merge Text Content.
- Koppla Merge Text Content till Summary Processing Chain.
Om ert transkriptfältnamn skiljer sig åt, uppdatera Field To Split Out så att det matchar API-svaret.
Steg 5: Testa och aktivera ert workflow
Kör ett manuellt test för att bekräfta att data flödar korrekt och att sammanfattningen skapas.
- Klicka på Execute Workflow för att köra Manual Execution Start.
- Verifiera att Search API Fetch returnerar transkriptdata och att Separate Transcript Items ger delade poster som output.
- Bekräfta att Merge Text Content skapar ett sammanslaget
text-fält och att Summary Processing Chain returnerar en sammanfattad output. - När testet är lyckat, slå om workflowet till Active för användning i produktion.
Vanliga fallgropar
- SearchApi.io-autentiseringsuppgifter kan gå ut eller kräva specifika behörigheter. Om det skapar fel, kontrollera först status på din nyckel och dina användningsgränser i SearchApi.io-dashboarden.
- Om du använder Wait-noder eller extern rendering varierar bearbetningstiderna. Öka väntetiden om nedströms noder fallerar på tomma svar.
- Standardprompter i AI-noder är generiska. Lägg in din tonalitet tidigt, annars kommer du redigera utdata för alltid.
Vanliga frågor
Cirka 30 minuter om dina API-nycklar är klara.
Nej. Du klistrar in autentiseringsuppgifter och justerar några fält i n8n.
Ja. n8n har ett gratis alternativ för egen hosting och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna in användningen av SearchApi.io och dina LLM-kostnader (ofta bara några cent per videosammanfattning).
Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller egen hosting på en VPS. För egen hosting är Hostinger VPS prisvärt och hanterar n8n bra. Egen hosting ger dig obegränsade körningar men kräver grundläggande serverhantering.
Ja, och det är mest en prompt-ändring. Uppdatera instruktionerna i Summary Processing Chain så att den skriver punkter, highlights eller “key takeaways” i ditt föredragna format. Du kan också justera inställningarna i Recursive Text Divider om du ofta sammanfattar långa intervjuer eller poddar. Många lägger till ett sista steg som skriver in sammanfattningen, käll-URL och ämnestaggar i kolumner i Google Sheets för enklare filtrering.
Oftast beror det på en utgången eller felaktig API-nyckel i n8n. Kontrollera status för ditt SearchApi.io-konto, bekräfta att nyckeln har åtkomst och säkerställ att du inte slår i en användningsgräns när du testar flera videor direkt efter varandra. Verifiera också att du skickar in ett giltigt YouTube-video-ID, inte hela URL:en, om din nod är konfigurerad för ID:n.
Många—din praktiska gräns är din n8n-plan, serverkapacitet och API-kvoter.
Det beror på hur kräsen du är med utdata. Zapier och Make kan trigga arbetsflöden enkelt, men sammanfattning av lång text blir ofta snabbt klumpigt eftersom du behöver chunking, sammanslagning och omkörningar när transkript är enorma. n8n hanterar den typen av logik mer bekvämt, och egen hosting kan vara avgörande om du vill processa många videor utan att oroa dig för varje “task”-mätare. Om du bara sammanfattar enstaka korta videor kan ett enklare verktyg räcka. Om det här blir en veckorutin brukar n8n kännas mindre skört. Prata med en automationsexpert om du vill ha hjälp att välja.
När det här väl rullar slutar dina bästa YouTube-insikter försvinna i flikar. De hamnar i ett sökbart Sheet som du faktiskt kan använda nästa vecka.
Kontakta oss
Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.