Behöver ert företag hjälp med att implementera AI? Kontakta oss och få prisoffert här →
AI Skolan
januari 22, 2026

Google Drive + Buzzsprout: publicera poddar handsfree

Rickard Andersson Partner, Nodenordic.se

Du trycker på ”record”, du avslutar samtalet – och sedan börjar det riktiga jobbet. Transkribering, titlar, shownotes, Buzzsprout-uppladdningar, sociala promos, spåra vad som publicerats. Det är mycket för något du redan har skapat.

Podcast managers känner av det först. Men marknadsansvariga som försöker återanvända varje avsnitt och byråteam som driver kundpoddar dras in i samma röriga loop. Den här podcast publishing automation gör en uppladdning i Google Drive till ett publicerat Buzzsprout-avsnitt plus innehåll som är redo att använda.

Nedan ser du exakt vad workflowet automatiserar, vilka resultat du kan förvänta dig och vad du behöver för att köra det utan att barnvakta varje release.

Så fungerar den här automatiseringen

Hela n8n-workflowet, från trigger till slutlig output:

n8n Workflow Template: Google Drive + Buzzsprout: publicera poddar handsfree

Problemet: poddpublicering blir till rutinjobb

Att publicera en podd låter enkelt tills du gör det varje vecka. Någon måste ladda ner ljudet, ladda upp det igen, vänta på bearbetning och sedan skriva det som gör avsnittet sökbart: en tydlig titel, en korrekt beskrivning, riktiga shownotes, taggar, kanske ett blogginlägg, plus social copy som inte känns som utfyllnad. Och om du hanterar flera poddar är den mentala belastningen värre än själva skrivandet. Missar du ett steg får du ”Avsnitt 42” live utan anteckningar, utan promo och utan spårbarhet kring vad som hände.

Det blir snabbt mycket. Här brukar det oftast fallera.

  • Att ladda upp ljud till Buzzsprout och sedan mata in titlar och beskrivningar manuellt är repetitivt och lätt att göra fel.
  • Shownotes och bloggutkast blir försenade eftersom ”vi gör det senare” tyst blir ”vi gjorde det inte”.
  • Sociala inlägg blir inkonsekventa, så avsnitt lanseras utan momentum även när innehållet är starkt.
  • Det finns ingen single source of truth, vilket gör att du letar i Drive, Slack och Buzzsprout för att bekräfta vad som publicerats.

Lösningen: Drive-till-Buzzsprout-publicering med Airtable-spårning

Det här workflowet gör din Google Drive-mapp till en ”dropbox” för poddpublicering. När du laddar upp en MP3/WAV/M4A hämtar n8n filen, transkriberar den med OpenAI Whisper och städar sedan upp transkriptionen så att nästa steg inte jobbar med rörig text. Från den korrigerade transkriptionen genererar det ett komplett avsnittspaket: en stark titel, en tydlig beskrivning, detaljerade shownotes, föreslaget publiceringsdatum och taggar. Det tar också fram en komplett bloggartikel i Markdown och skapar kanalredo social copy (LinkedIn-inlägg, Instagram-caption, en X-tråd och ett kort manus för TikTok/Shorts). Till sist genererar det en URL till en YouTube-thumbnail, loggar allt i Airtable, laddar upp ljudet till Buzzsprout via API, sparar Buzzsprout-detaljerna tillbaka i Airtable och meddelar teamet i Slack att avsnittet är live.

Workflowet startar när en ny ljudfil landar i en specifik Drive-mapp. AI hanterar transkribering och innehållsskapande, sedan blir Airtable avsnittsdatabasen. Buzzsprout får den färdiga uppladdningen och metadata, och Slack får ”publicerat”-meddelandet så att ingen behöver kontrollera manuellt.

Det här får du: automatisering vs. resultat

Exempel: så här ser det ut i praktiken

Säg att du publicerar ett veckovis avsnitt och behöver 6 manuella steg: ladda upp till Buzzsprout (cirka 15 minuter), skriva titel och beskrivning (cirka 20 minuter), skriva shownotes (cirka 30 minuter), ta fram ett blogginlägg (cirka 45 minuter), skapa 4 sociala varianter (cirka 30 minuter) och sedan logga allt någonstans (cirka 10 minuter). Det är ungefär 2,5 timmar varje vecka, per podd. Med det här workflowet laddar du upp filen till Drive (en minut), väntar på bearbetning och granskar den genererade texten när det passar. Du får tillbaka din eftermiddag.

Det här behöver du

  • n8n-instans (prova n8n Cloud gratis)
  • Alternativ för egen hosting om du föredrar det (Hostinger fungerar bra)
  • Google Drive för att övervaka en mapp för uppladdningar.
  • Buzzsprout för att publicera avsnitt via API.
  • OpenAI API-nyckel (hämta den i din OpenAI API-dashboard)
  • Airtable för avsnittsloggning och lagring av innehåll.
  • Slack för att meddela teamet när publiceringen är klar.

Kompetensnivå: Medel. Du kopplar konton, skapar Airtable-fälten en gång och klistrar in några ID:n/tokens på rätt ställen.

Vill du inte sätta upp det här själv? Prata med en automationsexpert (gratis 15-minuters konsultation).

Så fungerar det

En ny ljuduppladdning triggar allt. Lägg en MP3/WAV/M4A i en specifik Google Drive-mapp så hämtar n8n filen direkt för att kunna bearbeta den.

Transkribering och upprensning sker därefter. OpenAI Whisper omvandlar ljudet till text, och sedan gör en andra AI-pass en genomgång som städar upp så att namn, skiljetecken och formatering inte ser slarviga ut i de slutliga anteckningarna.

Innehåll genereras från den korrigerade transkriptionen. Workflowet skapar avsnittsmetadata (titel, beskrivning, shownotes, taggar, föreslaget publiceringsdatum) och tar sedan fram ett blogginlägg i Markdown samt skriver socialt innehåll för LinkedIn, Instagram, X och korta manus för videoformat.

Publicering och spårning automatiseras. n8n bygger Buzzsprout-uppladdningspayloaden, laddar upp ljudet via HTTP request, sparar Buzzsprout avsnitts-ID, GUID, ljud-URL och publiceringstid i Airtable och postar sedan en sammanfattning i Slack.

Du kan enkelt justera prompts och output-fält så att de matchar din tonalitet och kanal-mix utifrån dina behov. Se hela implementationsguiden nedan för anpassningsalternativ.

Steg-för-steg-guide för implementering

Steg 1: Konfigurera Google Drive-triggern

Det här arbetsflödet startar när en ny ljudfil laddas upp till en specifik Google Drive-mapp.

  1. Lägg till noden Audio Upload Trigger och ställ in EventfileCreated.
  2. Ställ in Trigger OnspecificFolder och välj målmappen under Folder to Watch (värde som [YOUR_ID]).
  3. Inloggning krävs: Anslut era googleDriveOAuth2Api-uppgifter i Audio Upload Trigger.

⚠️ Vanlig fallgrop: Om mapp-ID:t är fel kommer triggern inte att köras. Verifiera mappvalet i Google Drive.

Steg 2: Anslut Google Drive för att hämta ljudfilen

Efter triggern laddar arbetsflödet ner ljudfilen för transkribering och publicering.

  1. I Fetch Source Audio ställer ni in Operationdownload och File ID{{ $json.webViewLink }}.
  2. Inloggning krävs: Anslut era googleDriveOAuth2Api-uppgifter i Fetch Source Audio.
  3. I Retrieve Audio for Upload ställer ni in Operationdownload och File ID{{ $('Audio Upload Trigger').item.json.webViewLink }}.
  4. Inloggning krävs: Anslut era googleDriveOAuth2Api-uppgifter i Retrieve Audio for Upload.

Steg 3: Sätt upp AI-transkribering och generering av metadata

Arbetsflödet använder OpenAI för att transkribera, rensa och generera strukturerad avsnittsmetadata och innehåll.

  1. I AI Audio Transcriber låter ni Resource vara audio och Operation vara transcribe.
  2. Inloggning krävs: Anslut era openAiApi-uppgifter i AI Audio Transcriber.
  3. I Transcript Cleanup QA ställer ni in systemprompten enligt konfigurationen och säkerställer att användarmeddelandet använder {{ $json.text }}.
  4. Inloggning krävs: Anslut era openAiApi-uppgifter i Transcript Cleanup QA.
  5. I Extract Clean Transcript klistrar ni in angiven JS Code för att tolka $json.output[0].content[0].text.
  6. I Generate Episode Metadata behåller ni systemprompten och skickar JSON-payloaden med uttrycksblocket med {{ $json['summary'] }}, {{ $json.transcript['Speaker 1'] }}, {{ $json.transcript["Speaker 2"] }} och {{ $json.key_takeaways }}.
  7. Inloggning krävs: Anslut era openAiApi-uppgifter i Generate Episode Metadata.

Tips: Det här arbetsflödet använder flera OpenAI-noder (transkribering, rensning, metadata, blogg, socialt, bild). Säkerställ att samma openAiApi-inloggning är ansluten i alla OpenAI-noder för konsekvent åtkomst.

Steg 4: Tolka AI-utdata och skapa avsnittsposten

Strukturerad data extraheras från AI-svar och lagras i Airtable för spårning och återanvändning.

  1. I Parse Metadata Output behåller ni den angivna JS Code som tar bort kodblock och tolkar JSON.
  2. I Draft Blog Article säkerställer ni att systemprompten innehåller {{ $json.show_notes }} och returnerar JSON.
  3. Inloggning krävs: Anslut era openAiApi-uppgifter i Draft Blog Article.
  4. I Parse Blog Draft behåller ni den angivna koden för att slå ihop metadata med blog_draft_markdown och episode_tags_string.
  5. I Create Episode Record ställer ni in Operationcreate, väljer er Airtable-Base och Table, och mappar fält till uttryck som {{ $json.episode_title }}, {{ $json.blog_draft_markdown }} och {{ $json.suggested_publish_date }}.
  6. Inloggning krävs: Anslut era airtableTokenApi-uppgifter i Create Episode Record.

⚠️ Vanlig fallgrop: Säkerställ att er Airtable-tabell innehåller fälten som visas i mappningen (t.ex. episode_title, blog_draft_markdown, suggested_publish_date), annars misslyckas skapandet av posten.

Steg 5: Generera och lagra socialt innehåll + miniatyr

Sociala tillgångar och en YouTube-miniatyr genereras, tolkas och sparas tillbaka till Airtable.

  1. I Generate Social Posts behåller ni prompten som återanvänder {{ $json.fields.blog_draft_markdown }} till JSON-utdata.
  2. Inloggning krävs: Anslut era openAiApi-uppgifter i Generate Social Posts.
  3. I Parse Social Output behåller ni den angivna koden för att tolka JSON, slå ihop data och formatera twitter_thread_string.
  4. I Update Social Fields ställer ni in Operationupdate och mappar fält som {{ $json.record_id_data }}, {{ $json.linkedin_post }} och {{ $json.twitter_thread_string }}.
  5. Inloggning krävs: Anslut era airtableTokenApi-uppgifter i Update Social Fields.
  6. I Create Thumbnail Image ställer ni in Modeldall-e-2 och behåller prompten som använder {{ $json.fields.episode_title }}.
  7. Inloggning krävs: Anslut era openAiApi-uppgifter i Create Thumbnail Image.
  8. I Store Thumbnail Link ställer ni in Operationupdate och mappar record_Id till {{ $('Update Social Fields').item.json.fields.record_Id }} och youtube_thumbnail_url till {{ $json.url }}.
  9. Inloggning krävs: Anslut era airtableTokenApi-uppgifter i Store Thumbnail Link.

Steg 6: Publicera till Buzzsprout och logga detaljer

Arbetsflödet sätter ihop payloaden, laddar upp avsnittet till Buzzsprout och lagrar returnerade detaljer i Airtable.

  1. I Assemble Buzzsprout Payload mappar ni episode_title till {{ $json.fields.episode_title }} och final_description till {{ $json.fields.episode_description + "\n\nThumbnail: " + $json.fields.youtube_thumbnail_url }}.
  2. I Publish Episode Upload ställer ni in URLhttps://www.buzzsprout.com/api/{your_podcast_id}/episodes.json och MethodPOST.
  3. Ställ in Body Parameters så att de inkluderar title {{ $('Assemble Buzzsprout Payload').item.json.episode_title }}, description {{ $('Assemble Buzzsprout Payload').item.json.final_description }} och file som binär formulärdata med Input Data Field Name data.
  4. Ställ in Authorization-headern till Token token=[CONFIGURE_YOUR_TOKEN].
  5. I Record Buzzsprout Details ställer ni in Operationupdate och mappar fält inklusive {{ $json.guid }}, {{ $json.audio_url }}, {{ $json.published_at }} och {{ $json.id }} med record_Id från {{ $('Store Thumbnail Link').item.json.fields.record_Id }}.
  6. Inloggning krävs: Anslut era airtableTokenApi-uppgifter i Record Buzzsprout Details.

Varning: Noden Publish Episode Upload har inga inloggningsuppgifter konfigurerade. Se till att ni lägger till Buzzsprout API-token i headern innan ni kör arbetsflödet.

Steg 7: Konfigurera Slack-notis

När avsnittet har publicerats skickas ett Slack-meddelande som notifierar marknadsteamet.

  1. I Compose Slack Notice bekräftar ni att fälten är satta med uttryck som {{ $json.fields.episode_title }} och {{ $json.fields.youtube_thumbnail_url }}.
  2. I Send Marketing Alert väljer ni Channel och behåller meddelandemallen som använder {{ $json["Episode Title"] }}, {{ $json["Buzzsprout episode Id"] }}, {{ $json["Published at"] }} och {{ $json["Youtube thumbnail url"] }}.
  3. Inloggning krävs: Anslut era slackApi-uppgifter i Send Marketing Alert.

Steg 8: Testa och aktivera ert arbetsflöde

Validera end-to-end-körning innan ni slår på automatiseringen.

  1. Ladda upp en exempel-ljudfil i mappen som övervakas av Audio Upload Trigger.
  2. Kör arbetsflödet manuellt och bekräfta att data flödar från Fetch Source Audio till Publish Episode Upload utan fel.
  3. Verifiera att Airtable-poster skapas/uppdateras och att Slack-notisen dyker upp i vald kanal.
  4. När allt fungerar växlar ni arbetsflödet till Active för användning i produktion.
🔒

Lås upp fullständig steg-för-steg-guide

Få den kompletta implementeringsguiden + nedladdningsbar mall

Vanliga fallgropar

  • Airtable-inloggningar kan löpa ut eller så kan din token sakna åtkomst till rätt base. Om något slutar fungera, kontrollera först n8n:s Airtable-credential och bekräfta behörigheterna för basen.
  • Om du använder Wait-noder eller extern rendering varierar processing-tiderna. Öka väntetiden om efterföljande noder fallerar på tomma svar.
  • Buzzsprout-uppladdningar misslyckas när det binära ljudfältet inte är mappat korrekt i HTTP-requesten. Om du ser fel i stil med ”missing audio”, verifiera att filfältet verkligen är binärt och kommer från Google Drive-nedladdningssteget.
  • Standardprompter i AI-noder är generiska. Lägg in din tonalitet tidigt, annars kommer du redigera outputs för alltid.

Vanliga frågor

Hur lång tid tar det att sätta upp den här podcast publishing automation automation?

Cirka en timme om din Airtable-tabell och dina konton är klara.

Behöver jag kunna koda för att automatisera podcast publishing automation?

Nej. Du kopplar främst konton och klistrar in några ID:n och API-tokens. Den enda ”tekniska” delen är att matcha Airtable-fältnamn exakt.

Är n8n gratis att använda för det här podcast publishing automation-workflowet?

Ja. n8n har ett gratis alternativ för self-hosting och en gratis testperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna in OpenAI API-användning för transkribering och innehållsgenerering.

Var kan jag hosta n8n för att köra den här automatiseringen?

Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller self-hosting på en VPS. För self-hosting är Hostinger VPS prisvärt och klarar n8n bra. Self-hosting ger obegränsat antal körningar men kräver grundläggande serverhantering.

Kan jag anpassa det här podcast publishing automation-workflowet för schemalagda releaser i stället för direkt publicering?

Ja, men då vill du justera Buzzsprout-uppladdningsrequesten så att den sätter värdet episode published_at baserat på ditt önskade schema. Många team mappar det föreslagna publiceringsdatumet från AI-metadata till Buzzsprout-payloaden och sparar sedan det slutliga published_at som Buzzsprout returnerar tillbaka i Airtable. Du kan också justera OpenAI-prompten så att den föreslår datum som matchar din release-kadens (till exempel ”nästa tisdag morgon”).

Varför misslyckas min Buzzsprout-anslutning i det här workflowet?

Oftast beror det på en ogiltig API-token eller fel podcast-ID, så att HTTP-requesten avvisas. En annan vanlig orsak är att ljudfilen inte skickas som binär i uppladdningssteget, vilket gör att Buzzsprout svarar som om det inte finns ”någon fil”. Om du nyligen ändrade din Drive-mapp, bekräfta att workflowet fortfarande hämtar samma fil som uppladdningsnoden förväntar sig.

Hur många avsnitt kan den här podcast publishing automation automation hantera?

Väldigt många.

Är den här podcast publishing automation automation bättre än att använda Zapier eller Make?

För en ”ljud-till-publicerad-podd”-pipeline är n8n oftast ett bättre val eftersom du kan köra AI-generering i flera steg, parsing och villkorslogik utan att slåss med task-begränsningar. Self-hosting är också viktigt, särskilt om du publicerar ofta eller hanterar flera poddar. Zapier eller Make kan fungera för enkla flöden av typen ”Drive-uppladdning → Slack-meddelande”, men de blir dyra och otympliga när du lägger till transkribering, långformstext och databasuppdateringar. Om du är osäker, tänk på felmoderna: du vill ha retries, loggning och en plats att spara outputs (Airtable) även när publicering misslyckas. Prata med en automationsexpert så får du en rak rekommendation baserat på volym och budget.

När det här väl rullar blir publicering tråkigt på bästa sätt. Workflowet tar hand om det repetitiva arbetet så att du kan lägga tiden på bättre gäster, bättre stories och bättre distribution.

Kontakta oss

Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.

×

Använd mall

Få direkt tillgång till denna n8n-arbetsflödes JSON-fil

Launch login modal Launch register modal