Behöver ert företag hjälp med att implementera AI? Kontakta oss och få prisoffert här →
AI Skolan
januari 22, 2026

Google Sheets till Google Drive: shorts klara att posta

Rickard Andersson Partner, Nodenordic.se

Din pipeline för kortformat är förmodligen inte “svår”. Den är bara irriterande manuell. Idéer hamnar i anteckningar, manus klistras runt, assets försvinner i chatttrådar och den färdiga videon slutar som final_v7_REAL.mp4 någonstans på en laptop.

Den här Google Sheets-automationen träffar innehållsskapare först, helt ärligt. Men marknadschefer som jagar konsekvens och byråägare som skalar leveranser känner samma friktion. Resultatet är enkelt: ett tema blir en färdig, publiceringsklar short, loggad i ett Sheet och levererad till Drive automatiskt.

Nedan ser du exakt vad det här arbetsflödet bygger, vad det ersätter och hur du sätter upp det i n8n utan att fastna i tekniska kaninhål.

Så fungerar automatiseringen

Här är det kompletta arbetsflödet du kommer att sätta upp:

n8n Workflow Template: Google Sheets till Google Drive: shorts klara att posta

Varför det här spelar roll: att göra idéer till shorts är en flaskhals

Shorts ser enkla ut från utsidan. Men kedjan bakom kulisserna är lång: välj ett tema, hitta en hook, skriv ett tajt manus, planera scener, generera visuellt material, animera, klipp ihop, lägg på voiceover, exportera, ladda upp och följ sedan upp vad du publicerade. Det värsta är hur skört det är. En missad fil, en trasig länk, ett “var sparade vi det?”-ögonblick, och du tappar rytmen som kortformatsplattformar belönar. Det handlar inte bara om tid. Det handlar om momentum – och momentum är hela spelet.

Friktionen byggs på. Här är var det brukar fallera.

  • Du gör samma repetitiva steg för varje video, även när temat knappt förändras.
  • Spårningen blir snabbt rörig, så du ser inte vad som pågår, vad som är klart och vad som aldrig publicerades.
  • Outsourcing blir svårare eftersom processen bara finns “i någons huvud”, inte i ett system.
  • Uppladdning och överlämningar stjäl fokus precis när du borde iterera på hooks och format.

Vad du bygger: ett tema-till-short-löpande band i n8n

Det här arbetsflödet gör ett tema till en komplett short-video och håller dessutom ordning åt dig. Det börjar när du kör arbetsflödet i n8n och anger ett kärnämne (tänk “svarta hål”, “antika Rom” eller “märkliga marknadsföringsfakta”). OpenAI genererar ett viral-inriktat konceptpaket med titel, beskrivning och hashtags, och arbetsflödet loggar metadatan i Google Sheets så att din innehållskalender inte blir en gissningslek. Därefter skriver det ett manus med 12 scener, designat för att passa ungefär en 60-sekunders video, och tar fram prompts för varje scens visuella material.

Sedan loopar arbetsflödet genom scenerna för att skapa stillbilder och animera dem till korta klipp via Fal.ai-API:er. När alla klipp är klara klipper det ihop dem till en enda video, genererar ett voiceover-spår och mixar ljud med slutklippet. Till sist laddar arbetsflödet ner den färdiga videofilen, laddar upp den till din valda Google Drive-mapp och uppdaterar Google Sheets så att raden speglar slutresultatet.

Det här bygger du

Förväntade resultat

Säg att du publicerar 5 shorts i veckan. Manuellt är det vanligt att lägga cirka 2 timmar per short när du räknar in manusskrivning, hitta visuellt material, klippa ihop klipp, voiceover, export, uppladdning till Drive och uppdatering av din tracker. Det blir ungefär 10 timmar per vecka. Med det här arbetsflödet kan din “hands-on”-tid sjunka till runt 10 minuter per short (välja tema, köra, kontrollera output), medan resten kör i bakgrunden. Du får tillbaka större delen av tiden utan att tappa konsekvensen.

Innan du börjar

  • n8n-instans (testa n8n Cloud gratis)
  • Alternativ för self-hosting om du föredrar det (Hostinger fungerar bra)
  • Google Sheets för loggning av idémetadata och status.
  • Google Drive för att lagra slutvideor i en delad mapp.
  • OpenAI API-nyckel (hämta den i din OpenAI API-dashboard).
  • Fal.ai API-nyckel (hämta den i dina kontoinställningar hos Fal.ai).

Kunskapsnivå: Medel. Du kopplar mest konton och klistrar in API-nycklar, samt uppdaterar några headers i HTTP Request.

Vill du att någon bygger detta åt dig? Prata med en automationsexpert (gratis 15-minuters konsultation).

Steg för steg

Du kör arbetsflödet med ett tema. Det börjar med en manuell start i n8n, sedan genererar OpenAI en idéstomme (titel, hashtags, beskrivning) baserat på ditt ämne.

Din innehållslogg uppdateras direkt. Google Sheets får konceptdetaljerna tidigt, vilket betyder att du har en logg även om du avbryter körningen senare eller vill jämföra flera idéer.

Scener skapas och produceras sedan i en loop. OpenAI tar fram en plan med 12 scener; arbetsflödet delar upp den i individuella scenprompts, genererar en stillbild via Fal.ai (Flux) och använder sedan vision + prompting för att animera varje scen till ett kort klipp (Kling). Väntesteg används eftersom externa renderingar inte är omedelbara.

Allt sätts ihop och levereras. Klippen slås ihop till en enda 60-sekundersvideo (FFMPEG API), voiceover genereras och mixas in, sedan laddar n8n ner den färdiga filen och laddar upp den till Google Drive. Till sist uppdateras den ursprungliga raden i Google Sheets med information om den färdiga videon.

Du kan enkelt ändra temaprompten så den matchar din nisch och byta målmapp i Drive efter dina behov. Se den fullständiga implementationsguiden nedan för anpassningsalternativ.

Steg-för-steg-guide för implementation

Steg 1: Konfigurera den manuella triggern

Starta arbetsflödet manuellt för att köra en fullständig videopipeline vid behov.

  1. Lägg till och öppna Manual Execution Start.
  2. Lämna nodinställningarna som standard för att möjliggöra manuella körningar.
  3. Koppla Manual Execution Start till Generate Idea Seed.

Steg 2: Anslut Google Sheets för lagring av metadata

Lagra den genererade idéns metadata och uppdatera den slutliga video-URL:en i ert kalkylark.

  1. Öppna Record Idea Metadata och ställ in Operationappend.
  2. Ställ in Document till [YOUR_ID] och Sheet till Sheet1.
  3. Mappa fält som idea till {{ $json.message.content.idea }} och caption till {{ $json.message.content.title }}.
  4. Öppna Update Final Video Sheet och ställ in Operationupdate, med matchning på idea.
  5. Ställ in final_output till {{ $json.video_url }} för att lagra länken till slutresultatet.

Credential Required: Anslut era googleSheetsOAuth2Api-uppgifter för både Record Idea Metadata och Update Final Video Sheet.

Steg 3: Sätt upp AI för idé, berättarröst och scen-prompting

Dessa OpenAI-noder genererar idéstommen, tidsatt berättarröst och scen-prompter som driver den visuella pipelinen.

  1. Konfigurera Generate Idea Seed med Model satt till gpt-4.1 och JSON Output aktiverat.
  2. I Create Timed Narration, bekräfta att prompten refererar till idén och titeln via {{$('Generate Idea Seed').first().json.message.content.title}} och {{$('Generate Idea Seed').first().json.message.content.idea}}.
  3. Öppna Compose Scene Prompts och säkerställ att den läser berättelsegment som {{ $json.message.content.segments[0].text }} till {{ $json.message.content.segments[11].text }}.
  4. I Split Scene Prompts, behåll JavaScript-koden som mappar varje scen till ett eget output-item.
  5. Verifiera att Draft Animation Prompts använder Resource image och Operation analyze, med Image URLs satt till {{ $json.images[0].url }}.

Credential Required: Anslut era openAiApi-uppgifter för Generate Idea Seed, Create Timed Narration, Compose Scene Prompts och Draft Animation Prompts.

Steg 4: Konfigurera köerna för bild- och klippgenerering

Dessa HTTP-förfrågningar skickar prompter till externa API:er, väntar och hämtar sedan resultat. Det finns flera HTTP Request- och Wait-noder som följer samma mönster, så konfigurera dem konsekvent.

  1. I Generate Scene Images, ställ in URL till https://queue.fal.run/fal-ai/flux/schnell och Body till {"prompt":"{{ $json.prompt }}","image_size":"portrait_16_9"}.
  2. Ställ in Authorization-headern i Generate Scene Images och Retrieve Image Result till [CONFIGURE_YOUR_API_KEY].
  3. Behåll Pause Images Queue satt till Amount 240 för att ge bildbearbetningen tid att slutföras.
  4. I Generate Scene Clip, ställ in Body så att den inkluderar {{ $json.content }} och {{ $('Retrieve Image Result').item.json.images[0].url }}.
  5. Behåll Pause Video Queue satt till Amount 700, därefter ska Retrieve Clip Result anropa https://queue.fal.run/fal-ai/kling-video/requests/{{ $json.request_id }}.

⚠️ Vanlig fallgrop: Dessa HTTP Request-noder använder inte n8n-credentials. Ni måste sätta värdet för Authorization-headern till er API-nyckel i varje Fal.ai-request-nod.

Steg 5: Slå ihop scenresultat och skapa den slutliga videon

Slå ihop klippresultaten, samla deras URL:er och bygg den slutliga sammanfogade videotidslinjen.

  1. Säkerställ att Retrieve Image Result skickar output till både Combine Scene Data och Draft Animation Prompts parallellt.
  2. I Combine Scene Data, behåll Mode satt till combine och Combine By till combineByPosition.
  3. I Collect Clip URLs, behåll JavaScript-koden som mappar item.json.video.url till en video_urls-array.
  4. Öppna Compose Final Video och bekräfta att varje keyframe använder {{ $json.video_urls[0] }} till {{ $json.video_urls[11] }} med 5 sekunders varaktighet.
  5. Behåll Pause Final Merge satt till 200, därefter ska Retrieve Final Video anropa https://queue.fal.run/fal-ai/ffmpeg-api/requests/{{ $json.request_id }}.

Steg 6: Generera berättarröst och mixa med video

Sätt ihop berättelsen till ett stycke, skapa voiceover-ljud och mixa det med den slutliga sammanfogade videon.

  1. I Assemble Voiceover Text, behåll JavaScript-koden som slår ihop berättelsegment till paragraph.
  2. I Generate Voiceover Audio, ställ in URL till https://queue.fal.run/fal-ai/elevenlabs/tts/turbo-v2.5 och ersätt [YOUR_ID] i voice-fältet.
  3. Behåll Pause Voice Queue satt till 280, därefter hämtar Retrieve Voiceover Output resultatet för requesten.
  4. I Mix Audio With Video, säkerställ att video-URL:en är satt till {{ $('Retrieve Final Video').item.json.video_url }} och ljud-URL:en till {{ $json.audio.url }}.
  5. Behåll Pause Mix Queue satt till 280 och Retrieve Audio Video Mix konfigurerad med request-URL-mallen.

Tips: För konsekvent ljudtempo, håll ljudets och videons duration-värden i linje på 65 sekunder i Mix Audio With Video.

Steg 7: Ladda upp och logga slutresultatet

Ladda ner den mixade videon, ladda upp den till Drive och uppdatera kalkylarket med den slutliga URL:en.

  1. Säkerställ att Retrieve Audio Video Mix skickar output till både Fetch Video File och Update Final Video Sheet parallellt.
  2. I Fetch Video File, ställ in URL till {{ $json.video_url }} och behåll Response Format satt till file.
  3. I Drive File Upload, ställ in Name till {{ $('Generate Idea Seed').first().json.message.content.name }} och välj mål-Drive och mapp.

Credential Required: Anslut era googleDriveOAuth2Api-uppgifter för Drive File Upload.

Steg 8: Testa och aktivera ert arbetsflöde

Kör ett fullständigt test för att validera hela pipelinen från början till slut innan ni slår på den för produktion.

  1. Klicka på Execute Workflow och övervaka varje köbaserad sektion tills den är klar.
  2. Bekräfta att Record Idea Metadata lägger till en ny rad och att Update Final Video Sheet uppdaterar fältet final_output.
  3. Verifiera att Drive File Upload skapar en ny videofil med förväntat namn.
  4. Om allt fungerar, växla arbetsflödet till Active för att möjliggöra produktionskörningar.
🔒

Lås upp fullständig steg-för-steg-guide

Få den kompletta implementeringsguiden + nedladdningsbar mall

Tips för felsökning

  • Behörigheter för Google Sheets och Google Drive kan löpa ut eller kräva specifika rättigheter. Om saker slutar fungera, kontrollera skärmen Credentials i n8n och bekräfta att Google-kontot fortfarande har åtkomst till målarket och Drive-mappen.
  • Om du använder Wait-noder eller extern rendering varierar processtiderna. Öka väntetiden om efterföljande noder fallerar på tomma svar.
  • Fal.ai-anrop bygger på Authorization-headern i flera HTTP Request-noder. Om du glömmer att ersätta platshållarnyckeln i varje nod (bild, klipp, merge och mix) kommer körningen att fallera halvvägs och kännas “slumpmässig”.

Snabba svar

Hur lång tid tar det att sätta upp den här Google Sheets-automationen?

Cirka en timme om du redan har dina API-nycklar och Google-åtkomst redo.

Krävs kodning för den här Google Sheets-automationen?

Nej. Du kopplar konton, klistrar in API-nycklar och justerar några konfigurationsfält.

Är n8n gratis att använda för det här Google Sheets-automationsflödet?

Ja. n8n har ett gratis self-hosted-alternativ och en gratis provperiod på n8n Cloud. Cloud-planer startar på 20 USD/månad för högre volym. Du behöver också räkna med kostnader för OpenAI- och Fal.ai-användning, som kan dra iväg om du genererar många videor.

Var kan jag hosta n8n för att köra den här automatiseringen?

Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller self-hosting på en VPS. För self-hosting är Hostinger VPS prisvärd och hanterar n8n bra. Self-hosting ger dig obegränsade körningar men kräver grundläggande serverhantering.

Kan jag anpassa det här Google Sheets-automationsflödet för andra use cases?

Ja, och det bör du förmodligen göra. De flesta börjar med att justera prompten i “Generate Idea Seed” så den matchar deras nisch, och anpassar sedan Google Sheets-kolumnerna i “Record Idea Metadata” och “Update Final Video Sheet” efter sin uppföljning. Om du föredrar en annan AI-röst kan du byta HTTP request för voiceover till din leverantör och låta resten vara. Du kan även minska antalet scener (12 till 8, till exempel) om du vill ha snabbare körningar och ett mer rappt tempo.

Varför misslyckas min Google Sheets-anslutning i det här arbetsflödet?

Oftast beror det på en utgången Google-behörighet eller att det kopplade kontot tappat åtkomst till kalkylarket. Koppla om Google-credentialen i n8n och dubbelkolla sedan att Spreadsheet ID och fliknamnet i Sheet matchar vad noden förväntar sig. Om det bara fallerar vid uppdateringar kan arket vara skyddat eller så skriver arbetsflödet till ett intervall som ännu inte finns.

Vilken volym kan det här Google Sheets-automationsflödet hantera?

Om du self-hostar finns ingen körningsgräns från n8n (det beror mest på din server och API:ernas rate limits). I praktiken är varje videokörning tung eftersom den skapar 12 bilder, 12 klipp, en sammanslagning, en voiceover och en slutmix, så de flesta team börjar med några videor per dag och skalar när det är stabilt.

Är den här Google Sheets-automationen bättre än att använda Zapier eller Make?

För den här typen av arbetsflöde, ja, i de flesta fall. Du hanterar loopar, väntar på renderjobb, skickar data mellan steg och syr ihop output – där brukar n8n kännas mer flexibelt. Zapier och Make kan lösa delar, men så fort du lägger till “generera 12 klipp, vänta, merge, och mixa ljud” blir scenariot skört och dyrt. n8n ger dig också möjligheten att self-hosta, vilket spelar roll om du kör detta ofta. Vill du ha hjälp att välja rätt stack för dina publiceringsmål, prata med en automationsexpert.

När det här väl rullar slutar du “hantera processen” och börjar granska output. Arbetsflödet tar hand om den repetitiva produktionskedjan, och ditt Google Sheet blir äntligen en riktig kontrollpanel.

Kontakta oss

Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.

×

Använd mall

Få direkt tillgång till denna n8n-arbetsflödes JSON-fil

Launch login modal Launch register modal