Behöver ert företag hjälp med att implementera AI? Kontakta oss och få prisoffert här →
AI Skolan
januari 22, 2026

Blender + PostgreSQL: 3D-produktvideor på autopilot

Rickard Andersson Partner, Nodenordic.se

Att göra 3D-produktvideor låter kul tills du är på version fem av ”bara justera ljuset lite”, jagar texturer och försöker minnas vilken renderlänk du skickade till vem.

Den här Blender-videoautomationen träffar marknadsteam först (för lanseringar väntar inte), men produktgrundare och byrå-folk känner av det också. Du vill ha en enda prompt som pålitligt producerar en felfri 3D-showcase, plus en logg över varje asset så att inget försvinner.

Det här arbetsflödet förvandlar en enda productPrompt till förpackningsvisuals, PBR-stil-texturer, ett Blender-skript, en förhandsrender, en hostad videolänk och en PostgreSQL-logg. Du får se vad det automatiserar, vad du får ut i andra änden och vad du ska se upp med när du sätter upp det.

Så fungerar automatiseringen

Det fulla n8n-flödet, från trigger till slutresultat:

n8n Workflow Template: Blender + PostgreSQL: 3D-produktvideor på autopilot

Problemet: 3D-produktvideor är långsamma, sköra och svåra att upprepa

En bra 3D-showcasevideo är en hög av små beslut: mått, material, ljussättning, kameradistans, rotationshastighet, bakgrund, förpackningsgrafik, texturkartor och exportinställningar. Gör du det manuellt kan du lägga en eftermiddag bara på att nå ”tillräckligt bra”, och sedan en runda till eftersom resultatet inte är konsekvent mellan produkter. Den verkliga kostnaden är kontextbytena. Du jonglerar promptar på ett ställe, renderprogress på ett annat och ”slutlänkar” i ett kalkylark eller en e-posttråd som ingen litar på.

Det drar snabbt iväg. Här är var det brukar fallera i vardagen.

  • Varje produkt blir ett specialfall, så kvaliteten beror på vem som senast rörde Blender-filen.
  • Förpackning och texturer kommer i olika format, vilket gör att du tappar tid på att normalisera assets innan du ens kan rendera.
  • Renderprogress är lätt att ”starta och glömma” tills du inser att det kraschade över natten och inget levererades.
  • Utan en databaslogg renderar team om sådant de redan betalat för, eftersom länkar och specifikationer inte lagras centralt.

Lösningen: en prompt in, Blender-showcase ut (loggat i PostgreSQL)

Det här flödet startar med en enkel webhook-förfrågan som innehåller din productPrompt. Därifrån gör Claude (via Anthropic) om idén i klartext till strukturerade 3D-specar, som material, färger, mått och scenanvisningar du faktiskt kan bygga på. De specifikationerna driver bildgenerering för förpackningsvisuals och skapande av texturatlas, så att dina assets matchar konceptet i stället för att glida över tid. Därefter genererar flödet ett Blender Python-skript som sätter upp geometri, en professionell 3-punktsljussättning, kamerainramning och en 8 sekunders 360° rotationsanimation. Slutligen renderar det en förhandsbild, startar videorendering, laddar upp den färdiga videon till din hostingtjänst och lagrar hela körningen i PostgreSQL så att resultatet är lätt att hitta senare.

Flödet börjar när du POST:ar till /product-showcase. AI bygger koncept och assets, och Blender-rendering orkestreras via HTTP-anrop och statuskontroller. När renderingen är klar får du ett strukturerat svarspaket plus en databaspost som du kan återanvända för revisioner eller framtida varianter.

Vad du får: automation vs. resultat

Exempel: så här ser det ut

Säg att du lanserar 5 nya produkter per månad och att varje produkt behöver en kort 8 sekunders 360° showcase. Manuellt innebär en vettig första version ofta cirka 2 timmar setup (assets, ljussättning, kamera, animation) plus en timme till för rendering, uppladdning och dokumentation av länkar, så du hamnar runt 15 timmar i månaden. Med det här flödet skickar du in en prompt per produkt (ett par minuter), väntar på preview och videoprocessning och sen är du klar. Realistiskt får du tillbaka ungefär 10 timmar per månad och ett tydligare spår i PostgreSQL.

Det här behöver du

  • n8n-instans (prova n8n Cloud gratis)
  • Självhostat alternativ om du föredrar det (Hostinger fungerar bra)
  • Anthropic API för Claude-koncept/spec-generering
  • OpenAI API för att generera förpackningsvisuals och texturer
  • PostgreSQL för att lagra promptar, assets och länkar
  • Videohostingtjänst för att publicera slutlig showcase-URL
  • Anthropic API-nyckel (hämta den i Anthropic-konsolen)
  • OpenAI API-nyckel (hämta den i OpenAI-dashboarden)

Kunskapsnivå: Avancerad. Du är bekväm med att konfigurera API-credentials, kontrollera webhook-payloads och validera rendering-endpoints.

Vill du inte sätta upp det här själv? Prata med en automationsexpert (gratis 15-minuters konsultation).

Så fungerar det

En webhook-förfrågan kickar igång allt. Du skickar en POST till flödets endpoint med productPrompt. Den prompten blir den enda ”källan till sanning” för hela körningen.

Konceptet struktureras till byggbara specar. Claude genererar en detaljerad uppdelning (mått, material, färger), och sedan tolkar flödet det till fält som efterföljande verktyg kan använda utan gissningar.

Assets genereras och slås ihop. DALL-E tar fram förpackningsvisuals, texturkartor skapas och n8n kombinerar allt till ett konsekvent assetpaket så att Blender inte matas med inputs som inte matchar varandra.

Blender-output produceras och spåras. Ett Blender Python-skript genereras, en förhandsrender skapas, videorenderingen körs och den slutliga filen laddas upp till din videohost. n8n övervakar status med retry-logik, returnerar slutsvaret och skriver hela posten till PostgreSQL.

Du kan enkelt ändra hostingdestinationen så att den passar din stack och dina behov. Se hela implementationsguiden nedan för anpassningsalternativ.

Steg-för-steg-guide för implementering

Steg 1: Konfigurera webhook-triggern

Det här arbetsflödet startar när en POST-begäran träffar den inkommande webhook-endpointen.

  1. Lägg till noden Inbound Webhook Start och ställ in HTTP MethodPOST.
  2. Ställ in Pathproduct-showcase och behåll Response Mode som responseNode.
  3. Säkerställ att webhooken är ansluten till AI Concept Builder.

Trigger-URL:er ändras när ni växlar mellan test och produktion i n8n. Kopiera alltid rätt webhook-URL för ert teststeg.

Steg 2: Konfigurera AI-konceptgeneratorn

Det här steget skapar produktkonceptet och förbereder strukturerad data för efterföljande skapande.

  1. Öppna AI Concept Builder och verifiera att den är ansluten till språkmodellens indata.
  2. Bekräfta att Gemini Chat Model är ansluten som språkmodell för AI Concept Builder.
  3. Behörighet krävs: Anslut era googlePalmApi-inloggningsuppgifter i Gemini Chat Model (inloggningsuppgifter konfigureras på modellen, inte på agenten).
  4. Behåll Interpret AI Output ansluten efteråt för att tolka AI-svaret.

⚠️ Vanlig fallgrop: Lägg inte till inloggningsuppgifter direkt i AI Concept Builder—anslut dem i Gemini Chat Model.

Steg 3: Konfigurera skapande av tillgångar och sammanslagning

Arbetsflödet genererar förpackningsvisuals och texturkartor och slår sedan ihop allt till en enda uppsättning tillgångar.

  1. I Create Package Visuals ställer ni in Model=dall-e-3 och behåller Prompt som {{ 'Professional product packaging design for ' + $json.productSpec.productName + '. ' + $json.productSpec.packaging.design + '. Colors: ' + $json.productSpec.colors.primary + ', ' + $json.productSpec.colors.secondary + '. Modern, clean, high-end commercial product photography style. 4K quality.' }}.
  2. Behörighet krävs: Anslut era openAiApi-inloggningsuppgifter i Create Package Visuals.
  3. I Create Texture Atlases ställer ni in Model=dall-e-3 och behåller Prompt som {{ 'High-quality texture map for ' + $json.productSpec.materials.join(', ') + ' material. Seamless, tileable, PBR ready. 4K resolution. Professional product rendering quality.' }}.
  4. Behörighet krävs: Anslut era openAiApi-inloggningsuppgifter i Create Texture Atlases.
  5. Säkerställ att Interpret AI Output skickar utdata till Create Package Visuals, Create Texture Atlases och Combine Asset Set parallellt.
  6. Ställ in Combine Asset Set till Mode combine och Combination Mode mergeByPosition.

Combine Asset Set förväntar sig matchade positioner från alla grenar. Se till att varje gren returnerar samma antal objekt för att undvika tomma sammanslagningar.

Steg 4: Bygg och rendera 3D-scenen

Den här fasen bygger scenen och triggar förhandsrendering, och går sedan vidare till videogenerering.

  1. Behåll Build 3D Scene Script ansluten efter Combine Asset Set.
  2. Bekräfta att Build 3D Scene Script skickar utdata till både Render 3D Preview och Handle Video Rendering parallellt.
  3. I Render 3D Preview ställer ni in URLhttps://api.replicate.com/v1/predictions, MethodPOST, och behåller Send Body och Send Headers aktiverade.
  4. Behåll uttrycket för body-parametern input som {{ { "prompt": "Professional 3D product render of " + $json.productSpec.productName + ", studio lighting, 8K, photorealistic, commercial photography", "width": 1024, "height": 1024 } }}.
  5. Säkerställ att Render 3D Preview är ansluten till Handle Video Rendering.

⚠️ Vanlig fallgrop: HTTP request-noderna kräver giltiga API-nycklar i headers; lägg till authorization-headers i Render 3D Preview och Upload to Video Host även om inloggningsuppgifter inte är konfigurerade i arbetsflödet.

Steg 5: Ladda upp och verifiera videorendering

Videorenderingen bearbetas och kontrolleras i en loop tills de slutliga tillgångarna är klara.

  1. Verifiera att Handle Video Rendering skickar utdata till både Upload to Video Host och Verify Render Status parallellt.
  2. I Upload to Video Host ställer ni in URL{{ $json.videoEncodingService || 'https://api.cloudflare.com/client/v4/accounts/[YOUR_ID]/stream' }} och behåller Method som POST.
  3. Behåll uttrycket för body-parametern meta som {{ { "name": $json.productName + "_showcase" } }}.
  4. I Verify Render Status bekräftar ni att villkoret kontrollerar att value1 {{ $json.renderStatus }} är lika med queued.
  5. Ställ in Pause for Render till att vänta Unit seconds och Amount 30, och loopa sedan tillbaka till Verify Render Status.

Render-loopen kan köra på obestämd tid om renderStatus aldrig uppdateras. Säkerställ att er renderingtjänst returnerar en statusändring så att loopen kan avslutas.

Steg 6: Sätt ihop svar och lagra resultat

När renderingen är klar bygger arbetsflödet ett svar och skickar tillbaka det till den som begärde det, samtidigt som datan lagras.

  1. Säkerställ att Assemble Final Response tar emot utdata från Upload to Video Host och från success-vägen i Verify Render Status.
  2. Bekräfta att Assemble Final Response skickar utdata till både Return Webhook Reply och Store in Database parallellt.
  3. I Return Webhook Reply ställer ni in Respond Withjson och Response Body{{ $json }}.
  4. I Store in Database ställer ni in Tableproduct_showcases och behåller Mapping Mode som autoMapInputData.
  5. Behörighet krävs: Anslut era postgres-inloggningsuppgifter i Store in Database.

Steg 7: Testa och aktivera ert arbetsflöde

Validera hela pipelinen från början till slut innan ni slår på den för produktionsanvändning.

  1. Klicka på Execute Workflow och skicka en test-POST-begäran till URL:en för Inbound Webhook Start.
  2. Verifiera att Create Package Visuals och Create Texture Atlases körs parallellt, och att Combine Asset Set slår ihop deras utdata.
  3. Bekräfta att Verify Render Status loopar via Pause for Render tills renderingen är klar.
  4. Kontrollera att Return Webhook Reply skickar ett JSON-svar och att Store in Database lägger in en rad i product_showcases.
  5. När allt fungerar växlar ni arbetsflödet till Active för produktionsanvändning.
🔒

Lås upp fullständig steg-för-steg-guide

Få den kompletta implementeringsguiden + nedladdningsbar mall

Vanliga fallgropar

  • Anthropic- eller OpenAI-credentials kan löpa ut eller sakna behörigheter. Om något slutar fungera, börja med att kontrollera n8n Credentials manager och din leverantörs sida för användning/nycklar.
  • Om du använder Wait-noder eller extern rendering varierar processtiderna. Öka väntetiden om efterföljande noder fallerar på tomma svar.
  • Standardpromptar i AI-noder är generiska. Lägg in er varumärkeston tidigt, annars kommer du att redigera output för alltid.

Vanliga frågor

Hur lång tid tar det att sätta upp den här Blender-videoautomationen?

Räkna med cirka 1–2 timmar om du redan har API-nycklar och en databas redo.

Behöver jag programmeringskunskaper för att automatisera Blender-videoautomation?

Nej, ingen kodning krävs för att köra det. Däremot är det bra att vara bekväm med att läsa JSON-svar och att testa en webhook-förfrågan.

Är n8n gratis att använda för det här arbetsflödet för Blender-videoautomation?

Ja. n8n har ett gratis självhostat alternativ och en gratis provperiod på n8n Cloud. Cloud-planer börjar på $20/månad för högre volym. Du behöver också räkna med kostnader för Anthropic/OpenAI API (oftast några cent per körning, beroende på bildgenerering).

Var kan jag hosta n8n för att köra den här automationen?

Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller självhosting på en VPS. För självhosting är Hostinger VPS prisvärd och hanterar n8n bra. Självhosting ger dig obegränsat antal körningar men kräver grundläggande serveradministration.

Kan jag anpassa det här arbetsflödet för Blender-videoautomation för Cloudflare Stream jämfört med en annan videohost?

Ja, men då byter du ut HTTP Request-noderna som laddar upp slutvideon och returnerar den publika URL:en. De flesta team anpassar svarspayloaden (så att den matchar interna verktyg), uppladdningsdestinationen och vilka databasfält som lagras i PostgreSQL-noden.

Varför misslyckas min PostgreSQL-anslutning i det här flödet?

Oftast handlar det om anslutningssträngen, IP-allowlist eller saknade SSL-inställningar hos din databasleverantör. Bekräfta att databasanvändaren har rätt att göra insert i måltabellen och testa sedan om PostgreSQL-credentialen i n8n. Om det fungerar i ett manuellt test men fallerar i flödet, kontrollera vilka fält som är null eller för stora (bild-URL:er och metadata kan överraska). Rate limits är ovanliga här; schema-mismatch är det inte.

Hur många videor kan den här Blender-videoautomationen hantera?

Det beror mer på din renderkapacitet och hosting än på n8n i sig. På n8n Cloud Starter begränsas du av månatliga körningar; på självhostat är det din server och din köstrategi. I praktiken kör team detta i batcher (t.ex. 10–50 koncept) och lutar sig mot statuskontroll + wait-loop för stabilitet.

Är den här Blender-videoautomationen bättre än att använda Zapier eller Make?

För AI-tunga renderflöden är n8n oftast bättre eftersom du kan förgrena, göra retries, slå ihop assets och styra hela svaret utan att betala extra för varje villkorsgren. Det hanterar också ”långkörande” jobb bättre eftersom du kan kontrollera renderstatus aktivt och vänta. Zapier och Make kan fungera, helt ärligt, men du kommer känna friktionen när du lägger till retries, databaser och flerstegs-assetgenerering. Vill du ha hjälp att välja, prata med en automationsexpert.

Du sätter standarden en gång, sedan fortsätter flödet att leverera på den. De repetitiva delarna försvinner, och du får till slut konsekventa 3D-showcase-resultat som du dessutom kan hitta igen senare.

Kontakta oss

Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.

×

Använd mall

Få direkt tillgång till denna n8n-arbetsflödes JSON-fil

Launch login modal Launch register modal