Din ”dokumentationsprocess” ser förmodligen ut så här: någon levererar ett workflow, sedan ligger en halvfärdig doc i Google Drive, och sedan fylls Slack av frågor som ”hur funkar det här?”. Till slut skriver du klart, men formateringen är fel, stegen saknas, och du slutar med att skriva om samma avsnitt igen.
Det här slår extra hårt mot marketing ops-team, eftersom de inte kan skala repeterbara kampanjer utan tydliga runbooks. Byråägare märker det när kundöverlämningar blir till trådar med 20 meddelanden. Och om du är developer advocate känner du redan smärtan i att publicera ”nästan bra” docs. Den här Drive doc automation tar ett workflow-JSON och gör om det till felfri, publiceringsklar markdown på några minuter.
Du får se vad den genererar, varför det håller sig konsekvent (även mellan olika författare) och vad du behöver för att få igång den utan att det blir ett IT-projekt.
Så fungerar den här automatiseringen
Se hur den här löser problemet:
n8n Workflow Template: Google Drive + Gemini: dokument skrivna åt dig
flowchart LR
subgraph sg0["On form submission Flow"]
direction LR
n0["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/form.svg' width='40' height='40' /></div><br/>On form submission"]
n1@{ icon: "mdi:cog", form: "rounded", label: "Extract from File", pos: "b", h: 48 }
n2@{ icon: "mdi:memory", form: "rounded", label: "n8n kb", pos: "b", h: 48 }
n3["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/httprequest.dark.svg' width='40' height='40' /></div><br/>Parse Document via LlamaIndex"]
n4["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/httprequest.dark.svg' width='40' height='40' /></div><br/>Monitor Document Processing"]
n5@{ icon: "mdi:swap-horizontal", form: "rounded", label: "Check Parsing Completion", pos: "b", h: 48 }
n6@{ icon: "mdi:cog", form: "rounded", label: "Wait Before Status Recheck", pos: "b", h: 48 }
n7["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/httprequest.dark.svg' width='40' height='40' /></div><br/>Retrieve Parsed Content"]
n8@{ icon: "mdi:cog", form: "rounded", label: "Download Knowledge Document", pos: "b", h: 48 }
n9@{ icon: "mdi:play-circle", form: "rounded", label: "Knowledge Base Updated Trigger", pos: "b", h: 48 }
n10@{ icon: "mdi:robot", form: "rounded", label: "Reranker Cohere", pos: "b", h: 48 }
n11@{ icon: "mdi:vector-polygon", form: "rounded", label: "Embedd 004", pos: "b", h: 48 }
n12@{ icon: "mdi:brain", form: "rounded", label: "GEmini 2.5 pro", pos: "b", h: 48 }
n13@{ icon: "mdi:memory", form: "rounded", label: "N8N KB", pos: "b", h: 48 }
n14@{ icon: "mdi:robot", form: "rounded", label: "n8ncreator", pos: "b", h: 48 }
n15@{ icon: "mdi:robot", form: "rounded", label: "Data Loader", pos: "b", h: 48 }
n2 -.-> n14
n11 -.-> n2
n11 -.-> n13
n15 -.-> n13
n12 -.-> n14
n10 --> n2
n1 --> n14
n0 --> n1
n7 --> n13
n5 --> n7
n5 --> n6
n6 --> n4
n8 --> n3
n4 --> n5
n3 --> n4
n9 --> n8
end
%% Styling
classDef trigger fill:#e8f5e9,stroke:#388e3c,stroke-width:2px
classDef ai fill:#e3f2fd,stroke:#1976d2,stroke-width:2px
classDef aiModel fill:#e8eaf6,stroke:#3f51b5,stroke-width:2px
classDef decision fill:#fff8e1,stroke:#f9a825,stroke-width:2px
classDef database fill:#fce4ec,stroke:#c2185b,stroke-width:2px
classDef api fill:#fff3e0,stroke:#e65100,stroke-width:2px
classDef code fill:#f3e5f5,stroke:#7b1fa2,stroke-width:2px
classDef disabled stroke-dasharray: 5 5,opacity: 0.5
class n0,n9 trigger
class n10,n14,n15 ai
class n12 aiModel
class n2,n13 ai
class n11 ai
class n5 decision
class n3,n4,n7 api
classDef customIcon fill:none,stroke:none
class n0,n3,n4,n7 customIcon
Utmaningen: konsekventa docs som inte äter upp hela veckan
Att skriva workflow-dokumentation låter enkelt tills du är personen som ansvarar för kvaliteten. Du jonglerar skärmdumpar, nodnamn, edge cases och ”varför” bakom automatiseringen, och försöker sedan pressa in allt i en mall som ingen följer. Det värsta är andra varvet: formateringsfixar, saknade förkrav, otydliga steg och den där granskaren som vill ha ”mer detaljer” utan att säga vilka. Och när docs levereras sent eller rörigt låter supporten mer och adoptionen sjunker, även om automatiseringen i sig är riktigt bra.
Det bygger upp snabbt. Här är var det fallerar i praktiken.
- Folk skriver utifrån minnet, så viktiga installationssteg hoppas över och kollegor stöter på onödiga fel.
- Docs blir inkonsekventa mellan projekt, vilket gör att granskare lägger tid på att polisa struktur i stället för att förbättra innehåll.
- Manuell copy-paste från workflow-JSON bjuder in små misstag (fel trigger, saknad notis om credentials) som kostar timmar senare.
- Publicering blir en flaskhals eftersom bara en person kan ”rätt sätt” att formatera och paketera inlägget.
Lösningen: ladda upp ditt workflow-JSON, få publiceringsklar markdown
Det här workflowet tar en exporterad n8n workflow-JSON-fil och gör om den till ett strukturerat markdown-inlägg som du kan publicera direkt. Det börjar med ett enkelt uppladdningsformulär i n8n, så du slipper krångla med mappar, namngivningsregler eller manuell parsing. När JSON:en är extraherad läser en AI-agent (driven av Google Gemini 2.5 Pro) workflowet som en granskare skulle göra: vad som triggar det, vad nyckelnoderna gör och vad en läsare behöver för att lyckas använda det. Sedan hämtar den vägledning för ”hur man skriver detta på rätt sätt” från dina dokumentationsregler lagrade i Google Drive, så att resultatet följer samma best practice varje gång. Ut kommer felfri markdown, redo att klistra in i ett community-inlägg, en intern wiki, en kundleverans eller en blogg-pipeline.
Workflowet startar med en filuppladdning. Gemini analyserar workflow-strukturen medan en LlamaIndex-baserad kunskapsbas säkerställer formatering och fullständighet. Till sist får du ett polerat markdown-utkast som output (inga extra verktyg, inga extra prenumerationer krävs för själva skrivandet).
Vad som förändras: före vs. efter
| Det här eliminerar | Effekten du kommer att se |
|---|---|
|
|
Effekt i verkligheten
Säg att du publicerar 5 workflows i veckan. Manuellt tar en bra, community-klar genomgång ofta över en timme styck när du räknar in formatering, förkrav och en kort felsökningsdel, så du bränner cirka 5 timmar i veckan. Med det här workflowet laddar du upp JSON:en (ungefär en minut), väntar på AI-körningen (cirka en minut) och kopierar markdown-resultatet. Det är nästan 5 timmar tillbaka varje vecka, och diskussionen om ”följde vi riktlinjerna?” försvinner till stor del.
Krav
- n8n-instans (testa n8n Cloud gratis)
- Self-hosting-alternativ om du föredrar det (Hostinger fungerar bra)
- Google Drive för att lagra ditt dokument med dokumentationsriktlinjer.
- Google Gemini för att generera markdown-utkastet.
- LlamaIndex Cloud API-nyckel (hämta den i din LlamaIndex Cloud-dashboard).
Kunskapsnivå: Medel. Du kopplar några credentials och redigerar en prompt, men du behöver inte skriva kod.
Behöver du hjälp att implementera detta? Prata med en automationsexpert (gratis 15-minuters konsultation).
Workflow-flödet
En workflow-JSON-uppladdning startar allt. Du skickar in en exporterad n8n-workflowfil via en inbyggd formulärtrigger, så processen blir konsekvent och enkel att lämna över.
JSON:en extraheras och förbereds för analys. n8n läser den uppladdade filen, plockar ut workflow-strukturen (noder, metadata, kopplingar) och skickar den till skrivagenten som strukturerad input.
Dina riktlinjer används som ”husstil”. Om du har kopplat Google Drive kan en Drive-uppdateringstrigger hämta din senaste riktlinje-doc, skicka den till LlamaIndex för parsing och lagra den i en kunskapsbas i minnet. Cohere reranking (valfritt) hjälper agenten att hitta rätt riktlinjeutdrag när den bestämmer struktur och formatering.
Gemini skriver själva inlägget. LangChain-agenten använder Gemini 2.5 Pro för att generera en nyttodriven markdown-artikel som följer riktlinjerna den hämtade, och returnerar sedan den markdownen som workflow-output.
Du kan enkelt ändra skrivstil och målplattform (community-inlägg vs. intern SOP) efter dina behov. Se hela implementationsguiden nedan för anpassningsalternativ.
Steg-för-steg-guide för implementering
Steg 1: konfigurera formulärtriggern
Konfigurera formuläret som tar emot uppladdningar av workflow-JSON och startar flödet för innehållsgenerering.
- Lägg till noden Form Submission Trigger och ställ in Form Title till
Test Json. - I Form Fields lägger ni till ett fält av typen File med etiketten
Input Json Workflowoch ställer Required till On. - Ställ in Accept File Types till
.jsonför att begränsa uppladdningar till workflow-JSON-filer.
Input_Json_Workflow för efterföljande parsning.Steg 2: parsa och generera workflow-innehåll
Konvertera den uppladdade JSON:en till en strukturerad payload och skicka den till agenten för generering av markdown.
- Lägg till Parse Uploaded File och ställ in Operation till
fromJson. - Ställ in Destination Key till
workflowoch Binary Property Name tillInput_Json_Workflow. - Koppla Parse Uploaded File till Workflow Content Agent.
- I Workflow Content Agent ställer ni Text till
={{ $json.workflow }}och behåller Prompt Type somdefine.
workflow.Steg 3: konfigurera Google Drive-trigger och filnedladdning
Övervaka ett kunskapsdokument i Google Drive och ladda ned det när det uppdateras för parsning.
- Lägg till Drive File Update Trigger och ställ in Trigger On till
specificFile. - Välj filen i File to Watch (ersätt
[YOUR_ID]med ert fil-ID). - Inloggning krävs: Anslut era
googleDriveOAuth2Api-uppgifter i Drive File Update Trigger. - Lägg till Download Knowledge File med Operation satt till
downloadoch samma fil-ID. - Inloggning krävs: Anslut era
googleDriveOAuth2Api-uppgifter i Download Knowledge File.
Steg 4: skicka filen till LlamaIndex och polla tills det är klart
Ladda upp filen för parsning och polla sedan tills jobbstatusen är lyckad.
- Lägg till LlamaIndex Parse Request och ställ in URL till
https://api.cloud.llamaindex.ai/api/v1/parsing/uploadoch Method tillPOST. - Aktivera Send Body, ställ in Content Type till
multipart-form-dataoch mappa filen till Body Parameters somfilefråndata. - Inloggning krävs: Anslut era
httpHeaderAuth-uppgifter i LlamaIndex Parse Request. - Lägg till Track Parsing Job med URL satt till
=https://api.cloud.llamaindex.ai/api/v1/parsing/job/{{ $json.id }}. - Inloggning krävs: Anslut era
httpHeaderAuth-uppgifter i Track Parsing Job. - Konfigurera Verify Parse Status för att kontrollera att Left Value
={{ $json.status }}är lika medSUCCESS. - Om den inte är lyckad, routa till Pause Before Recheck och ställ in Amount till
10sekunder, och loopa sedan tillbaka till Track Parsing Job.
Steg 5: hämta markdown och lägg in i kunskapslagret
När parsningen lyckas hämtar ni markdown och lägger in den i den in-memory-baserade kunskapsbasen för återhämtning.
- Lägg till Fetch Parsed Markdown med URL satt till
=https://api.cloud.llamaindex.ai/api/v1/parsing/job/{{ $json.id }}/result/markdown. - Inloggning krävs: Anslut era
httpHeaderAuth-uppgifter i Fetch Parsed Markdown. - Lägg till Knowledge Store Insert och ställ in Mode till
insertmed Memory Keyn8n KB. - Koppla Default Document Loader till Knowledge Store Insert som AI-dokumentkälla.
- Koppla Gemini Embedding Builder till Knowledge Store Insert för embeddings.
Steg 6: konfigurera stacken för AI-retrieval och reranking
Koppla kunskapsbasverktyget med embeddings, reranking och Gemini-chattmodellen för att stödja agenten.
- Konfigurera Knowledge Store Tool med Mode
retrieve-as-tool, Tool Nameknowledge_baseoch aktiverad Use Reranker. - Koppla Cohere Rerank Engine till Knowledge Store Tool som AI-reranker.
- Inloggning krävs: Anslut era
cohereApi-uppgifter i Cohere Rerank Engine. - Koppla Gemini Embedding Builder som embedding-källa för Knowledge Store Tool.
- Inloggning krävs: Anslut era
googlePalmApi-uppgifter i Gemini Embedding Builder. - Koppla Gemini Pro Chat Model till Workflow Content Agent och ställ in Model Name till
models/gemini-2.5-pro. - Inloggning krävs: Anslut era
googlePalmApi-uppgifter i Gemini Pro Chat Model.
Steg 7: testa och aktivera ert workflow
Verifiera båda trigger-vägarna och bekräfta att markdown genereras och lagras korrekt.
- Klicka Execute Workflow och skicka in en JSON-fil via Form Submission Trigger för att validera flödet för innehållsgenerering.
- Uppdatera den övervakade Drive-filen för att trigga Drive File Update Trigger och säkerställ att parsningen når Fetch Parsed Markdown.
- Bekräfta en lyckad körning när Verify Parse Status routar till Fetch Parsed Markdown och Knowledge Store Insert slutförs utan fel.
- Aktivera workflow:t med reglaget Active för användning i produktion.
Se upp för
- Google Drive OAuth-credentials kan löpa ut eller kräva specifika behörigheter. Om det skapar fel, kontrollera först n8n:s Credentials-vy och Drive-filens delningsinställningar.
- Om du använder Wait-noder eller extern parsing varierar bearbetningstider. Öka väntetiden om noder längre ned i flödet misslyckas på tomma svar.
- Standardprompter i Gemini-agenten är generiska. Lägg in er tonalitet tidigt, annars kommer du redigera output i all evighet.
Vanliga frågor
Cirka 30 minuter om du redan har dina API-nycklar.
Ja, men du vill göra en noggrann uppsättning en gång. Det mesta handlar bara om att koppla credentials och klistra in rätt nycklar i n8n.
Ja. n8n har ett gratis self-hosted-alternativ och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna in Gemini API-användning (oftast ören per körning) och eventuella LlamaIndex/Cohere-kostnader om du aktiverar de tjänsterna.
Två alternativ: n8n Cloud (hanterat, enklast uppsättning) eller self-hosting på en VPS. För self-hosting är Hostinger VPS prisvärt och klarar n8n bra. Self-hosting ger dig obegränsade körningar men kräver grundläggande serverhantering.
Börja med att redigera systemprompten i Workflow Content Agent (instruktionerna för agenten ”n8ncreator”). Om du vill ha andra riktlinjer byter du Google Drive-dokumentet som används av Drive File Update Trigger och noden Download Knowledge File. Vanliga anpassningar är att ändra output-format (intern SOP vs. offentlig tutorial), tvinga en specifik avsnittsordning och lägga till ett kort avsnitt om ”begränsningar” för supportteam.
Oftast beror det på en utgången OAuth-anslutning eller att Drive-filen saknar rätt delningsbehörigheter. Koppla om Google Drive-credential i n8n och bekräfta sedan att riktlinjedokumentet är åtkomligt för det Google-kontot. Om du använder en delad enhet (shared drive) ska du säkerställa att credential har åtkomst till den. Kontrollera också inställningarna för Drive-triggern, eftersom fel fil-ID kan se ut som ett auth-problem.
På n8n Cloud Starter brukar du klara lätta publiceringsscheman (hundratals till några tusen körningar per månad). Om du kör self-hosted finns ingen körningsgräns; kapaciteten beror främst på din server och API:ernas rate limits. Själva workflowet är ett primärt LLM-anrop per inlägg, plus extra anrop bara när du uppdaterar och parsar om riktlinje-kunskapsbasen.
Ofta, ja. Det här workflowet bygger på mer avancerad logik (loopar, vänteläget, felhantering) och ett agent + kunskapsbas-upplägg som är klumpigt och dyrt att återskapa i enklare automationsverktyg. n8n ger dig också en tydlig self-hosting-väg om du vill ha förutsägbara kostnader. Zapier eller Make kan fortfarande funka för ett grundflöde som ”ladda upp fil, anropa AI, klistra in resultat”, men då tappar du den riktlinje-efterlevnad som gör detta konsekvent. Om du väger alternativen, prata med en automationsexpert så får du en rak rekommendation.
Bra dokumentation ska inte bero på vem som hade tid den här veckan. Sätt upp det här en gång, så levererar du tydliga, konsekventa workflow-docs lika snabbt som du bygger själva automatiseringarna.
Kontakta oss
Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.