Du sätter dig för att “bara skriva ett utkast”, och plötsligt jagar du fakta i Drive-mappar, gamla PDF:er och halvt ihågkomna dokument. Sedan ger AI:n dig något som låter självsäkert men inte kan visa källorna. Nu sitter du fast och skriver om, dubbelkollar och hoppas att du inte missade en kritisk detalj.
Den här Google Drive citations-lösningen träffar content marketers först, eftersom hastighet spelar roll. Men agency leads och tekniska skribenter känner samma smärta på ett annat sätt: trovärdighet, godkännanden och färre vändor fram och tillbaka. Målet är enkelt. Du tar fram utkast som är förankrade i dina egna filer, med källänkar inkluderade.
Nedan ser du hur arbetsflödet planerar artikeln, gör research mot din kunskapsbas (inklusive Drive och PDF:er) och sedan skriver ett korrekt formaterat utkast som är enklare att publicera med trygghet.
Så fungerar automatiseringen
Se hur detta löser problemet:
n8n Workflow Template: Google Drive + OpenAI: källbaserade utkast du kan lita på
flowchart LR
subgraph sg0["New article form Flow"]
direction LR
n0@{ icon: "mdi:robot", form: "rounded", label: "New content - generate resea..", pos: "b", h: 48 }
n1@{ icon: "mdi:swap-vertical", form: "rounded", label: "Format question and answer", pos: "b", h: 48 }
n2@{ icon: "mdi:robot", form: "rounded", label: "New content - Generate the A..", pos: "b", h: 48 }
n3["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/form.svg' width='40' height='40' /></div><br/>New article form"]
n4@{ icon: "mdi:swap-vertical", form: "rounded", label: "Prepare form values", pos: "b", h: 48 }
n5@{ icon: "mdi:robot", form: "rounded", label: "Structured Output Parser", pos: "b", h: 48 }
n6@{ icon: "mdi:brain", form: "rounded", label: "GPT 5 mini", pos: "b", h: 48 }
n7@{ icon: "mdi:swap-vertical", form: "rounded", label: "Split Out Questions", pos: "b", h: 48 }
n8@{ icon: "mdi:swap-vertical", form: "rounded", label: "Loop Over Questions", pos: "b", h: 48 }
n9["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/httprequest.dark.svg' width='40' height='40' /></div><br/>Query Super Assistant"]
n10@{ icon: "mdi:brain", form: "rounded", label: "GPT 5 chat", pos: "b", h: 48 }
n11@{ icon: "mdi:swap-vertical", form: "rounded", label: "Article result", pos: "b", h: 48 }
n12@{ icon: "mdi:cog", form: "rounded", label: "Aggregate research content", pos: "b", h: 48 }
n10 -.-> n2
n6 -.-> n0
n3 --> n4
n8 --> n12
n8 --> n9
n4 --> n0
n7 --> n8
n9 --> n1
n5 -.-> n0
n12 --> n2
n1 --> n8
n2 --> n11
n0 --> n7
end
%% Styling
classDef trigger fill:#e8f5e9,stroke:#388e3c,stroke-width:2px
classDef ai fill:#e3f2fd,stroke:#1976d2,stroke-width:2px
classDef aiModel fill:#e8eaf6,stroke:#3f51b5,stroke-width:2px
classDef decision fill:#fff8e1,stroke:#f9a825,stroke-width:2px
classDef database fill:#fce4ec,stroke:#c2185b,stroke-width:2px
classDef api fill:#fff3e0,stroke:#e65100,stroke-width:2px
classDef code fill:#f3e5f5,stroke:#7b1fa2,stroke-width:2px
classDef disabled stroke-dasharray: 5 5,opacity: 0.5
class n3 trigger
class n0,n2,n5 ai
class n6,n10 aiModel
class n9 api
classDef customIcon fill:none,stroke:none
class n3,n9 customIcon
Utmaningen: utkast du inte kan försvara
Om du publicerar något som påstår sig vara expertis räcker “det låter rätt” inte. Verkligheten är att de flesta team skriver utkast utifrån en rörig mix av interna dokument, kund-PDF:er, mötesanteckningar och halvt uppdaterade riktlinjer. När du ber en generell AI-modell att skriva från noll fyller den ofta luckor med detaljer som låter rimliga (och den gör det snabbt). Sedan börjar det riktiga arbetet: verifiera, hitta källor, skriva om avsnitt och försöka få texten att stämma med hur företaget faktiskt tänker och uttrycker sig. Ärligt talat är det utmattande.
Det drar iväg snabbt. Här är var det faller isär.
- Du tappar cirka 1–2 timmar per artikel på att leta efter “rätt dokument” i Google Drive och öppna PDF:er igen för att bekräfta en enda mening.
- AI-genererade stycken kan smyga in felaktigheter, vilket gör att din granskningsrunda blir ett faktacheck-projekt i stället för en redaktionell genomgång.
- Källhänvisningar läggs in sist (om de ens läggs in), så trovärdighet och regelefterlevnad blir en stressig insats precis före publicering.
- Skribenter och ämnesexperter (SME) får svara på samma frågor om och om igen i Slack eller kommentarer eftersom utkastet inte speglade det interna källmaterialet.
Lösningen: research-först med länkade källor
Det här arbetsflödet vänder på det vanliga upplägget. I stället för att prompta OpenAI att “skriva en artikel om X” och hoppas på det bästa börjar det med att planera researchen. Du skickar in en artikelrubrik och några riktlinjer via ett enkelt beställningsformulär. En AI-planerare bryter sedan ner ämnet i en handfull fokuserade delfrågor (oftast 5 till 8), på samma sätt som en bra redaktör skulle göra. Därefter loopar arbetsflödet igenom frågorna och frågar din förkonfigurerade assistent som är kopplad till dina kunskapskällor som Google Drive-mappar och PDF:er. Svaren och källänkarna samlas i en enda research-brief. Först därefter genererar AI-skribenten utkastet, med briefen som enda referens, och placerar käll-URL:erna direkt i artikeln som hyperlänkar.
Arbetsflödet startar med din formulärinskickning i n8n. Därifrån tar OpenAI fram researchplanen, sedan hämtar automatiseringen evidensbaserade svar från din anslutna kunskapsbas via en HTTP Request. Slutligen skriver OpenAI artikeln utifrån resultaten och arbetsflödet sätter ihop ett färdigt output som går att dela.
Vad som förändras: före vs. efter
| Vad detta eliminerar | Effekten du kommer se |
|---|---|
|
|
Effekt i verkligheten
Säg att du publicerar 3 artiklar i veckan och att varje artikel behöver research motsvarande cirka 6 delfrågor. Manuellt är det vanligt att lägga runt 10 minuter per fråga på att hitta ett relevant Drive-dokument eller ett PDF-utdrag, plus ytterligare en timme på att sy ihop briefen till ett utkast. Det är ungefär 4 timmar per artikel. Med det här arbetsflödet skickar du in formuläret på cirka 5 minuter, låter det köra medan det samlar svar och skriver, och gör sedan en snabb redaktionell genomgång. Många team får ner de där 4 timmarna till cirka 1 timme per artikel.
Krav
- n8n-instans (prova n8n Cloud gratis)
- Självhostningsalternativ om du föredrar det (Hostinger fungerar bra)
- Google Drive för att lagra dokumenten och PDF:erna du litar på.
- OpenAI för att planera frågor och skriva utkastet.
- Super Assistant API-token (hämta den i inställningarna för din Super-workspace).
Svårighetsnivå: Mellan. Du kopplar in credentials, klistrar in ett Assistant ID/token och gör några mindre justeringar av prompter och fält.
Behöver du hjälp att implementera detta? Prata med en automationsexpert (gratis 15-minuters konsultation).
Flödet i arbetsflödet
Ett beställningsformulär sätter igång. Du skickar in artikelrubriken och eventuella riktlinjer (ton, målgrupp, nyckelpunkter) via den inbyggda n8n form trigger. Ingen specialformatering krävs.
Ämnet bryts ner till researchfrågor. OpenAI genererar en kort lista med delfrågor, och sedan städar en strukturerad parser upp outputen så att arbetsflödet kan loopa igenom den pålitligt. Det här är viktigare än det låter, eftersom stökig AI-output kan skapa fel i automatiseringar.
Research körs mot dina källor. n8n itererar igenom varje fråga i batchar och anropar din “Super assistant” via HTTP Request. Den assistenten är där dina kunskapskällor finns, inklusive Google Drive-mappar och PDF:er, så varje svar kommer tillbaka med relevanta källänkar.
Ett slutligt utkast komponeras och sätts ihop. n8n aggregerar frågor och svar till en enda brief, sedan skriver OpenAI hela artikeln med briefen som enda underlag och bäddar in källhänvisningarna som hyperlänkar. Sista “set”-steget paketerar slutresultatet så att du kan kopiera in det i ditt CMS eller skicka det till en redaktör.
Du kan enkelt justera formulärfälten för att samla in SEO-nyckelord eller lägga till striktare skrivkrav utifrån dina behov. Se hela implementeringsguiden nedan för anpassningsalternativ.
Steg-för-steg-guide för implementering
Steg 1: Konfigurera formulärtriggern
Konfigurera arbetsflödets startpunkt så att användare kan skicka in artikelönskemål via ett formulär.
- Lägg till noden Article Request Form som din trigger.
- Ställ in Form Title på
New article. - Ställ in Form Description på
Fill in this form to trigger the generation of a new article.. - Lägg till två fält: Article title (obligatoriskt) och Article guidelines (obligatoriskt), som matchar platshållarna i noden.
Steg 2: Anslut OpenAI-chattmodeller
Konfigurera språkmodellerna som används för frågegenerering och slutlig textproduktion.
- Öppna Mini GPT Model och välj modellen
gpt-5-mini. - Öppna GPT Chat Model och välj modellen
gpt-5-chat-latest. - Autentiseringsuppgifter krävs: Anslut era OpenAI-autentiseringsuppgifter i både Mini GPT Model och GPT Chat Model.
- Bekräfta att Mini GPT Model är ansluten som språkmodell för Draft Research Questions, och att GPT Chat Model är ansluten för Compose Final Article.
Steg 3: Konfigurera input-mappning och frågegenerering
Mappa formulärvärden till rena fält och generera en strukturerad lista med researchfrågor.
- I Prepare Input Values mappar ni Title till
{{ $json['Article title'] }}och Guidelines till{{ $json['Article guidelines'] }}. - I Draft Research Questions ställer ni in Text till
=Content title: {{ $json.Title }} Article guidelines: {{ $json.Guidelines }}. - Säkerställ att Draft Research Questions har hasOutputParser aktiverat och är ansluten till Structured Parse Output som output parser.
- I Structured Parse Output behåller ni JSON Schema Example som returnerar en array av
{"question": "..."}-objekt. - Koppla flödet: Article Request Form → Prepare Input Values → Draft Research Questions → Explode Question List.
Steg 4: Konfigurera frågeiterering och researchanrop
Dela upp frågelistan i enskilda objekt, anropa den externa assistenten och mappa Q&A-resultaten.
- I Explode Question List ställer ni in Field to Split Out till
output. - Använd Iterate Question Batch för att iterera igenom varje fråga.
- Iterate Question Batch skickar output parallellt till både Aggregate Research Data och Call Super Assistant.
- I Call Super Assistant ställer ni in URL till
https://api.super.work/v1/super, Method tillPOST, och aktiverar Send Body. - Ställ in body-parametrar: question till
{{ $json.question }}och assistantId till[YOUR_ID]. - I Map Q&A Fields ställer ni in Question till
{{ $('Iterate Question Batch').item.json.question }}och Answer till{{ $json.answer.replace(/\{\[(\d+)\]\((.*?)\)\}/g, '([source]($2))') }}.
[YOUR_ID] i Call Super Assistant med ett riktigt assistant-ID innan ni testar.Steg 5: Aggreggera research och skapa artikeln
Aggreggera alla Q&A-resultat och skicka dem till steget för slutlig artikelkomposition.
- I Aggregate Research Data ställer ni in Aggregate till
aggregateAllItemDataoch Destination Field Name tillContent to leverage. - Anslut Aggregate Research Data till Compose Final Article.
- I Compose Final Article ställer ni in Text till
=Article title: {{ $('Prepare Input Values').first().json.Title }} Article guidelines: {{ $('Prepare Input Values').first().json.Guidelines }} Content to leverage: This Q&A research provides high-quality knowledge, insights, and sources for your content. Be sure to include source links in your output whenever a source was used. {{ JSON.stringify($json['questions and answers'], null, 2) }}. - Säkerställ att GPT Chat Model är ansluten som språkmodell för Compose Final Article.
Steg 6: Konfigurera slutlig output
Mappa den slutliga utkasttexten till ett rent output-fält för vidare användning.
- I Assemble Article Output ställer ni in Article till
{{ $json.text }}. - Bekräfta den sista kopplingen: Compose Final Article → Assemble Article Output.
Steg 7: Testa och aktivera ert arbetsflöde
Kör ett manuellt test för att validera hela pipelinen och aktivera sedan arbetsflödet för produktionsanvändning.
- Klicka på Execute Workflow och skicka in Article Request Form med ett exempel på titel och riktlinjer.
- Verifiera att Draft Research Questions outputar en JSON-array med frågor och att Explode Question List delar upp dem i objekt.
- Bekräfta att Call Super Assistant returnerar svar och att Aggregate Research Data sammanställer all Q&A till en payload.
- Kontrollera Assemble Article Output för ett enda Article-fält som innehåller hela utkastet.
- När det fungerar, slå på arbetsflödet till Active för att tillåta liveinlämningar via formuläret.
Se upp med
- Google Drive-credentials kan löpa ut eller kräva specifika behörigheter. Om något slutar fungera, kontrollera först n8n:s Google Drive-credential och delningsinställningarna för mappen.
- Om du använder Wait-noder eller extern rendering varierar bearbetningstiderna. Öka väntetiden om nedströmsnoder failar på tomma svar.
- Standardprompter i AI-noder är generiska. Lägg in din varumärkesröst tidigt, annars kommer du redigera output i all evighet.
Vanliga frågor
Cirka 30 minuter om dina konton är redo.
Ja, men du vill ha en person som är bekväm med att koppla credentials. Efter det handlar det mest om formulärinmatning och promptjusteringar.
Ja. n8n har ett gratis självhostat alternativ och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna in kostnader för OpenAI API och din Super-plan, beroende på vad du kopplar in.
Två alternativ: n8n Cloud (hanterat, enklast setup) eller självhostning på en VPS. För självhostning är Hostinger VPS prisvärt och hanterar n8n bra. Självhostning ger dig obegränsade körningar men kräver grundläggande serveradministration.
Du kan justera fälten i Article Request Form för att samla in saker som mål-nyckelord, produktvinkel eller källor som “måste ingå”. De flesta team finjusterar också prompten “Draft Research Questions” för att matcha deras redaktionella standard, och skärper sedan instruktionerna i “Compose Final Article” så att modellen håller sig till briefen och behåller källhänvisningarna intakta.
Oftast beror det på en utgången Google OAuth-token eller att Drive-mappen inte är delad med det anslutna kontot. Anslut Google Drive-credential på nytt i n8n och bekräfta sedan att assistenten faktiskt kan se mappen och PDF:erna du förväntar dig. Om du använder delade enheter (shared drives) är behörigheterna striktare och saknad åtkomst är vanligt. Rate limits kan också dyka upp när du kör stora batchar, så sänk tempot i loopen om du ser intermittent fel.
Det beror på var du kör n8n och hur många frågor du genererar per artikel. På n8n Cloud Starter begränsas du av dina månatliga executions, medan självhostning inte har någon plattformsgräns för körningar (din server blir gränsen). I praktiken kör de flesta team några dussin artiklar i veckan utan problem så länge Super-assistentens och OpenAI:s rate limits inte pressas hårt.
Ofta ja, eftersom det här arbetsflödet behöver loopar, aggregering och tajtare kontroll över hur AI-output parsas och återanvänds. n8n hanterar den typen av mönster “planerare → research-loop → konsoliderad brief → skribent” utan att bli en skör kedja av zaps. Zapier eller Make kan fortfarande fungera om du håller det litet, som en fråga och ett utkast, men du når komplexitet snabbt. Om du vill, prata med en automationsexpert så säger vi rakt ut vilken väg som är enklast för din setup.
När dina utkast kommer med källhänvisningar från din egen Google Drive och PDF:er blir granskningen lugnare och publiceringen går snabbare. Sätt upp det en gång, och låt sedan arbetsflödet göra grovjobbet.
Kontakta oss
Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.