Behöver ert företag hjälp med att implementera AI? Kontakta oss och få prisoffert här →
AI Skolan
januari 22, 2026

Google Drive + OpenAI: källbaserade utkast du kan lita på

Rickard Andersson Partner, Nodenordic.se

Du sätter dig för att “bara skriva ett utkast”, och plötsligt jagar du fakta i Drive-mappar, gamla PDF:er och halvt ihågkomna dokument. Sedan ger AI:n dig något som låter självsäkert men inte kan visa källorna. Nu sitter du fast och skriver om, dubbelkollar och hoppas att du inte missade en kritisk detalj.

Den här Google Drive citations-lösningen träffar content marketers först, eftersom hastighet spelar roll. Men agency leads och tekniska skribenter känner samma smärta på ett annat sätt: trovärdighet, godkännanden och färre vändor fram och tillbaka. Målet är enkelt. Du tar fram utkast som är förankrade i dina egna filer, med källänkar inkluderade.

Nedan ser du hur arbetsflödet planerar artikeln, gör research mot din kunskapsbas (inklusive Drive och PDF:er) och sedan skriver ett korrekt formaterat utkast som är enklare att publicera med trygghet.

Så fungerar automatiseringen

Se hur detta löser problemet:

n8n Workflow Template: Google Drive + OpenAI: källbaserade utkast du kan lita på

Utmaningen: utkast du inte kan försvara

Om du publicerar något som påstår sig vara expertis räcker “det låter rätt” inte. Verkligheten är att de flesta team skriver utkast utifrån en rörig mix av interna dokument, kund-PDF:er, mötesanteckningar och halvt uppdaterade riktlinjer. När du ber en generell AI-modell att skriva från noll fyller den ofta luckor med detaljer som låter rimliga (och den gör det snabbt). Sedan börjar det riktiga arbetet: verifiera, hitta källor, skriva om avsnitt och försöka få texten att stämma med hur företaget faktiskt tänker och uttrycker sig. Ärligt talat är det utmattande.

Det drar iväg snabbt. Här är var det faller isär.

  • Du tappar cirka 1–2 timmar per artikel på att leta efter “rätt dokument” i Google Drive och öppna PDF:er igen för att bekräfta en enda mening.
  • AI-genererade stycken kan smyga in felaktigheter, vilket gör att din granskningsrunda blir ett faktacheck-projekt i stället för en redaktionell genomgång.
  • Källhänvisningar läggs in sist (om de ens läggs in), så trovärdighet och regelefterlevnad blir en stressig insats precis före publicering.
  • Skribenter och ämnesexperter (SME) får svara på samma frågor om och om igen i Slack eller kommentarer eftersom utkastet inte speglade det interna källmaterialet.

Lösningen: research-först med länkade källor

Det här arbetsflödet vänder på det vanliga upplägget. I stället för att prompta OpenAI att “skriva en artikel om X” och hoppas på det bästa börjar det med att planera researchen. Du skickar in en artikelrubrik och några riktlinjer via ett enkelt beställningsformulär. En AI-planerare bryter sedan ner ämnet i en handfull fokuserade delfrågor (oftast 5 till 8), på samma sätt som en bra redaktör skulle göra. Därefter loopar arbetsflödet igenom frågorna och frågar din förkonfigurerade assistent som är kopplad till dina kunskapskällor som Google Drive-mappar och PDF:er. Svaren och källänkarna samlas i en enda research-brief. Först därefter genererar AI-skribenten utkastet, med briefen som enda referens, och placerar käll-URL:erna direkt i artikeln som hyperlänkar.

Arbetsflödet startar med din formulärinskickning i n8n. Därifrån tar OpenAI fram researchplanen, sedan hämtar automatiseringen evidensbaserade svar från din anslutna kunskapsbas via en HTTP Request. Slutligen skriver OpenAI artikeln utifrån resultaten och arbetsflödet sätter ihop ett färdigt output som går att dela.

Vad som förändras: före vs. efter

Effekt i verkligheten

Säg att du publicerar 3 artiklar i veckan och att varje artikel behöver research motsvarande cirka 6 delfrågor. Manuellt är det vanligt att lägga runt 10 minuter per fråga på att hitta ett relevant Drive-dokument eller ett PDF-utdrag, plus ytterligare en timme på att sy ihop briefen till ett utkast. Det är ungefär 4 timmar per artikel. Med det här arbetsflödet skickar du in formuläret på cirka 5 minuter, låter det köra medan det samlar svar och skriver, och gör sedan en snabb redaktionell genomgång. Många team får ner de där 4 timmarna till cirka 1 timme per artikel.

Krav

  • n8n-instans (prova n8n Cloud gratis)
  • Självhostningsalternativ om du föredrar det (Hostinger fungerar bra)
  • Google Drive för att lagra dokumenten och PDF:erna du litar på.
  • OpenAI för att planera frågor och skriva utkastet.
  • Super Assistant API-token (hämta den i inställningarna för din Super-workspace).

Svårighetsnivå: Mellan. Du kopplar in credentials, klistrar in ett Assistant ID/token och gör några mindre justeringar av prompter och fält.

Behöver du hjälp att implementera detta? Prata med en automationsexpert (gratis 15-minuters konsultation).

Flödet i arbetsflödet

Ett beställningsformulär sätter igång. Du skickar in artikelrubriken och eventuella riktlinjer (ton, målgrupp, nyckelpunkter) via den inbyggda n8n form trigger. Ingen specialformatering krävs.

Ämnet bryts ner till researchfrågor. OpenAI genererar en kort lista med delfrågor, och sedan städar en strukturerad parser upp outputen så att arbetsflödet kan loopa igenom den pålitligt. Det här är viktigare än det låter, eftersom stökig AI-output kan skapa fel i automatiseringar.

Research körs mot dina källor. n8n itererar igenom varje fråga i batchar och anropar din “Super assistant” via HTTP Request. Den assistenten är där dina kunskapskällor finns, inklusive Google Drive-mappar och PDF:er, så varje svar kommer tillbaka med relevanta källänkar.

Ett slutligt utkast komponeras och sätts ihop. n8n aggregerar frågor och svar till en enda brief, sedan skriver OpenAI hela artikeln med briefen som enda underlag och bäddar in källhänvisningarna som hyperlänkar. Sista “set”-steget paketerar slutresultatet så att du kan kopiera in det i ditt CMS eller skicka det till en redaktör.

Du kan enkelt justera formulärfälten för att samla in SEO-nyckelord eller lägga till striktare skrivkrav utifrån dina behov. Se hela implementeringsguiden nedan för anpassningsalternativ.

Steg-för-steg-guide för implementering

Steg 1: Konfigurera formulärtriggern

Konfigurera arbetsflödets startpunkt så att användare kan skicka in artikelönskemål via ett formulär.

  1. Lägg till noden Article Request Form som din trigger.
  2. Ställ in Form TitleNew article.
  3. Ställ in Form DescriptionFill in this form to trigger the generation of a new article..
  4. Lägg till två fält: Article title (obligatoriskt) och Article guidelines (obligatoriskt), som matchar platshållarna i noden.

Steg 2: Anslut OpenAI-chattmodeller

Konfigurera språkmodellerna som används för frågegenerering och slutlig textproduktion.

  1. Öppna Mini GPT Model och välj modellen gpt-5-mini.
  2. Öppna GPT Chat Model och välj modellen gpt-5-chat-latest.
  3. Autentiseringsuppgifter krävs: Anslut era OpenAI-autentiseringsuppgifter i både Mini GPT Model och GPT Chat Model.
  4. Bekräfta att Mini GPT Model är ansluten som språkmodell för Draft Research Questions, och att GPT Chat Model är ansluten för Compose Final Article.

⚠️ Vanlig fallgrop: Structured Parse Output är en AI-undernod. Lägg inte till autentiseringsuppgifter där; säkerställ att autentiseringsuppgifter läggs till i Mini GPT Model, som driver Draft Research Questions.

Steg 3: Konfigurera input-mappning och frågegenerering

Mappa formulärvärden till rena fält och generera en strukturerad lista med researchfrågor.

  1. I Prepare Input Values mappar ni Title till {{ $json['Article title'] }} och Guidelines till {{ $json['Article guidelines'] }}.
  2. I Draft Research Questions ställer ni in Text till =Content title: {{ $json.Title }} Article guidelines: {{ $json.Guidelines }} .
  3. Säkerställ att Draft Research Questions har hasOutputParser aktiverat och är ansluten till Structured Parse Output som output parser.
  4. I Structured Parse Output behåller ni JSON Schema Example som returnerar en array av {"question": "..."}-objekt.
  5. Koppla flödet: Article Request FormPrepare Input ValuesDraft Research QuestionsExplode Question List.

Steg 4: Konfigurera frågeiterering och researchanrop

Dela upp frågelistan i enskilda objekt, anropa den externa assistenten och mappa Q&A-resultaten.

  1. I Explode Question List ställer ni in Field to Split Out till output.
  2. Använd Iterate Question Batch för att iterera igenom varje fråga.
  3. Iterate Question Batch skickar output parallellt till både Aggregate Research Data och Call Super Assistant.
  4. I Call Super Assistant ställer ni in URL till https://api.super.work/v1/super, Method till POST, och aktiverar Send Body.
  5. Ställ in body-parametrar: question till {{ $json.question }} och assistantId till [YOUR_ID].
  6. I Map Q&A Fields ställer ni in Question till {{ $('Iterate Question Batch').item.json.question }} och Answer till {{ $json.answer.replace(/\{\[(\d+)\]\((.*?)\)\}/g, '([source]($2))') }}.

⚠️ Vanlig fallgrop: Ersätt [YOUR_ID] i Call Super Assistant med ett riktigt assistant-ID innan ni testar.

Steg 5: Aggreggera research och skapa artikeln

Aggreggera alla Q&A-resultat och skicka dem till steget för slutlig artikelkomposition.

  1. I Aggregate Research Data ställer ni in Aggregate till aggregateAllItemData och Destination Field Name till Content to leverage.
  2. Anslut Aggregate Research Data till Compose Final Article.
  3. I Compose Final Article ställer ni in Text till =Article title: {{ $('Prepare Input Values').first().json.Title }} Article guidelines: {{ $('Prepare Input Values').first().json.Guidelines }} Content to leverage: This Q&A research provides high-quality knowledge, insights, and sources for your content. Be sure to include source links in your output whenever a source was used. {{ JSON.stringify($json['questions and answers'], null, 2) }} .
  4. Säkerställ att GPT Chat Model är ansluten som språkmodell för Compose Final Article.

Steg 6: Konfigurera slutlig output

Mappa den slutliga utkasttexten till ett rent output-fält för vidare användning.

  1. I Assemble Article Output ställer ni in Article till {{ $json.text }}.
  2. Bekräfta den sista kopplingen: Compose Final ArticleAssemble Article Output.

Steg 7: Testa och aktivera ert arbetsflöde

Kör ett manuellt test för att validera hela pipelinen och aktivera sedan arbetsflödet för produktionsanvändning.

  1. Klicka på Execute Workflow och skicka in Article Request Form med ett exempel på titel och riktlinjer.
  2. Verifiera att Draft Research Questions outputar en JSON-array med frågor och att Explode Question List delar upp dem i objekt.
  3. Bekräfta att Call Super Assistant returnerar svar och att Aggregate Research Data sammanställer all Q&A till en payload.
  4. Kontrollera Assemble Article Output för ett enda Article-fält som innehåller hela utkastet.
  5. När det fungerar, slå på arbetsflödet till Active för att tillåta liveinlämningar via formuläret.
🔒

Lås upp fullständig steg-för-steg-guide

Få den kompletta implementeringsguiden + nedladdningsbar mall

Se upp med

  • Google Drive-credentials kan löpa ut eller kräva specifika behörigheter. Om något slutar fungera, kontrollera först n8n:s Google Drive-credential och delningsinställningarna för mappen.
  • Om du använder Wait-noder eller extern rendering varierar bearbetningstiderna. Öka väntetiden om nedströmsnoder failar på tomma svar.
  • Standardprompter i AI-noder är generiska. Lägg in din varumärkesröst tidigt, annars kommer du redigera output i all evighet.

Vanliga frågor

Hur snabbt kan jag implementera den här automatiseringen för Google Drive-källhänvisningar?

Cirka 30 minuter om dina konton är redo.

Kan icke-tekniska team implementera den här draftningen med Google Drive-källhänvisningar?

Ja, men du vill ha en person som är bekväm med att koppla credentials. Efter det handlar det mest om formulärinmatning och promptjusteringar.

Är n8n gratis att använda för det här arbetsflödet med Google Drive-källhänvisningar?

Ja. n8n har ett gratis självhostat alternativ och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna in kostnader för OpenAI API och din Super-plan, beroende på vad du kopplar in.

Var kan jag hosta n8n för att köra den här automatiseringen?

Två alternativ: n8n Cloud (hanterat, enklast setup) eller självhostning på en VPS. För självhostning är Hostinger VPS prisvärt och hanterar n8n bra. Självhostning ger dig obegränsade körningar men kräver grundläggande serveradministration.

Hur anpassar jag den här Google Drive-källhänvisningslösningen till mina specifika utmaningar?

Du kan justera fälten i Article Request Form för att samla in saker som mål-nyckelord, produktvinkel eller källor som “måste ingå”. De flesta team finjusterar också prompten “Draft Research Questions” för att matcha deras redaktionella standard, och skärper sedan instruktionerna i “Compose Final Article” så att modellen håller sig till briefen och behåller källhänvisningarna intakta.

Varför fallerar min Google Drive-anslutning i det här arbetsflödet?

Oftast beror det på en utgången Google OAuth-token eller att Drive-mappen inte är delad med det anslutna kontot. Anslut Google Drive-credential på nytt i n8n och bekräfta sedan att assistenten faktiskt kan se mappen och PDF:erna du förväntar dig. Om du använder delade enheter (shared drives) är behörigheterna striktare och saknad åtkomst är vanligt. Rate limits kan också dyka upp när du kör stora batchar, så sänk tempot i loopen om du ser intermittent fel.

Vilken kapacitet har den här lösningen för Google Drive-källhänvisningar?

Det beror på var du kör n8n och hur många frågor du genererar per artikel. På n8n Cloud Starter begränsas du av dina månatliga executions, medan självhostning inte har någon plattformsgräns för körningar (din server blir gränsen). I praktiken kör de flesta team några dussin artiklar i veckan utan problem så länge Super-assistentens och OpenAI:s rate limits inte pressas hårt.

Är den här automatiseringen för Google Drive-källhänvisningar bättre än att använda Zapier eller Make?

Ofta ja, eftersom det här arbetsflödet behöver loopar, aggregering och tajtare kontroll över hur AI-output parsas och återanvänds. n8n hanterar den typen av mönster “planerare → research-loop → konsoliderad brief → skribent” utan att bli en skör kedja av zaps. Zapier eller Make kan fortfarande fungera om du håller det litet, som en fråga och ett utkast, men du når komplexitet snabbt. Om du vill, prata med en automationsexpert så säger vi rakt ut vilken väg som är enklast för din setup.

När dina utkast kommer med källhänvisningar från din egen Google Drive och PDF:er blir granskningen lugnare och publiceringen går snabbare. Sätt upp det en gång, och låt sedan arbetsflödet göra grovjobbet.

Kontakta oss

Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.

×

Använd mall

Få direkt tillgång till denna n8n-arbetsflödes JSON-fil

Få prisoffert redan idag!
Få prisoffert redan idag!

Berätta vad ni behöver hjälp med så hör vi av oss inom en arbetsdag!

Få prisoffert redan idag!
Få prisoffert redan idag!

Berätta vad ni behöver hjälp med så hör vi av oss inom en arbetsdag!

Launch login modal Launch register modal