Innehållsteam fastnar sällan på ”skrivandet”. De fastnar på research. Flikar överallt, halvsparade länkar och den där gnagande känslan av att du missade den enda källan som en läsare kommer att syna dig för.
Innehållsmarknadsförare känner av det när deadlines staplas. Solofounders känner av det när publiceringen halkar efter för tredje veckan i rad. Och byråledare som försöker leverera kundutkast snabbt hamnar med livet i Google Docs. Den här Tavily Google Docs-automationen är byggd för att göra live-nyheter till ett användbart, källhänvisningsbart utkast utan den röriga mellandelen.
Du får se vad arbetsflödet genererar, hur det går från nyhetsextraktion till ett färdigt dokument, och vad du kan justera för att utkasten ska låta som du.
Så fungerar automationen
Här är hela arbetsflödet du ska sätta upp:
n8n Workflow Template: Tavily + Google Docs: researchbaserade utkast snabbt
flowchart LR
subgraph sg0["When clicking ‘Execute workflow’ Flow"]
direction LR
n0@{ icon: "mdi:robot", form: "rounded", label: "Table of Contents", pos: "b", h: 48 }
n1@{ icon: "mdi:robot", form: "rounded", label: "Create the Sections", pos: "b", h: 48 }
n2@{ icon: "mdi:swap-vertical", form: "rounded", label: "Split Out1", pos: "b", h: 48 }
n3@{ icon: "mdi:robot", form: "rounded", label: "Generate the Content", pos: "b", h: 48 }
n4["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/merge.svg' width='40' height='40' /></div><br/>Merge"]
n5@{ icon: "mdi:cog", form: "rounded", label: "Aggregate1", pos: "b", h: 48 }
n6@{ icon: "mdi:robot", form: "rounded", label: "Content Editor", pos: "b", h: 48 }
n7@{ icon: "mdi:robot", form: "rounded", label: "Title Maker", pos: "b", h: 48 }
n8@{ icon: "mdi:wrench", form: "rounded", label: "tavily tool", pos: "b", h: 48 }
n9@{ icon: "mdi:brain", form: "rounded", label: "OpenAI Chat Model", pos: "b", h: 48 }
n10@{ icon: "mdi:robot", form: "rounded", label: "Making Slug", pos: "b", h: 48 }
n11@{ icon: "mdi:robot", form: "rounded", label: "Article Description", pos: "b", h: 48 }
n12@{ icon: "mdi:brain", form: "rounded", label: "OpenAI Chat Model2", pos: "b", h: 48 }
n13@{ icon: "mdi:wrench", form: "rounded", label: "tavily tool1", pos: "b", h: 48 }
n14@{ icon: "mdi:brain", form: "rounded", label: "OpenAI", pos: "b", h: 48 }
n15@{ icon: "mdi:play-circle", form: "rounded", label: "When clicking ‘Execute workf..", pos: "b", h: 48 }
n16@{ icon: "mdi:cog", form: "rounded", label: "Create a document1", pos: "b", h: 48 }
n17@{ icon: "mdi:cog", form: "rounded", label: "Update a document", pos: "b", h: 48 }
n18@{ icon: "mdi:robot", form: "rounded", label: "AI Agent", pos: "b", h: 48 }
n19@{ icon: "mdi:brain", form: "rounded", label: "OpenAI Chat Model1", pos: "b", h: 48 }
n20@{ icon: "mdi:cog", form: "rounded", label: "Extract", pos: "b", h: 48 }
n21@{ icon: "mdi:swap-vertical", form: "rounded", label: "Loop Over Items", pos: "b", h: 48 }
n22["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/code.svg' width='40' height='40' /></div><br/>Code"]
n23["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/code.svg' width='40' height='40' /></div><br/>Code1"]
n22 --> n21
n23 --> n18
n4 --> n5
n14 -.-> n6
n20 --> n23
n18 --> n22
n5 --> n6
n2 --> n3
n2 --> n4
n10 --> n11
n7 --> n10
n8 -.-> n0
n13 -.-> n3
n6 --> n7
n21 --> n0
n9 -.-> n0
n0 --> n1
n17 --> n21
n16 --> n17
n19 -.-> n18
n12 -.-> n3
n11 --> n16
n1 --> n2
n3 --> n4
n15 --> n20
end
%% Styling
classDef trigger fill:#e8f5e9,stroke:#388e3c,stroke-width:2px
classDef ai fill:#e3f2fd,stroke:#1976d2,stroke-width:2px
classDef aiModel fill:#e8eaf6,stroke:#3f51b5,stroke-width:2px
classDef decision fill:#fff8e1,stroke:#f9a825,stroke-width:2px
classDef database fill:#fce4ec,stroke:#c2185b,stroke-width:2px
classDef api fill:#fff3e0,stroke:#e65100,stroke-width:2px
classDef code fill:#f3e5f5,stroke:#7b1fa2,stroke-width:2px
classDef disabled stroke-dasharray: 5 5,opacity: 0.5
class n15 trigger
class n0,n1,n3,n6,n7,n10,n11,n18 ai
class n9,n12,n14,n19 aiModel
class n8,n13 ai
class n22,n23 code
classDef customIcon fill:none,stroke:none
class n4,n22,n23 customIcon
Varför det här spelar roll: research tar längre tid än att skriva
Om du publicerar något som är kopplat till nyheter, trender eller ”vad som händer just nu” känner du redan till fällan. Själva utkastet kan ta en timme. Researchen tar hela eftermiddagen. Du skummar rubriker, öppnar fem lovande artiklar, inser att tre är tunna, och börjar sedan leta efter en pålitlig källa som faktiskt backar upp din poäng. Senare klistrar du in länkar i en ”Källor”-sektion och hoppas att du minns vad var och en var till för. Ärligt talat: det är utmattande att göra om.
Det eskalerar snabbt. Här är var det brukar fallera i praktiken.
- Du tappar tid på att hoppa mellan nyhetssajter, anteckningar och ditt utkast, vilket gör ”skriv ett inlägg” till ett halvdagsprojekt.
- Källor blir slarviga eftersom du har bråttom, och det leder till svaga källhänvisningar eller inga alls.
- Utkast blir inkonsekventa när olika personer gör research på olika sätt.
- SEO-grunder (titel, slug, metabeskrivning) skruvas på i slutet, när energin redan är slut.
Det du bygger: pipeline från nyheter till utkast för research och skrivande
Det här arbetsflödet skapar researchbaserade artikelutkast från live-nyhetskällor och levererar dem direkt till Google Docs. Det startar med en manuell körning i n8n och hämtar sedan källmaterial från URL:er online via Tavily. Från det råa underlaget identifierar en AI-agent genomförbara ämnesidéer och loopar igenom dem en och en, så att varje ämne blir ett eget utkast. Därefter skapar arbetsflödet en strukturerad innehållsförteckning, researchar varje avsnitt och skriver avsnitten med källhänvisningar i löptext och länkar där de hör hemma. Till sist slår det ihop allt till en sammanhängande artikel, genererar SEO-tillägg (titel, slug, metabeskrivning) och skapar ett Google Doc med det färdiga utkastet redo för granskning.
Flödet är lätt att förstå även om resultatet är avancerat. Det hämtar live-källdata, gör om det till en disposition, bygger ut dispositionen till avsnitt och finputsar sedan helheten för läsbarhet och konsekvens. Google Docs är sista stoppet, så ditt team kan redigera i verktyget de redan använder.
Det du bygger
| Vad som automatiseras | Vad du uppnår |
|---|---|
|
|
Förväntade resultat
Säg att du publicerar 3 researchbaserade inlägg i veckan. Manuellt kan en typisk cykel vara 60 minuter för att hitta källor, 45 minuter för disposition och cirka 2 timmar för att skriva, så du lägger runt 4 timmar per inlägg. Med det här arbetsflödet kan du starta en körning på ett par minuter, vänta på generering och sammanställning och sedan lägga cirka 30–45 minuter på redigering i Google Docs. Det är ungefär 3 timmar tillbaka per artikel, utan att tumma på källhänvisningarna.
Innan du börjar
- n8n-instans (prova n8n Cloud gratis)
- Alternativ för self-hosting om du föredrar det (Hostinger fungerar bra)
- Tavily för live-researchextraktion och källhänvisningar.
- Google Docs för att skapa utkast som teamet kan redigera.
- OpenAI API-nyckel (hämta den i OpenAI API-dashboarden)
Kunskapsnivå: Medel. Du kopplar autentiseringsuppgifter, klistrar in API-nycklar och justerar prompts, men du behöver inte skriva kod om du inte vill ha djupare anpassning.
Vill du att någon bygger detta åt dig? Prata med en automationsexpert (gratis 15-minuters konsultation).
Steg för steg
Manuell start för att köra en batch. Du trycker på kör när du är redo, vilket är bra för redaktionell kontroll. Många team triggar det direkt efter en morgonskanning av nyheterna eller under ett schemalagt innehållspass.
Källextraktion och förberedelse. Tavily hämtar relevant innehåll från de URL:er du bryr dig om. Därefter normaliserar ett förberedelseskript och en AI-”orkestrerare” underlaget så att det blir användbart för ämnesval och disposition.
Disposition, avsnittsskrivning och finputs. Arbetsflödet loopar igenom ämnen (Split in Batches), genererar en innehållsförteckning, skriver avsnitt, slår ihop dem och kör en redaktionell finputsare för jämnare ton och bättre flyt. Det är här källhänvisningar i löptext och länkar placeras så att ditt utkast inte känns som en ogrundad åsiktstext.
SEO-paketering och leverans till Google Docs. När hela artikeln är sammanställd genererar den titel, slug och metabeskrivning och skapar sedan och uppdaterar ett Google Doc med hela utkastet. Ditt team öppnar dokumentet, redigerar och publicerar.
Du kan enkelt ändra käll-URL:er och regler för ämnesval så att det matchar din nisch. Se hela implementationsguiden nedan för anpassningsalternativ.
Steg-för-steg-guide för implementering
Steg 1: Konfigurera den manuella triggern
Det här arbetsflödet startar vid behov och hämtar direkt researchdata för innehållsgenerering.
- Lägg till noden Manual Launch Trigger som arbetsflödets startpunkt.
- Koppla Manual Launch Trigger till Extract Source Data för att starta pipelinen.
Steg 2: Anslut datakällan för research
Researchdata hämtas och förbereds innan AI-orkestreringen börjar.
- Öppna Extract Source Data och konfigurera den för er sökfråga eller ert inmatade ämne.
- Inloggningsuppgifter krävs: Anslut era Tavily-inloggningsuppgifter i Extract Source Data (den här noden kräver inloggningsuppgifter även om inga är konfigurerade).
- Koppla Extract Source Data till Prep Script för att normalisera resultaten.
Steg 3: Förbered och orkestrera AI-indata
Data formas och routas in i AI-orkestreringslagret som driver utkastsekvensen.
- Konfigurera Prep Script för att formatera researchutdata för agenternas indata.
- Koppla Prep Script till AI Orchestrator.
- Öppna AI Orchestrator och säkerställ att den använder OpenAI Chat Core 1 som språkmodell.
- Inloggningsuppgifter krävs: Anslut era OpenAI-inloggningsuppgifter i OpenAI Chat Core 1 (inloggningsuppgifter för AI-modellen läggs till på språkmodellnoden, inte på agenten).
Steg 4: Transformera, batcha och skapa dispositionen
Arbetsflödet transformerar AI-utdata till batchad indata och bygger därefter en disposition.
- Koppla AI Orchestrator till Transform Script för att omforma datastrukturen.
- Koppla Transform Script till Iterate Records för att bearbeta utdata i batchar.
- Koppla Iterate Records till Outline Composer för att generera dispositionen.
- Säkerställ att OpenAI Chat Core är ansluten som språkmodell för Outline Composer och lägg till era OpenAI-inloggningsuppgifter i OpenAI Chat Core.
- Säkerställ att Research Tool Hub är ansluten som verktyg för Outline Composer; lägg till verktygsinloggningsuppgifter på den överordnade Outline Composer om ert verktygsarbetsflöde kräver det.
Steg 5: Skapa avsnitt och dela upp innehåll för parallell bearbetning
Avsnitt utkastas, delas upp och bearbetas sedan parallellt för att bygga hela utkastet.
- Koppla Outline Composer till Draft Section Builder för att generera utkast på avsnittsnivå.
- Inloggningsuppgifter krävs: Anslut era OpenAI-inloggningsuppgifter i Draft Section Builder (den här OpenAI-noden kräver inloggningsuppgifter).
- Koppla Draft Section Builder till Segment Splitter för att dela upp avsnitt i poster.
- Segment Splitter skickar utdata till både Content Draft Generator och Combine Streams parallellt.
- Säkerställ att OpenAI Chat Core 2 är ansluten som språkmodell för Content Draft Generator och lägg till era OpenAI-inloggningsuppgifter där.
- Säkerställ att Research Tool Hub 2 är ansluten som verktyg för Content Draft Generator; lägg till verktygsinloggningsuppgifter på den överordnade Content Draft Generator om det krävs.
Steg 6: Aggregara och förfina utkastet
Utkastsegment slås ihop, aggregeras och förfinas till en polerad version.
- Koppla Content Draft Generator till Combine Streams.
- Koppla Combine Streams till Aggregate Results för att konsolidera utdata.
- Koppla Aggregate Results till Editorial Refiner för en redaktionell genomgång.
- Säkerställ att Language Model Core är ansluten som språkmodell för Editorial Refiner och lägg till era OpenAI-inloggningsuppgifter där.
Steg 7: Generera metadata och slutliga innehållsutdata
Arbetsflödet genererar en rubrik, en slug och en sammanfattande blurb som används för dokumentet.
- Koppla Editorial Refiner till Headline Crafter.
- Inloggningsuppgifter krävs: Anslut era OpenAI-inloggningsuppgifter i Headline Crafter.
- Koppla Headline Crafter till Slug Formatter och koppla sedan Slug Formatter till Summary Blurb Writer.
- Inloggningsuppgifter krävs: Anslut era OpenAI-inloggningsuppgifter i Slug Formatter och Summary Blurb Writer.
Steg 8: Konfigurera utdata till Google Docs
Slutligt innehåll skickas till Google Docs som ett dokumentutkast.
- Koppla Summary Blurb Writer till Create Document Draft.
- Inloggningsuppgifter krävs: Anslut era Google Docs-inloggningsuppgifter i Create Document Draft.
- Koppla Create Document Draft till Update Document Content för att infoga hela utkastet.
- Inloggningsuppgifter krävs: Anslut era Google Docs-inloggningsuppgifter i Update Document Content.
- Koppla Update Document Content till Iterate Records för att fortsätta batchningen om flera poster finns.
Steg 9: Testa och aktivera ert arbetsflöde
Validera arbetsflödet från början till slut och slå sedan på det för användning i produktion.
- Klicka på Execute Workflow från Manual Launch Trigger för att köra ett test.
- Bekräfta att Extract Source Data returnerar researchdata och att Create Document Draft skapar ett Google-dokument.
- Verifiera att Update Document Content lägger till det förfinade utkastet, rubriken, sluggen och sammanfattningen i dokumentet.
- När ni är nöjda, växla arbetsflödet till Active för produktionsanvändning.
Tips för felsökning
- Google Docs-autentisering kan löpa ut eller kräva specifika behörigheter. Om det skapar fel, kontrollera din Google-koppling i n8n under Credentials och bekräfta att OAuth-scope fortfarande tillåter att dokument skapas.
- Om du använder batch-looping (Split in Batches) och bearbetar många ämnen varierar processtiderna. Öka eventuella väntetider du lagt in, eller minska batchstorleken om efterföljande noder fallerar på tomma svar.
- Standardprompts i OpenAI-noder är generiska. Lägg in din tonalitet tidigt (i dispositionen och avsnittsprompts) annars kommer du att redigera resultat i all evighet.
Snabba svar
Cirka 30 minuter om du redan har API-nycklar och Google-åtkomst redo.
Nej. Du kopplar mest konton och justerar prompts. Arbetsflödet innehåller kodnoder, men du kan använda det som det är.
Ja. n8n har ett gratis self-hosted-alternativ och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna med OpenAI API-användning och Tavily API-användning, vilket beror på hur många ämnen och avsnitt du genererar.
Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller self-hosting på en VPS. För self-hosting är Hostinger VPS prisvärd och hanterar n8n bra. Self-hosting ger dig obegränsade körningar men kräver grundläggande serverhantering.
Ja, ganska enkelt. Byt ut käll-URL:erna som går in i Tavily-steget ”Extract Source Data”, och justera sedan prompts i dispositions- och avsnittsskrivarna (agenten och OpenAI-utkastnoderna) så att de matchar din nisch och dina formateringsregler. Vanliga anpassningar är att lägga till en striktare regel som ”använd bara dessa källor”, ändra antal avsnitt och tvinga fram en specifik CTA eller en viss typ av avslutning. Om du följer redaktionell status kan du också bygga ut flödet genom att skriva tillbaka utkastets URL till Google Sheets efter att dokumentet har skapats.
Oftast är det ett OAuth-behörighetsproblem eller utgångna autentiseringsuppgifter. Koppla om din Google Docs-autentisering i n8n och bekräfta sedan att Google-kontot kan skapa filer i mål-mappen i Drive. Om det bara fallerar vid uppdateringar (inte vid skapande), kontrollera dokument-ID-mappningen mellan ”Create Document Draft” och ”Update Document Content.”
Mycket, men det begränsas av dina API-budgetar och hur stort varje utkast är. I n8n Cloud är det främst exekveringsgränser per månad du behöver hålla koll på; vid self-hosting finns ingen hård gräns, bara serverkapacitet. I praktiken börjar de flesta team med en liten batch (som 5 ämnen), bekräftar kvaliteten och skalar sedan upp.
För flerstegsutkast som det här: oftast ja. n8n är byggt för förgreningar, att loopa igenom ämnen och att slå ihop resultat, vilket är exakt vad ”generera disposition → skriv avsnitt → finputsa → publicera till Docs” kräver. Zapier kan bli dyrt eller klumpigt när du itererar över objekt och sammanställer långformat innehåll, och Make kan kräva mer arbete för att hålla stabilt i större skala. Den stora fördelen här är kontroll: du kan inspektera varje steg, justera prompts och lägga till villkor (som ”hoppa över lågkvalitativa ämnen”) utan att bygga om allt. Om du är osäker, prata med en automationsexpert så pekar vi dig mot det enklaste alternativet för din setup.
När det här väl rullar slutar research vara flaskhalsen. Dina utkast landar i Google Docs med källor och SEO-grunder redan på plats, så publiceringen blir betydligt mer förutsägbar.
Kontakta oss
Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.