Behöver ert företag hjälp med att implementera AI? Kontakta oss och få prisoffert här →
AI Skolan
januari 22, 2026

Tavily + Google Docs: researchbaserade utkast snabbt

Rickard Andersson Partner, Nodenordic.se

Innehållsteam fastnar sällan på ”skrivandet”. De fastnar på research. Flikar överallt, halvsparade länkar och den där gnagande känslan av att du missade den enda källan som en läsare kommer att syna dig för.

Innehållsmarknadsförare känner av det när deadlines staplas. Solofounders känner av det när publiceringen halkar efter för tredje veckan i rad. Och byråledare som försöker leverera kundutkast snabbt hamnar med livet i Google Docs. Den här Tavily Google Docs-automationen är byggd för att göra live-nyheter till ett användbart, källhänvisningsbart utkast utan den röriga mellandelen.

Du får se vad arbetsflödet genererar, hur det går från nyhetsextraktion till ett färdigt dokument, och vad du kan justera för att utkasten ska låta som du.

Så fungerar automationen

Här är hela arbetsflödet du ska sätta upp:

n8n Workflow Template: Tavily + Google Docs: researchbaserade utkast snabbt

Varför det här spelar roll: research tar längre tid än att skriva

Om du publicerar något som är kopplat till nyheter, trender eller ”vad som händer just nu” känner du redan till fällan. Själva utkastet kan ta en timme. Researchen tar hela eftermiddagen. Du skummar rubriker, öppnar fem lovande artiklar, inser att tre är tunna, och börjar sedan leta efter en pålitlig källa som faktiskt backar upp din poäng. Senare klistrar du in länkar i en ”Källor”-sektion och hoppas att du minns vad var och en var till för. Ärligt talat: det är utmattande att göra om.

Det eskalerar snabbt. Här är var det brukar fallera i praktiken.

  • Du tappar tid på att hoppa mellan nyhetssajter, anteckningar och ditt utkast, vilket gör ”skriv ett inlägg” till ett halvdagsprojekt.
  • Källor blir slarviga eftersom du har bråttom, och det leder till svaga källhänvisningar eller inga alls.
  • Utkast blir inkonsekventa när olika personer gör research på olika sätt.
  • SEO-grunder (titel, slug, metabeskrivning) skruvas på i slutet, när energin redan är slut.

Det du bygger: pipeline från nyheter till utkast för research och skrivande

Det här arbetsflödet skapar researchbaserade artikelutkast från live-nyhetskällor och levererar dem direkt till Google Docs. Det startar med en manuell körning i n8n och hämtar sedan källmaterial från URL:er online via Tavily. Från det råa underlaget identifierar en AI-agent genomförbara ämnesidéer och loopar igenom dem en och en, så att varje ämne blir ett eget utkast. Därefter skapar arbetsflödet en strukturerad innehållsförteckning, researchar varje avsnitt och skriver avsnitten med källhänvisningar i löptext och länkar där de hör hemma. Till sist slår det ihop allt till en sammanhängande artikel, genererar SEO-tillägg (titel, slug, metabeskrivning) och skapar ett Google Doc med det färdiga utkastet redo för granskning.

Flödet är lätt att förstå även om resultatet är avancerat. Det hämtar live-källdata, gör om det till en disposition, bygger ut dispositionen till avsnitt och finputsar sedan helheten för läsbarhet och konsekvens. Google Docs är sista stoppet, så ditt team kan redigera i verktyget de redan använder.

Det du bygger

Förväntade resultat

Säg att du publicerar 3 researchbaserade inlägg i veckan. Manuellt kan en typisk cykel vara 60 minuter för att hitta källor, 45 minuter för disposition och cirka 2 timmar för att skriva, så du lägger runt 4 timmar per inlägg. Med det här arbetsflödet kan du starta en körning på ett par minuter, vänta på generering och sammanställning och sedan lägga cirka 30–45 minuter på redigering i Google Docs. Det är ungefär 3 timmar tillbaka per artikel, utan att tumma på källhänvisningarna.

Innan du börjar

  • n8n-instans (prova n8n Cloud gratis)
  • Alternativ för self-hosting om du föredrar det (Hostinger fungerar bra)
  • Tavily för live-researchextraktion och källhänvisningar.
  • Google Docs för att skapa utkast som teamet kan redigera.
  • OpenAI API-nyckel (hämta den i OpenAI API-dashboarden)

Kunskapsnivå: Medel. Du kopplar autentiseringsuppgifter, klistrar in API-nycklar och justerar prompts, men du behöver inte skriva kod om du inte vill ha djupare anpassning.

Vill du att någon bygger detta åt dig? Prata med en automationsexpert (gratis 15-minuters konsultation).

Steg för steg

Manuell start för att köra en batch. Du trycker på kör när du är redo, vilket är bra för redaktionell kontroll. Många team triggar det direkt efter en morgonskanning av nyheterna eller under ett schemalagt innehållspass.

Källextraktion och förberedelse. Tavily hämtar relevant innehåll från de URL:er du bryr dig om. Därefter normaliserar ett förberedelseskript och en AI-”orkestrerare” underlaget så att det blir användbart för ämnesval och disposition.

Disposition, avsnittsskrivning och finputs. Arbetsflödet loopar igenom ämnen (Split in Batches), genererar en innehållsförteckning, skriver avsnitt, slår ihop dem och kör en redaktionell finputsare för jämnare ton och bättre flyt. Det är här källhänvisningar i löptext och länkar placeras så att ditt utkast inte känns som en ogrundad åsiktstext.

SEO-paketering och leverans till Google Docs. När hela artikeln är sammanställd genererar den titel, slug och metabeskrivning och skapar sedan och uppdaterar ett Google Doc med hela utkastet. Ditt team öppnar dokumentet, redigerar och publicerar.

Du kan enkelt ändra käll-URL:er och regler för ämnesval så att det matchar din nisch. Se hela implementationsguiden nedan för anpassningsalternativ.

Steg-för-steg-guide för implementering

Steg 1: Konfigurera den manuella triggern

Det här arbetsflödet startar vid behov och hämtar direkt researchdata för innehållsgenerering.

  1. Lägg till noden Manual Launch Trigger som arbetsflödets startpunkt.
  2. Koppla Manual Launch Trigger till Extract Source Data för att starta pipelinen.

Steg 2: Anslut datakällan för research

Researchdata hämtas och förbereds innan AI-orkestreringen börjar.

  1. Öppna Extract Source Data och konfigurera den för er sökfråga eller ert inmatade ämne.
  2. Inloggningsuppgifter krävs: Anslut era Tavily-inloggningsuppgifter i Extract Source Data (den här noden kräver inloggningsuppgifter även om inga är konfigurerade).
  3. Koppla Extract Source Data till Prep Script för att normalisera resultaten.

Steg 3: Förbered och orkestrera AI-indata

Data formas och routas in i AI-orkestreringslagret som driver utkastsekvensen.

  1. Konfigurera Prep Script för att formatera researchutdata för agenternas indata.
  2. Koppla Prep Script till AI Orchestrator.
  3. Öppna AI Orchestrator och säkerställ att den använder OpenAI Chat Core 1 som språkmodell.
  4. Inloggningsuppgifter krävs: Anslut era OpenAI-inloggningsuppgifter i OpenAI Chat Core 1 (inloggningsuppgifter för AI-modellen läggs till på språkmodellnoden, inte på agenten).

Tips: Om er AI-utdata är inkonsekvent, justera er prompt eller modellinställningar i OpenAI Chat Core 1, inte i AI Orchestrator.

Steg 4: Transformera, batcha och skapa dispositionen

Arbetsflödet transformerar AI-utdata till batchad indata och bygger därefter en disposition.

  1. Koppla AI Orchestrator till Transform Script för att omforma datastrukturen.
  2. Koppla Transform Script till Iterate Records för att bearbeta utdata i batchar.
  3. Koppla Iterate Records till Outline Composer för att generera dispositionen.
  4. Säkerställ att OpenAI Chat Core är ansluten som språkmodell för Outline Composer och lägg till era OpenAI-inloggningsuppgifter i OpenAI Chat Core.
  5. Säkerställ att Research Tool Hub är ansluten som verktyg för Outline Composer; lägg till verktygsinloggningsuppgifter på den överordnade Outline Composer om ert verktygsarbetsflöde kräver det.

⚠️ Vanlig fallgrop: Lägg inte till API-inloggningsuppgifter i Research Tool Hub; verktygsinloggningsuppgifter måste läggas till på den överordnade agentnoden.

Steg 5: Skapa avsnitt och dela upp innehåll för parallell bearbetning

Avsnitt utkastas, delas upp och bearbetas sedan parallellt för att bygga hela utkastet.

  1. Koppla Outline Composer till Draft Section Builder för att generera utkast på avsnittsnivå.
  2. Inloggningsuppgifter krävs: Anslut era OpenAI-inloggningsuppgifter i Draft Section Builder (den här OpenAI-noden kräver inloggningsuppgifter).
  3. Koppla Draft Section Builder till Segment Splitter för att dela upp avsnitt i poster.
  4. Segment Splitter skickar utdata till både Content Draft Generator och Combine Streams parallellt.
  5. Säkerställ att OpenAI Chat Core 2 är ansluten som språkmodell för Content Draft Generator och lägg till era OpenAI-inloggningsuppgifter där.
  6. Säkerställ att Research Tool Hub 2 är ansluten som verktyg för Content Draft Generator; lägg till verktygsinloggningsuppgifter på den överordnade Content Draft Generator om det krävs.

Steg 6: Aggregara och förfina utkastet

Utkastsegment slås ihop, aggregeras och förfinas till en polerad version.

  1. Koppla Content Draft Generator till Combine Streams.
  2. Koppla Combine Streams till Aggregate Results för att konsolidera utdata.
  3. Koppla Aggregate Results till Editorial Refiner för en redaktionell genomgång.
  4. Säkerställ att Language Model Core är ansluten som språkmodell för Editorial Refiner och lägg till era OpenAI-inloggningsuppgifter där.

Steg 7: Generera metadata och slutliga innehållsutdata

Arbetsflödet genererar en rubrik, en slug och en sammanfattande blurb som används för dokumentet.

  1. Koppla Editorial Refiner till Headline Crafter.
  2. Inloggningsuppgifter krävs: Anslut era OpenAI-inloggningsuppgifter i Headline Crafter.
  3. Koppla Headline Crafter till Slug Formatter och koppla sedan Slug Formatter till Summary Blurb Writer.
  4. Inloggningsuppgifter krävs: Anslut era OpenAI-inloggningsuppgifter i Slug Formatter och Summary Blurb Writer.

Steg 8: Konfigurera utdata till Google Docs

Slutligt innehåll skickas till Google Docs som ett dokumentutkast.

  1. Koppla Summary Blurb Writer till Create Document Draft.
  2. Inloggningsuppgifter krävs: Anslut era Google Docs-inloggningsuppgifter i Create Document Draft.
  3. Koppla Create Document Draft till Update Document Content för att infoga hela utkastet.
  4. Inloggningsuppgifter krävs: Anslut era Google Docs-inloggningsuppgifter i Update Document Content.
  5. Koppla Update Document Content till Iterate Records för att fortsätta batchningen om flera poster finns.

⚠️ Vanlig fallgrop: Om Create Document Draft och Update Document Content använder olika Google-konton kan dokument skapas men inte uppdateras.

Steg 9: Testa och aktivera ert arbetsflöde

Validera arbetsflödet från början till slut och slå sedan på det för användning i produktion.

  1. Klicka på Execute Workflow från Manual Launch Trigger för att köra ett test.
  2. Bekräfta att Extract Source Data returnerar researchdata och att Create Document Draft skapar ett Google-dokument.
  3. Verifiera att Update Document Content lägger till det förfinade utkastet, rubriken, sluggen och sammanfattningen i dokumentet.
  4. När ni är nöjda, växla arbetsflödet till Active för produktionsanvändning.
🔒

Lås upp fullständig steg-för-steg-guide

Få den kompletta implementeringsguiden + nedladdningsbar mall

Tips för felsökning

  • Google Docs-autentisering kan löpa ut eller kräva specifika behörigheter. Om det skapar fel, kontrollera din Google-koppling i n8n under Credentials och bekräfta att OAuth-scope fortfarande tillåter att dokument skapas.
  • Om du använder batch-looping (Split in Batches) och bearbetar många ämnen varierar processtiderna. Öka eventuella väntetider du lagt in, eller minska batchstorleken om efterföljande noder fallerar på tomma svar.
  • Standardprompts i OpenAI-noder är generiska. Lägg in din tonalitet tidigt (i dispositionen och avsnittsprompts) annars kommer du att redigera resultat i all evighet.

Snabba svar

Hur lång tid tar det att sätta upp den här Tavily Google Docs-automationen?

Cirka 30 minuter om du redan har API-nycklar och Google-åtkomst redo.

Krävs kodning för den här automationen för researchbaserade utkast?

Nej. Du kopplar mest konton och justerar prompts. Arbetsflödet innehåller kodnoder, men du kan använda det som det är.

Är n8n gratis att använda för det här Tavily Google Docs-arbetsflödet?

Ja. n8n har ett gratis self-hosted-alternativ och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna med OpenAI API-användning och Tavily API-användning, vilket beror på hur många ämnen och avsnitt du genererar.

Var kan jag hosta n8n för att köra den här automationen?

Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller self-hosting på en VPS. För self-hosting är Hostinger VPS prisvärd och hanterar n8n bra. Self-hosting ger dig obegränsade körningar men kräver grundläggande serverhantering.

Kan jag anpassa det här Tavily Google Docs-arbetsflödet för andra användningsfall?

Ja, ganska enkelt. Byt ut käll-URL:erna som går in i Tavily-steget ”Extract Source Data”, och justera sedan prompts i dispositions- och avsnittsskrivarna (agenten och OpenAI-utkastnoderna) så att de matchar din nisch och dina formateringsregler. Vanliga anpassningar är att lägga till en striktare regel som ”använd bara dessa källor”, ändra antal avsnitt och tvinga fram en specifik CTA eller en viss typ av avslutning. Om du följer redaktionell status kan du också bygga ut flödet genom att skriva tillbaka utkastets URL till Google Sheets efter att dokumentet har skapats.

Varför misslyckas min Google Docs-koppling i det här arbetsflödet?

Oftast är det ett OAuth-behörighetsproblem eller utgångna autentiseringsuppgifter. Koppla om din Google Docs-autentisering i n8n och bekräfta sedan att Google-kontot kan skapa filer i mål-mappen i Drive. Om det bara fallerar vid uppdateringar (inte vid skapande), kontrollera dokument-ID-mappningen mellan ”Create Document Draft” och ”Update Document Content.”

Vilken volym kan det här Tavily Google Docs-arbetsflödet hantera?

Mycket, men det begränsas av dina API-budgetar och hur stort varje utkast är. I n8n Cloud är det främst exekveringsgränser per månad du behöver hålla koll på; vid self-hosting finns ingen hård gräns, bara serverkapacitet. I praktiken börjar de flesta team med en liten batch (som 5 ämnen), bekräftar kvaliteten och skalar sedan upp.

Är den här Tavily Google Docs-automationen bättre än att använda Zapier eller Make?

För flerstegsutkast som det här: oftast ja. n8n är byggt för förgreningar, att loopa igenom ämnen och att slå ihop resultat, vilket är exakt vad ”generera disposition → skriv avsnitt → finputsa → publicera till Docs” kräver. Zapier kan bli dyrt eller klumpigt när du itererar över objekt och sammanställer långformat innehåll, och Make kan kräva mer arbete för att hålla stabilt i större skala. Den stora fördelen här är kontroll: du kan inspektera varje steg, justera prompts och lägga till villkor (som ”hoppa över lågkvalitativa ämnen”) utan att bygga om allt. Om du är osäker, prata med en automationsexpert så pekar vi dig mot det enklaste alternativet för din setup.

När det här väl rullar slutar research vara flaskhalsen. Dina utkast landar i Google Docs med källor och SEO-grunder redan på plats, så publiceringen blir betydligt mer förutsägbar.

Kontakta oss

Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.

×

Använd mall

Få direkt tillgång till denna n8n-arbetsflödes JSON-fil

Launch login modal Launch register modal