Behöver ert företag hjälp med att implementera AI? Kontakta oss och få prisoffert här →
AI Skolan
januari 22, 2026

Google Sheets + Slack: konsekventa nyhetsposter

Rickard Andersson Partner, Nodenordic.se

Att publicera ”konsekvent” nyhetsinnehåll betyder oftast en rörig loop av att leta, kopiera länkar, kontrollera vad du redan har täckt, skriva från grunden och sedan publicera och rapportera allt. Och på något sätt slutar du ändå med upprepningar, tunna artiklar eller en Slack-kanal full av ”gick detta ut?”-meddelanden.

Den här Sheets Slack-automationen träffar content marketers först, men även grundare som driver en nischblogg och byråledare som hanterar kunders publiceringskalendrar känner av det. Du får ett jämnt flöde av nyhetsposter utan att behöva passa processen varje dag.

Nedan ser du hur arbetsflödet hittar färska nyheter, förhindrar dubbletter med Google Sheets, gör utdrag till hela artiklar med GPT‑4, publicerar i ditt CMS och sedan skickar strukturerade Slack-uppdateringar så att du alltid vet vad som har gått live.

Så fungerar automatiseringen

Hela n8n-arbetsflödet, från trigger till slutligt resultat:

n8n Workflow Template: Google Sheets + Slack: konsekventa nyhetsposter

Problemet: nyhetspublicering blir till dagligt rutinjobb

Att hålla en nyhetssida eller en branschblogg aktiv låter enkelt tills du ska göra det varje vecka. Du letar efter nyheter, öppnar 10 flikar, skummar, väljer en — och sedan börjar den riktiga tidstjuven: skriva om till något eget, formatera för ditt CMS, lägga till SEO-metadata och logga vad du publicerat så att du inte råkar upprepa dig nästa vecka. Missar du ett litet steg växer det snabbt. Ett dubbelinlägg slinker igenom. En sajt som ”blockeras av anti-bot” slösar din tid. Eller så glömmer du att meddela teamet och ingen vet att innehållet ligger live.

Friktionen bygger på. Här är var det faller isär i verkligheten.

  • Att kontrollera ”har vi redan täckt detta?” blir en manuell sökning i ett kalkylark, som hoppas över när du har mycket.
  • Att hitta artiklar från de senaste 7 dagarna tar längre tid än det borde eftersom du hoppar mellan sök, flöden och nyhetsbrev.
  • Att skriva ett trovärdigt inlägg på 2 000+ ord i en konsekvent stil äter upp en stor del av förmiddagen, särskilt när du också behöver SEO-formatering.
  • Att publicera, logga och dela i Slack blir tre separata uppgifter, så du gör två och glömmer den tredje.

Lösningen: hitta, skriv, publicera och logga nyheter automatiskt

Det här arbetsflödet körs enligt schema (var 8:e timme) och bygger en stabil ”nyhetspipeline” åt dig. Det börjar med att använda en AI-agent för att generera smarta sökfrågor anpassade till din nisch, samtidigt som den kontrollerar historiken i Google Sheets så att den inte jagar samma ämnen om och om igen. Sedan använder den Google Custom Search API för att hämta nya artiklar från de senaste 7 dagarna, väljer en toppkandidat och filtrerar bort källor som sannolikt blockerar scraping. Därefter gör GPT‑4 om tillgängligt innehåll (fulltext när det går, utdrag när det inte går) till en original, professionell artikel med en röst i Reuters/Bloomberg-stil. Slutligen formaterar arbetsflödet allt till ett publiceringsunderlag, postar till din CMS-endpoint, lägger till en strukturerad loggrad i Google Sheets och skickar en detaljerad Slack-uppdatering så att teamet ser vad som gick live.

Arbetsflödet startar med schemalagd discovery. Det går vidare via dubblettskydd och källfiltrering, och lämnar sedan över till GPT‑4 för långformatsskrivande och SEO-klar formatering. I slutet får ditt CMS ett nytt inlägg, Google Sheets får posten och Slack får ”klart”-meddelandet.

Vad du får: automatisering vs. resultat

Exempel: så här ser det ut

Säg att du siktar på 2 nyhetsposter per dag. Manuellt är det lätt att lägga cirka 30 minuter på att söka och kvalitetsgranska källor, sedan cirka 2 timmar på att skriva och formatera, plus 10 minuter på att publicera och logga. Det är ungefär 5 timmar per dag för två inlägg. Med det här arbetsflödet är triggen automatisk, frågegenerationen sker direkt och systemet sköter sökandet, utkastet, publiceringen och loggningen medan du gör en snabb redaktionell genomgång när du vill. För många team går ”dagligt nyhetsinnehåll” från en halvdagsuppgift till en lätt granskningsrutin.

Det här behöver du

  • n8n-instans (prova n8n Cloud gratis)
  • Alternativ för egen drift om du föredrar det (Hostinger fungerar bra)
  • Google Sheets för dubblettskydd och publiceringsloggar
  • Slack för att skicka publiceringsuppdateringar till din kanal
  • Google Custom Search API-nyckel + Search Engine ID (hämta dem i Google Cloud Console och Custom Search Engine)
  • OpenAI API-nyckel (GPT‑4) (hämta den från din OpenAI API-dashboard)
  • CMS API-endpoint för att publicera inlägg på din webbplats

Kunskapsnivå: Medel. Du kopplar några konton, klistrar in API-nycklar och uppdaterar fälten för CMS-endpointen.

Vill du inte sätta upp detta själv? Prata med en automations­expert (gratis 15-minuters konsultation).

Så fungerar det

Ett schema sätter igång allt. Arbetsflödet körs var 8:e timme, vilket betyder att du kan publicera flera gånger per dag utan att behöva komma ihåg att ”gå och hitta något att posta”.

Google Sheets fungerar som systemets minne. Innan det söker på webben slår arbetsflödet upp tidigare rader (sökfrågor, titlar, URL:er och statusar) så att det kan undvika ämnen du redan använt och hålla ett tydligt revisionsspår.

Sökning, urval och källfiltrering sker i ett svep. n8n hämtar färska resultat via Google Custom Search, väljer en toppartikel och hoppar sedan över källor som brukar blockera botar, så att körningen fortsätter i stället för att krascha halvvägs.

GPT‑4 skriver och CMS:et publicerar. Arbetsflödet skriver en långformatartikel, formaterar publiceringsunderlaget (inklusive SEO-metadata), postar det till din CMS-endpoint, lägger till slutstatus och ordantal i Google Sheets och skickar sedan en Slack-uppdatering med de viktiga detaljerna.

Du kan enkelt justera publiceringstakten och artikelstilen för att matcha din nisch och dina redaktionella krav. Se hela implementationsguiden nedan för anpassningsalternativ.

Steg-för-steg-guide för implementering

Steg 1: Konfigurera den schemalagda dagliga triggern

Det här arbetsflödet startar enligt ett dagligt schema och sätter igång processen för innehållsupptäckt.

  1. Lägg till och öppna Scheduled Daily Trigger.
  2. Ställ in trigger-regeln så att den körs dagligen kl. 07:00 genom att konfigurera Trigger At Hour till 7.
  3. Bekräfta att nodens utdata går till Content Query Agent som första steg i exekveringsflödet.

Steg 2: Anslut Google Sheets

Google Sheets används både för att slå upp tidigare bearbetade sökfrågor och för att logga publicerade artiklar.

  1. Öppna Lookup Sheet Rows och ställ in Document till [YOUR_ID] och Sheet till gid=0.
  2. Ställ in sökfiltret query till {{ /*n8n-auto-generated-fromAI-override*/ $fromAI('values0_Value', ``, 'string') }}.
  3. Inloggningsuppgifter krävs: Anslut era googleSheetsOAuth2Api-uppgifter för Lookup Sheet Rows. Detta är ett AI-verktyg för Content Query Agent, så säkerställ att inloggningsuppgifter är konfigurerade på den överordnade verktygsanslutningen.
  4. Öppna Append Sheet Log och ställ in Document till [YOUR_ID] och Sheet till gid=0.
  5. Verifiera att append-mappningarna använder uttryck som {{ $json.article.slug }} och {{ $('Format Publishing Payload').item.json.article.focusKeyphrase }}.
  6. Inloggningsuppgifter krävs: Anslut era googleSheetsOAuth2Api-uppgifter för Append Sheet Log.

Steg 3: Sätt upp innehållsupptäckt och sökning

Det här avsnittet genererar en unik sökfråga och hämtar nya artiklar från Google Custom Search.

  1. Öppna Content Query Agent och bekräfta att texten i Prompt är inställd på det flerradiga instruktionsblocket för sökfrågan.
  2. Säkerställ att OpenAI Chat Engine är ansluten som språkmodell för Content Query Agent och använder modellen gpt-4-turbo-preview.
  3. Inloggningsuppgifter krävs: Anslut era openAiApi-uppgifter för OpenAI Chat Engine.
  4. Öppna Fetch Recent Articles och ställ in URL till https://www.googleapis.com/customsearch/v1.
  5. Konfigurera query-parametrar: key till [CONFIGURE_YOUR_API_KEY], cx till [YOUR_ID], q till {{ $json.output }}, dateRestrict till d7 och num till 5.
  6. Bekräfta flödesordningen: Scheduled Daily TriggerContent Query AgentFetch Recent ArticlesSelect Top ArticleFilter Blocked Sources.

⚠️ Vanlig fallgrop: Platshållarna [CONFIGURE_YOUR_API_KEY] och [YOUR_ID] i Fetch Recent Articles måste ersättas med er Google Custom Search API-nyckel och CX-ID, annars misslyckas sökningen.

Steg 4: Sätt upp artikelgenerering och formatering

Dessa noder genererar den ursprungliga artikeln och normaliserar JSON-payloaden för publicering.

  1. Öppna Compose Original Article och ställ in Model till gpt-4-turbo-preview, Max Tokens till 4096 och Temperature till 0.7.
  2. Granska meddelandemallen för att bekräfta att den innehåller uttryck som {{ $json.content }}, {{ $json.title }} och {{ $json.source }}.
  3. Inloggningsuppgifter krävs: Anslut era openAiApi-uppgifter för Compose Original Article.
  4. Öppna Format Publishing Payload och behåll den angivna JavaScript Code som tolkar och formaterar svaret till publicerings-, SEO- och metadatafält.
  5. Verifiera flödesordningen: Filter Blocked SourcesCompose Original ArticleFormat Publishing Payload.

Steg 5: Konfigurera publicering och notiser

Det sista steget publicerar den formaterade artikeln till ert CMS, loggar resultat till Google Sheets och skickar en Slack-uppdatering.

  1. Öppna Post to CMS Endpoint och ställ in URL till webhook_url och Method till POST.
  2. Ställ in JSON Body till hela uttryckspayloaden som börjar med { "title": {{ JSON.stringify($json.article.title) }}, "slug": {{ JSON.stringify($json.publishing.slug) }}, ... }.
  3. Bekräfta att förfrågan skickar headern Content-Type som application/json.
  4. Öppna Append Sheet Log och bekräfta att den appendar efter Post to CMS Endpoint.
  5. Öppna Dispatch Slack Update och ställ in Channel till [YOUR_ID] och Text till det mallade meddelandet som använder uttryck som {{ $('Post to CMS Endpoint').item.json.article.title }}.
  6. Inloggningsuppgifter krävs: Anslut era slackOAuth2Api-uppgifter för Dispatch Slack Update.

⚠️ Vanlig fallgrop: Om Post to CMS Endpoint returnerar ett svarsformat som skiljer sig från de förväntade fälten kan Append Sheet Log och Dispatch Slack Update inte lösa uttrycken korrekt.

Steg 6: Testa och aktivera ert arbetsflöde

Kör ett fullständigt test för att validera innehållspipelinen innan ni slår på daglig publicering.

  1. Klicka på Execute Workflow och verifiera att Content Query Agent ger ut en kort sökfras.
  2. Bekräfta att Fetch Recent Articles returnerar resultat, att Select Top Article tolkar dem och att Filter Blocked Sources ger ut minst en giltig artikel.
  3. Kontrollera att Compose Original Article ger ut en JSON-formaterad artikel och att Format Publishing Payload bygger publiceringsfälten korrekt.
  4. Verifiera att Post to CMS Endpoint returnerar ett lyckat svar och bekräfta sedan att Append Sheet Log skriver en ny rad och att Dispatch Slack Update publicerar i Slack.
  5. När ni är nöjda, växla arbetsflödet till Active så att Scheduled Daily Trigger kör det varje morgon.
🔒

Lås upp fullständig steg-för-steg-guide

Få den kompletta implementeringsguiden + nedladdningsbar mall

Vanliga fallgropar

  • Google Sheets-inloggningar kan löpa ut eller kräva specifika behörigheter. Om något slutar fungera, kontrollera credential-status i n8n och bekräfta först att kalkylarket är delat med det anslutna Google-kontot.
  • Om du använder Wait-noder eller extern rendering varierar processtiderna. Öka väntetiden om nedströmsnoder fallerar på tomma svar.
  • Standardprompter i AI-noder är generiska. Lägg in er tonalitet tidigt, annars kommer du att redigera utdata för alltid.

Vanliga frågor

Hur lång tid tar det att sätta upp den här Sheets Slack-automationen?

Cirka en timme om dina API-nycklar och din CMS-endpoint är redo.

Behöver jag kunna koda för att automatisera Sheets Slack-automation?

Nej. Du kopplar främst konton och klistrar in API-nycklar. Den enda ”tekniska” delen är att fylla i detaljerna för din CMS-endpoint.

Är n8n gratis att använda för det här Sheets Slack-automation-arbetsflödet?

Ja. n8n har ett gratis alternativ för egen drift och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna in OpenAI API-kostnader (ofta några dollar per lång artikel) och användning av Google Custom Search.

Var kan jag hosta n8n för att köra den här automatiseringen?

Två alternativ: n8n Cloud (hanterat, enklast att sätta upp) eller egen drift på en VPS. För egen drift är Hostinger VPS prisvärd och hanterar n8n bra. Egen drift ger dig obegränsade körningar men kräver grundläggande serverhantering.

Kan jag anpassa det här Sheets Slack-automation-arbetsflödet för en annan branschnisch och skrivstil?

Ja, och det bör du. Uppdatera prompten i Content Query Agent så att den genererar frågor för din nisch, och justera sedan instruktionerna i Compose Original Article (GPT‑4) så att de matchar din tonalitet (teknisk, avslappnad, executive brief och så vidare). Du kan också finjustera ”senaste 7 dagar”-logiken för färskhet i sökförfrågan och ändra hur många resultat som tas med innan Select Top Article väljer en vinnare.

Varför misslyckas min Google Sheets-anslutning i det här arbetsflödet?

Oftast beror det på utgången OAuth-åtkomst eller att det anslutna Google-kontot saknar behörighet till arket. Anslut Google Sheets på nytt i n8n och bekräfta sedan att kalkylarkets ID är korrekt och att filen inte ligger i en begränsad Shared Drive. Om fel bara händer på dagar med hög belastning kan du också slå i Google API-kvoter, så ett glesare schema eller färre bearbetade resultat kan hjälpa.

Hur många artiklar klarar den här Sheets Slack-automationen?

Det beror på din n8n-plan och dina API-gränser, men de flesta små webbplatser kan utan problem publicera några inlägg per dag med den här setupen.

Är den här Sheets Slack-automationen bättre än att använda Zapier eller Make?

För publiceringspipelines i långformat är n8n ofta ett bättre val eftersom det hanterar grenad logik, kodsteg och ”agent + LLM”-arbetsflöden på ett snyggt sätt. Det är också enklare att behålla ett komplett revisionsspår (Sheets-loggning, payload-formatering, felhantering) utan att tejpa ihop fem separata Zaps. Om du vill köra egen drift är det ytterligare en praktisk vinst när volymen växer. Zapier eller Make kan fortfarande fungera bra för lättare ”skicka mig ett digest”-automationer. Vill du ha en snabb rekommendation baserat på din publiceringsvolym och dina verktyg, prata med en automations­expert.

När det här väl rullar slutar din publiceringsmaskin att hänga på att någon råkar ha en ”ledig förmiddag”. Arbetsflödet tar hand om det repetitiva, och du behåller kontrollen där det spelar roll.

Kontakta oss

Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.

×

Använd mall

Få direkt tillgång till denna n8n-arbetsflödes JSON-fil

Launch login modal Launch register modal