Behöver ert företag hjälp med att implementera AI? Kontakta oss och få prisoffert här →
AI Skolan
januari 22, 2026

Google News + Slack: verifierade Furusato-trender

Rickard Andersson Partner, Nodenordic.se

Du öppnar Google News för att “snabbt kolla” uppdateringar om Furusato Nozei, och plötsligt har det gått 40 minuter. Du har flikar överallt, halva anteckningar i ett dokument, och ändå ingen säkerhet i vad som faktiskt trendar.

Det här slår hårdast mot e-handelsmarknadsförare när de behöver sökord som konverterar. Men kommunala planerare som följer rivaliserande regioner känner också av det, och contentteam fastnar i gissningar om vad de ska skriva härnäst. Den här Google News Slack-automationen förvandlar spretiga rubriker till en validerad, handlingsbar daglig rapport.

Nedan är det exakta n8n-flödet som hämtar Furusato Nozei-nyheter, extraherar användbara sökord med AI, validerar efterfrågan med Google Trends-data och postar sedan en strukturerad sammanfattning i Slack.

Så fungerar den här automatiseringen

Hela n8n-flödet, från trigger till slutlig output:

n8n Workflow Template: Google News + Slack: verifierade Furusato-trender

Problemet: sökordsresearch för Furusato är brusig och tidskrävande

Furusato Nozei är brutalt konkurrensutsatt. Nya vinklar på “återbäringsgåvor” dyker upp snabbt, kommuner kopierar det som fungerar och portalförare tävlar om att ranka på samma termer. Problemet är att rubrikerna i sig inte säger vad folk kommer att söka efter härnäst. Du kan läsa tio artiklar om “kammusslor” eller “resevouchers” och ändå inte veta om efterfrågan är på väg upp, ligger platt eller redan är över. Och när researchen bara finns i någons webbläsarhistorik blir det omöjligt att upprepa den dagligen utan att bränna fokus.

Friktionen bygger på. Inte för att något enskilt steg är svårt, utan för att du tvingas göra alla steg, varje dag, i samma ordning.

  • Att skumma Google News-kluster manuellt blir en daglig vana som du inte kan delegera på ett snyggt sätt.
  • Folk väljer sökord utifrån vad som låter hett, och lägger sedan veckan på content för en term som aldrig hade någon verklig sökefterfrågan.
  • Trendkontroller hoppas över när teamet har mycket att göra, vilket gör att besluten glider tillbaka till magkänsla.
  • Insikter hamnar inte där arbetet sker, så “bra fynd” dör i ett dokument i stället för att bli kampanjer.

Det här n8n-flödet körs enligt schema (standard är 09:00 JST) och övervakar bevakningen av Furusato Nozei via ett Google News RSS-flöde. Det formaterar de senaste artiklarna till en tydlig lista, och sedan sammanfattar en AI-agent vad som händer och föreslår ett “mest gångbart” sökord baserat på klustret. Därefter validerar flödet sökordet med Google Trends-data som hämtas via ett Trends API-anrop (via SerpApi), så att du inte agerar på rubriker enbart. En andra AI-agent omvandlar sedan sökordet plus trendhistoriken till en kort brief i strategistil. Till sist sätter n8n ihop rapporten och postar den direkt till din Slack-kanal, redo för teamet att agera på.

Flödet börjar med schemalagd nyhetsinhämtning och AI-baserad sökordsextraktion. Sedan kör det en valideringsport (så att svaga sökord inte slösar API-anrop) och hämtar Japan-specifik trenddata. Slack får ett slutmeddelande som läser som en mini-analytikernotis, inte som en datadump.

Det du får: automation vs. resultat

Exempel: så här ser det ut

Säg att teamet går igenom 12 nya artiklar varje morgon. Om det tar cirka 3 minuter att skumma varje artikel, ytterligare 15 minuter att bestämma ett sökord, plus 10 minuter för att kolla Google Trends manuellt, landar ni på ungefär en timme per dag. Med det här flödet lägger du kanske 5 minuter på att skanna Slack-rapporten och lägga in sökordet i din content- eller annonsplan. “Jobbet” görs fortfarande, men den tråkiga delen är borta, så du startar dagen med tydlighet i stället för flikar.

Det här behöver du

  • n8n-instans (testa n8n Cloud gratis)
  • Alternativ för egen drift om du föredrar det (Hostinger fungerar bra)
  • Slack för att leverera den dagliga trendrapporten.
  • SerpApi för att hämta Google Trends-data programmatiskt.
  • OpenRouter API-nyckel (hämta den i din OpenRouter-dashboard).

Kunskapsnivå: Mellan. Du kopplar in autentiseringsuppgifter och justerar prompts, men du behöver inte skriva “riktig kod” om du inte vill ha djupare anpassning.

Vill du inte sätta upp det här själv? Prata med en automationsexpert (gratis 15-minuters konsultation).

Så fungerar det

En schemalagd körning hämtar färska nyheter. Flödet triggas vid din valda tid och läser Google News RSS-flödet som redan är anpassat för “ふるさと納税”.

Rubrikerna struktureras för analys. n8n formaterar om artikel-listan och lämnar den till en AI-agent, som sammanfattar läget och föreslår ett sökord som faktiskt är värt att validera.

Bara gångbara sökord går vidare. En enkel valideringskontroll fungerar som grind, därefter hämtar ett Trends API-anrop Japan-fokuserad trendhistorik för sökordet och flödet aggregerar datan till något läsbart.

En slutrapport landar i Slack. En andra AI-agent gör trendkurvan plus sökordets kontext till en tajt insiktsnotis, sedan sätter n8n ihop meddelandet och postar det i din valda Slack-kanal.

Du kan enkelt ändra RSS-ämnet och rapportformatet utifrån dina behov. Se hela implementationsguiden nedan för anpassningsalternativ.

Steg-för-steg-guide för implementation

Steg 1: konfigurera den schemalagda triggern

Konfigurera arbetsflödet så att det körs automatiskt varje dag med den schemalagda triggern.

  1. Lägg till och öppna Scheduled Automation Trigger.
  2. Ställ in schemaregeln så att den körs dagligen kl. 9 genom att konfigurera triggerAtHour till 9.
  3. Bekräfta att Scheduled Automation Trigger är ansluten till Retrieve RSS Feed.

Steg 2: anslut nyhetsflödets källa

Hämta de senaste nyhetsartiklarna från Google News via det konfigurerade RSS-flödet.

  1. Öppna Retrieve RSS Feed.
  2. Ställ in URL till https://news.google.com/rss/search?q=%E3%81%B5%E3%82%8B%E3%81%95%E3%81%A8%E7%B4%8D%E7%A8%8E&hl=ja&gl=JP&ceid=JP:ja.
  3. Anslut Retrieve RSS Feed till News List Formatter.

Steg 3: konfigurera AI-analys och nyckelordsvalidering

Formatera nyhetslistan, generera insikter med AI och validera det extraherade nyckelordet för vidare bearbetning.

  1. I News List Formatter ställer ni in fältvärdet för news_list till {{ $items().slice(0, 5).map(item => `タイトル:${item.json.title}\n概要:${item.json.contentSnippet}`).join('\n\n---\n\n') }}.
  2. Öppna Insight Analysis Agent och ställ in Text till {{ $('News List Formatter').first().json.news_list }}.
  3. Säkerställ att OpenRouter Chat Engine är ansluten som språkmodell för Insight Analysis Agent. Credential Required: Anslut era OpenRouter-inloggningsuppgifter i OpenRouter Chat Engine (inte i agentnoden).
  4. I JavaScript Transform Logic behåller ni den tillhandahållna JavaScript code som tolkar AI-utdata och tvingar fram ett reserv-nyckelord.
  5. Konfigurera Keyword Validation Check så att den använder villkoret {{ ($json.parsedData?.keyword ?? '').trim() }} med operationen notEmpty.
  6. Bekräfta flödet Keyword Validation CheckProcess Settings och att falska sökvägen går till No-Op Placeholder för ogiltiga nyckelord.

⚠️ Vanlig fallgrop: Om AI-utdata inte är giltig JSON kommer JavaScript Transform Logic att sätta ett tomt nyckelord och routa till No-Op Placeholder. Validera outputformatet i prompten om detta händer.

Steg 4: konfigurera hämtning av trenddata och generering av rapport

Använd det validerade nyckelordet för att anropa trend-API:t, aggregera resultaten och generera en rapport med AI.

  1. I Process Settings ställer ni in keyword till {{ $json.parsedData.keyword.trim().replace(/\\n/g, '') }}, country till jp och language till ja.
  2. Öppna Trends API Request och ställ in URL till https://serpapi.com/search.
  3. Aktivera Send Query och ställ in frågeparametrarna: engine = google_trends, q = {{ $node["Process Settings"].json.keyword }}, data_type = TIMESERIES, geo = JP, och ange api_key.
  4. I Combine Trend Data ställer ni in Aggregate till aggregateAllItemData.
  5. Säkerställ att OpenRouter Chat Engine 2 är ansluten som språkmodell för Trend Report Agent. Credential Required: Anslut era OpenRouter-inloggningsuppgifter i OpenRouter Chat Engine 2 (inte i agentnoden).
  6. I Assemble Final Report ställer ni in report till {{ $json.output }}, keyword till {{ $('Process Settings').first().json.keyword }} och timestamp till {{ $now.toISO() }}.

Steg 5: konfigurera Slack-utdata

Skicka den slutliga trendrapporten till en Slack-kanal.

  1. Öppna Post Slack Notification och ställ in Text till {{ $json.slack_text }}.
  2. Ställ in Authentication till oAuth2 och välj mål-Channel.
  3. Credential Required: Anslut era Slack-inloggningsuppgifter i Post Slack Notification.

Om ni inte ser er målkanal i listan, anslut Slack på nytt och uppdatera kanallistan.

Steg 6: testa och aktivera ert arbetsflöde

Kör arbetsflödet manuellt för att verifiera varje steg och aktivera det sedan för daglig användning.

  1. Klicka på Execute Workflow för att köra ett manuellt test.
  2. Bekräfta att Retrieve RSS Feed returnerar items, att Insight Analysis Agent ger JSON som output och att Trends API Request returnerar trenddata.
  3. Verifiera att Post Slack Notification postar ett meddelande i er valda kanal med rapportinnehållet.
  4. När testet lyckas, växla arbetsflödet till Active för att aktivera schemalagd körning.
🔒

Lås upp fullständig steg-för-steg-guide

Få den kompletta implementeringsguiden + nedladdningsbar mall

Vanliga fallgropar

  • Slack-inloggningar kan löpa ut eller kräva specifika behörigheter. Om något slutar fungera, kontrollera först dina n8n-autentiseringsuppgifter för Slack och inställningarna för kanalåtkomst.
  • Om du använder Wait-noder eller extern rendering varierar processtiderna. Öka väntetiden om noder längre fram misslyckas på grund av tomma svar.
  • SerpApi (Google Trends) kan hastighetsbegränsa dig om du kör för ofta. Om noden Trends API Request börjar fallera, se över SerpApi:s användningsgränser och minska schemaläggningsfrekvensen eller lägg till filtrering.

Vanliga frågor

Hur lång tid tar det att sätta upp den här Google News Slack-automationen?

Cirka 30 minuter om du redan har dina API-nycklar.

Behöver jag kunna koda för att automatisera Google News Slack-rapportering?

Nej. Du kopplar främst konton och klistrar in API-nycklar. Den valfria JavaScript-transformeringen är redan inkluderad, så du redigerar snarare än bygger från noll.

Är n8n gratis att använda för det här Google News Slack-flödet?

Ja. n8n har ett gratisalternativ för egen drift och en gratis provperiod på n8n Cloud. Molnplaner börjar på 20 USD/månad för högre volym. Du behöver också räkna med SerpApi-användning och kostnader för din AI-modell (OpenRouter/OpenAI-priser varierar per modell).

Var kan jag hosta n8n för att köra den här automatiseringen?

Två alternativ: n8n Cloud (hanterat, enklaste uppsättningen) eller egen drift på en VPS. För egen drift är Hostinger VPS prisvärd och hanterar n8n bra. Egen drift ger dig obegränsade körningar men kräver grundläggande serverhantering.

Kan jag anpassa den här Google News Slack-automationen för ett annat japanskt ämne?

Ja, och det är en vanlig justering. Byt RSS-flödets URL i noden RSS Read till något som NISA eller inbound-turism, och justera sedan AI-agenternas prompts så att sökordsextraktionen passar den nya kategorin. Om du vill ha output på engelska ska du ändra systeminstruktionerna i båda AI-agentnoderna, inte bara slutrapporten.

Varför misslyckas min Slack-anslutning i det här flödet?

Oftast beror det på utgången Slack-auktorisering eller att boten inte har bjudits in till målkanalen. Återanslut Slack-uppgiften i n8n och bekräfta sedan kanal-ID och behörigheter i steget “Post Slack Notification”. Om det fungerar i en testkanal men inte i produktion är det nästan alltid åtkomst.

Hur många sökord kan den här Google News Slack-automationen hantera?

Ett per körning, avsiktligt.

Är den här Google News Slack-automationen bättre än att använda Zapier eller Make?

Ofta, ja, eftersom det här flödet behöver villkorslogik, dataformning och flerstegs AI-analys som blir klumpig (och dyr) i enklare verktyg. n8n ger dig också en väg för egen drift, vilket är praktiskt om du kör dagliga automationer över flera ämnen. Nackdelen är lite mer ansvar för uppsättning, särskilt kring autentiseringsuppgifter och testning. Om din version bara är “skicka RSS till Slack” fungerar Zapier eller Make fint. Om du gör “extrahera, validera, sammanfatta och publicera” passar n8n bättre. Prata med en automationsexpert om du vill ha hjälp att välja.

När det här väl rullar blir din morgon-“research” en snabb läsning i Slack och ett beslut. Ärligt talat är det så det borde ha varit från början.

Kontakta oss

Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.

×

Använd mall

Få direkt tillgång till denna n8n-arbetsflödes JSON-fil

Få prisoffert redan idag!
Få prisoffert redan idag!

Berätta vad ni behöver hjälp med så hör vi av oss inom en arbetsdag!

Få prisoffert redan idag!
Få prisoffert redan idag!

Berätta vad ni behöver hjälp med så hör vi av oss inom en arbetsdag!

Launch login modal Launch register modal