Behöver ert företag hjälp med att implementera AI? Kontakta oss och få prisoffert här →
AI Skolan
januari 22, 2026

Slack + Google Sheets: larm om varumärkesrykte

Rickard Andersson Partner, Nodenordic.se

Ditt varumärke nämns på tio ställen innan lunch. Du får reda på det 16:47, efter att en kund vidarebefordrar en skärmdump och frågar: ”Stämmer det här?” Den fördröjningen är där små problem blir dyra.

Varumärkesansvariga känner oftast av det först. En marknadschef ser sedan ringarna på vattnet, och PR-teamet får till sist ta hand om uppstädningen. Den här automatiseringen för Slack Sheets alerts samlar omnämnanden i en vy och pingar teamet när sentimentet börjar glida åt fel håll.

Nedan ser du hur arbetsflödet hämtar data från flera källor, använder AI för att upptäcka riskmönster och sedan loggar allt till Google Sheets samtidigt som det skickar rätt alert till Slack (och e-post när det är allvarligt).

Så fungerar den här automatiseringen

Hela n8n-arbetsflödet, från trigger till slutresultat:

n8n Workflow Template: Slack + Google Sheets: larm om varumärkesrykte

Problemet: varumärkesomnämnanden är utspridda och det ”dåliga” gömmer sig i bruset

Manuell omvärldsbevakning låter enkelt tills du faktiskt gör det. Du kollar en nyhetsbevakning, sedan sociala medier, sedan ett par recensionssajter, och kanske Reddit eller ett nischforum. Under tiden hinner kontexten ändras, och de omnämnanden du fångar upp är svåra att jämföra eftersom varje källa formaterar data på sitt sätt. Än värre: tidiga varningssignaler är inte alltid uppenbara. En långsam dropp av negativt sentiment, en plötslig volymspik eller koordinerad kritik kan se ut som ”en helt vanlig tisdag” tills det är överallt.

Friktionen byggs på. Och du betalar för den i responstid, tydlighet och trygghet i besluten.

  • Team slösar runt 2 timmar om dagen på att hoppa mellan verktyg, flikar och inkorgsnotiser som inte stämmer överens med varandra.
  • Viktiga omnämnanden missas eftersom de dyker upp i ett forum du inte kollar dagligen, eller under ett nyckelord du inte tänkte på att spåra.
  • När du väl ”bekräftar historien” har samtalet redan gått vidare, vilket gör att ditt svar känns sent och defensivt.
  • Det finns ingen korrekt formaterad logg för post-mortems, så varje incident blir en engångsinsats i panik i stället för en repeterbar process.

Lösningen: AI-driven bevakning som larmar i Slack och loggar i Sheets

Det här arbetsflödet körs enligt schema och kontrollerar flera kanaler parallellt. Det hämtar nya poster från fyra olika ”strömmar” (nyheter, sociala omnämnanden, recensioner och forum) via HTTP-anrop och slår sedan ihop allt till ett enda dataset. Därefter standardiserar det fälten så att varje post får en konsekvent struktur (källa, tidsstämpel, text, länk och valfri metadata). Sedan analyserar en AI-agent, baserad på en OpenAI-chattmodell, sentiment och trendsignaler — inte bara enskilda inlägg. Till sist avgör n8n vad som räknas som en krissituation och skickar en Slack-alert och en Gmail-notis när risken är hög, samtidigt som den lägger till varje analyserad post i Google Sheets för en sökbar, granskbar historik.

Arbetsflödet startar med en schemalagd trigger och dina konfigurerade nyckelord/indata. Sedan samlar det in och normaliserar poster från varje kanal, så att AI:n kan jämföra ”äpplen med äpplen”. På slutet får du ett Slack-meddelande för brådskande lägen, ett e-postmeddelande för att ge ledningen insyn och en Google Sheets-logg som bevarar hela kontexten.

Det du får: automatisering vs. resultat

Exempel: så här ser det ut

Säg att teamet kollar fyra kanaler dagligen (nyheter, sociala medier, recensioner, forum). Om det tar cirka 15 minuter per kanal att skanna, öppna länkar och kopiera anteckningar blir det ungefär 1 timme varje dag, och ändå missar du mönster. Med det här arbetsflödet lägger du kanske 5 minuter på att sätta nyckelord och Slack-kanal en gång, och sedan sköter varje schemalagd körning insamling och analys automatiskt. Du behöver bara ”agera” när Slack flaggar en risk, och din Google Sheets-dashboard har redan underlaget.

Det här behöver du

  • n8n-instans (testa n8n Cloud gratis)
  • Självhostningsalternativ om du föredrar det (Hostinger fungerar bra)
  • Google Sheets för bevakningslogg/dashboard.
  • Slack för att larma din responskanal.
  • OpenAI API-nyckel (hämta den i din OpenAI-dashboard).

Nivå: Medel. Du kopplar konton, lägger in API-uppgifter i HTTP-noder och justerar en prompt samt en villkorskontroll.

Vill du inte sätta upp det här själv? Prata med en automationsexpert (gratis 15-minuters konsultation).

Så fungerar det

En schemalagd kontroll startar allt. n8n kör med det intervall du väljer (varje timme, dagligen eller oftare vid lanseringar). Arbetsflödet laddar dina spårningsindata så att varje körning blir konsekvent.

Omnämnanden hämtas från flera källor samtidigt. Fyra HTTP-anropsvägar hämtar nyhetsartiklar, sociala omnämnanden, recensionsfeedback och forumtrådar. Den parallella upplägget är viktigt eftersom det håller körtiden rimlig även när volymen ökar.

Allt slås ihop och struktureras till ett format. En merge-nod kombinerar strömmarna, och sedan standardiserar ”set/edit fields”-noder payloaden så att varje post har de fält AI:n behöver. Mindre stök in, bättre analys ut.

AI analyserar sentiment och trendrisk och skickar sedan vidare resultatet. AI-agenten (med en OpenAI-chattmodell och strukturerad output-parsning) flaggar negativa toppar och misstänkta mönster. Ett ”if”-villkor avgör vad som kvalar in som krisnivå, och därefter notifierar Slack och Gmail rätt personer medan Google Sheets får en loggrad för varje körning.

Du kan enkelt justera kriströskeln efter din riskaptit. Se hela implementeringsguiden nedan för anpassningsalternativ.

Steg-för-steg-guide för implementering

Steg 1: konfigurera den schemalagda triggern

Det här arbetsflödet körs enligt ett fast schema för att övervaka varumärkets rykte över flera källor.

  1. Lägg till noden Scheduled Check Trigger och ställ in intervallet så att den körs var 15:e minut.
  2. Behåll standardinställningarna om ni inte vill ha en annan takt för övervakningen.

Steg 2: anslut varumärkesindata och källflöden

Definiera ert varumärke och API-endpoints och hämta sedan data från flera källor parallellt.

  1. I Configure Workflow Inputs anger ni brandName till <__PLACEHOLDER_VALUE__Your brand name__>.
  2. Ställ in newsApiUrl, socialApiUrl, reviewsApiUrl och forumsApiUrl till era API-endpoints (var och en är ett <__PLACEHOLDER_VALUE__...>-värde).
  3. Ställ in crisisThreshold till 0.7 och negativeThreshold till 0.6 i Configure Workflow Inputs.
  4. Konfigurera Retrieve News Items med URL ={{ $('Configure Workflow Inputs').first().json.newsApiUrl }} och frågeparametrarna q ={{ $('Configure Workflow Inputs').first().json.brandName }} och sortBy publishedAt.
  5. Konfigurera Collect Social Mentions med URL ={{ $('Configure Workflow Inputs').first().json.socialApiUrl }} och frågeparametrarna query ={{ $('Configure Workflow Inputs').first().json.brandName }} och type recent.
  6. Konfigurera Pull Review Feedback med URL ={{ $('Configure Workflow Inputs').first().json.reviewsApiUrl }} och frågeparametern business ={{ $('Configure Workflow Inputs').first().json.brandName }}.
  7. Konfigurera Gather Forum Threads med URL ={{ $('Configure Workflow Inputs').first().json.forumsApiUrl }} och frågeparametrarna q ={{ $('Configure Workflow Inputs').first().json.brandName }} och sort new.
  8. Bekräfta den parallella routingen: Configure Workflow Inputs skickar utdata till Retrieve News Items, Collect Social Mentions, Pull Review Feedback och Gather Forum Threads parallellt.

⚠️ Vanlig fallgrop: Ersätt alla <__PLACEHOLDER_VALUE__...>-värden i Configure Workflow Inputs och i källnoderna, annars misslyckas era anrop.

Steg 3: slå ihop och standardisera inkommande data

Kombinera de parallella strömmarna och normalisera fält till ett konsekvent schema för analys.

  1. I Merge Source Streams ställer ni in Mode till combine och Combine By till combineAll.
  2. I Standardize Payload Fields mappar ni fält med uttryck som source ={{ $json.source || 'unknown' }} och content ={{ $json.text || $json.content || $json.description || $json.body || '' }}.
  3. Färdigställ resterande mappningar: title ={{ $json.title || $json.subject || '' }}, url ={{ $json.url || $json.link || '' }}, publishedAt ={{ $json.publishedAt || $json.created_at || $json.timestamp || new Date().toISOString() }} och author ={{ $json.author || $json.username || 'anonymous' }}.

Steg 4: konfigurera AI-analys för sentiment och krisläge

Analysera den normaliserade datan med en AI-agent och en strukturerad parser.

  1. I Sentiment Trend Analyst ställer ni in Text till =Analyze the following brand mentions and provide comprehensive insights:{{ JSON.stringify($input.all()) }}.
  2. Bekräfta att Sentiment Trend Analyst har Has Output Parser aktiverat.
  3. Anslut OpenAI Chat Model som språkmodell med modellen gpt-4o och Temperature 0.3.
  4. Inloggningsuppgifter krävs: Anslut era openAiApi-inloggningsuppgifter i OpenAI Chat Model.
  5. Koppla Structured Results Parser till Sentiment Trend Analyst med det tillhandahållna schemat. Lägg till eventuella AI-inloggningsuppgifter i OpenAI Chat Model (inte i parsern).

Se till att Structured Results Parser förblir ansluten till Sentiment Trend Analyst så att utdatafält som isCrisis och crisisLevel är tillgängliga för efterföljande aviseringar.

Steg 5: konfigurera aviseringar och lagring för dashboard

Routa kritiska resultat till Slack och Gmail, och logga alla körningar till Google Sheets.

  1. I Crisis Condition Check säkerställer ni att den booleska villkorskontrollen använder ={{ $json.isCrisis }} för att upptäcka ett krisläge.
  2. Bekräfta att Crisis Condition Check skickar utdata till både Slack Crisis Alert och Email Crisis Notice parallellt.
  3. I Slack Crisis Alert ställer ni in Channel till <__PLACEHOLDER_VALUE__Slack channel ID or name__> och behåller uttrycket för aviseringens Text enligt mallen.
  4. Inloggningsuppgifter krävs: Anslut era slackOAuth2Api-inloggningsuppgifter i Slack Crisis Alert.
  5. I Email Crisis Notice ställer ni in Send To till <__PLACEHOLDER_VALUE__Crisis alert email recipients__> och behåller HTML-uttrycken för Message och Subject.
  6. Inloggningsuppgifter krävs: Anslut era gmailOAuth2-inloggningsuppgifter i Email Crisis Notice.
  7. I Format Dashboard Record ställer ni in timestamp till ={{ new Date().toISOString() }}, date till ={{ new Date().toLocaleDateString() }}, time till ={{ new Date().toLocaleTimeString() }} och brandName till ={{ $('Configure Workflow Inputs').first().json.brandName }}.
  8. I Append Monitoring Sheet ställer ni in Document ID till <__PLACEHOLDER_VALUE__Google Sheets document ID__> och Sheet Name till <__PLACEHOLDER_VALUE__Sheet name for monitoring data__>.
  9. Inloggningsuppgifter krävs: Anslut era googleSheetsOAuth2Api-inloggningsuppgifter i Append Monitoring Sheet.

⚠️ Vanlig fallgrop: Om Slack Crisis Alert eller Email Crisis Notice använder platshållarvärden kommer krisnotiser inte att levereras.

Steg 6: testa och aktivera ert arbetsflöde

Kör ett fullständigt test för att bekräfta datainsamling, AI-analys och aviseringar innan ni aktiverar det i produktion.

  1. Klicka på Execute Workflow och verifiera att Configure Workflow Inputs fyller i ert varumärke och era API-inställningar.
  2. Bekräfta att Retrieve News Items, Collect Social Mentions, Pull Review Feedback och Gather Forum Threads returnerar JSON-svar och slås ihop i Merge Source Streams.
  3. Granska utdata från Sentiment Trend Analyst för att säkerställa att de strukturerade fälten (t.ex. overallSentiment, isCrisis) finns med.
  4. Verifiera att Format Dashboard Record och Append Monitoring Sheet lägger till en rad i Google Sheets, och att Slack Crisis Alert och Email Crisis Notice triggas när isCrisis är true.
  5. Växla arbetsflödet till Active för att starta automatiserad ryktesövervakning enligt schemat.
🔒

Lås upp fullständig steg-för-steg-guide

Få den kompletta implementeringsguiden + nedladdningsbar mall

Vanliga fallgropar

  • Slack-autentisering kan löpa ut eller så kanske boten saknar åtkomst till målkanalen. Om alerts slutar komma, kontrollera först Slack-nodens autentisering och kanalens behörigheter.
  • Om du använder Wait-noder eller extern bearbetning varierar körtiderna. Öka väntetiden om efterföljande noder fallerar på tomma svar.
  • Standardprompter i AI-noder är generiska. Lägg in er varumärkeston och definitioner för ”vad som räknas som en kris” tidigt, annars kommer du att redigera output för alltid.

Vanliga frågor

Hur lång tid tar det att sätta upp den här automatiseringen för Slack Sheets alerts?

Cirka 45 minuter om dina API:er och konton är redo.

Behöver jag kunna koda för att automatisera Slack Sheets alerts?

Nej. Du kopplar mest konton och klistrar in API-nycklar i rätt noder.

Är n8n gratis att använda för det här Slack Sheets alerts-arbetsflödet?

Ja. n8n har ett gratis självhostat alternativ och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna in OpenAI API-användning (ofta bara några dollar i månaden vid låg volym).

Var kan jag hosta n8n för att köra den här automatiseringen?

Två alternativ: n8n Cloud (hanterat, enklast uppsättning) eller självhostning på en VPS. För självhostning är Hostinger VPS prisvärd och hanterar n8n bra. Självhostning ger dig obegränsade körningar men kräver grundläggande serverhantering.

Kan jag anpassa det här Slack Sheets alerts-arbetsflödet för branschspecifika krisregler?

Ja, och det bör du. Uppdatera prompten i noderna Sentiment Trend Analyst och OpenAI Chat Model för att definiera dina ”röda flaggor” (reglerade påståenden, säkerhetsfrågor, influencer-drev, konkurrentbrigadning). Vanliga justeringar är att ändra kriströskeln i noden Crisis Condition Check, lägga till nyckelord för produktlinjer och skriva separata Slack-rutter för ”bevakning” vs ”brådskande”.

Varför misslyckas min Slack-anslutning i det här arbetsflödet?

Oftast är det en utgången token eller att Slack-appen inte lades till i kanalen. Återanslut Slack i n8n-credentials och bekräfta sedan att kanalen finns och att boten har behörighet att posta där. Om det bara fallerar under intensiva perioder kan rate limits också vara orsaken, så minska frekvensen eller batcha alerts.

Hur många omnämnanden klarar den här automatiseringen för Slack Sheets alerts?

I en typisk setup klarar den hundratals per dag, och fler om du batchar poster innan analys.

Är den här automatiseringen för Slack Sheets alerts bättre än att använda Zapier eller Make?

Ofta, ja, om du bryr dig om riktig bevakningslogik och inte bara enkel vidarebefordran. Det här arbetsflödet gör flera parallella hämtningar, slår ihop data, kör strukturerad AI-analys och fattar sedan ett villkorsstyrt beslut — och den typen av förgrening kan bli krånglig eller dyr i Zapier. n8n ger dig också möjligheten att självhosta, vilket är praktiskt när du kör täta kontroller vid lanseringar. Zapier eller Make kan fortfarande vara bra för en grundläggande setup som ”skicka varje omnämnande till Slack”, men då missar du sannolikt trendsignaler. Vill du ha hjälp att välja, prata med en automationsexpert.

När det här väl rullar slutar du jaga problem och börjar se dem tidigt. Det är i praktiken skillnaden mellan en lugn respons och en sen natt med brandkårsutryckning.

Kontakta oss

Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.

×

Använd mall

Få direkt tillgång till denna n8n-arbetsflödes JSON-fil

Få prisoffert redan idag!
Få prisoffert redan idag!

Berätta vad ni behöver hjälp med så hör vi av oss inom en arbetsdag!

Få prisoffert redan idag!
Få prisoffert redan idag!

Berätta vad ni behöver hjälp med så hör vi av oss inom en arbetsdag!

Launch login modal Launch register modal