Behöver ert företag hjälp med att implementera AI? Kontakta oss och få prisoffert här →
AI Skolan
januari 22, 2026

Intercom + Google Sheets: QA-poäng loggas rensat

Rickard Andersson Partner, Nodenordic.se

Din QA-process för support går oftast sönder på tråkiga sätt. En konversation stängs i Intercom, någon “ska” granska den senare, och sedan blir det aldrig av. Eller så blir det av… men anteckningarna hamnar i ett dokument, poängen blir inkonsekventa och ingen litar på trenderna.

Supportansvariga märker det när coachning blir gissningslek. QA-chefer får hantera kalkylbladskaoset. Och om du driver en byrå eller ett litet team har du båda rollerna, vilket gör den här Intercom QA-automationen ännu mer användbar.

Det här arbetsflödet poängsätter varje stängd Intercom-konversation med AI, loggar korrekt formaterade QA-resultat i Google Sheets och lägger till coachningsliknande feedback när poängen sjunker. Du får se hur det fungerar, vad du behöver och hur du anpassar det efter teamets regler.

Så fungerar den här automatiseringen

Här är hela arbetsflödet du kommer att sätta upp:

n8n Workflow Template: Intercom + Google Sheets: QA-poäng loggas rensat

Varför det här spelar roll: QA faller isär efter att ärendet stängs

De flesta team misslyckas inte med kundsupport för att agenterna inte bryr sig. De misslyckas för att QA-processen är skör. Granskningar sker “när det finns tid”, vilket betyder att de mest högljudda problemen får uppmärksamhet och de tysta mönstren inte gör det. Sedan frågar någon: “Har vår ton blivit sämre?” eller “Är vi långsamma på brådskande ärenden?” och då sitter du fast med att stickprova ett fåtal tickets, diskutera poängsättning och gräva i Intercom-trådar för att hitta sammanhang. Det tar energi. Och ärligt talat gör det att coachning känns personlig när den borde vara systematisk.

Friktionen byggs på. Här är var det brukar fallera.

  • Granskare lägger cirka 10 minuter per konversation bara på att återskapa vad som hände från utspridda kommentarer och interna anteckningar.
  • Två personer poängsätter samma ticket olika, så trender blir diskussioner i stället för beslut.
  • Interaktioner med låg kvalitet triggar inte coachning tillräckligt snabbt, så samma misstag upprepas i veckor.
  • Rapportering är alltid sen eftersom datainmatningen är manuell, vilket gör att du inte kan lita på den från vecka till vecka.

Vad du bygger: Intercom QA-poäng loggade i Google Sheets

Den här automatiseringen startar i samma ögonblick som en Intercom-konversation markeras som stängd. En webhook fångar händelsen, sedan hämtar arbetsflödet hela konversationen från Intercom API så att den inte bedömer utifrån ofullständig data. Därefter strukturerar den om konversationen till ett läsbart transkript (inklusive första meddelandet och relevanta kommentardelar), och en AI-agent utvärderar interaktionen utifrån praktiska QA-dimensioner som svarstid, tydlighet, ton och beteende, hantering av brådska samt ägarskap/lösning. Poängen parsas till ett strukturerat format och skrivs in i Google Sheets som en korrekt formaterad rad du kan filtrera, visualisera och dela. Om poängen är låg genererar en andra AI-agent coachningsliknande feedback så att du kan ge konkret vägledning i stället för vaga “gör bättre”-anteckningar.

Arbetsflödet börjar med Intercoms stängningshändelse och gör sedan en stökig tråd till ett konsekvent transkript. AI skapar QA-scorecardet och arbetsflödet loggar det i Sheets. Om betyget är 3 eller lägre skapar det även coachningsfeedback så att nästa 1:1 får verkligt innehåll.

Det här bygger du

Förväntade resultat

Säg att teamet stänger cirka 40 Intercom-konversationer per dag och att du QA-granskar 15 av dem. Manuellt, med ungefär 10 minuter för att läsa, poängsätta och logga varje en, blir det cirka 2,5 timmar granskartid dagligen (och det är ändå inte konsekvent). Med det här arbetsflödet triggas allt direkt och AI-poängsättningen körs i bakgrunden; du lägger vanligtvis omkring en minut per ticket på en snabb rimlighetskontroll i Google Sheets. Det är runt 2 timmar tillbaka en vanlig dag, plus mycket renare trendrapportering.

Innan du börjar

  • n8n-instans (testa n8n Cloud gratis)
  • Alternativ för egen hosting om du föredrar det (Hostinger fungerar bra)
  • Intercom för att skicka webhooks när konversationer stängs
  • Google Sheets för att lagra QA-poäng och anteckningar
  • OpenAI API-nyckel (hämta den i din OpenAI-dashboard)

Svårighetsgrad: Medel. Du kopplar in credentials, sätter en webhook i Intercom och granskar några fält i Google Sheets.

Vill du att någon bygger detta åt dig? Prata med en automationsexpert (gratis 15-minuters konsultation).

Steg för steg

En Intercom-konversation stängs. Intercom skickar en conversation.admin.closed-händelse till din n8n-webhook, som fungerar som en “startknapp” för QA.

Arbetsflödet hämtar och förbereder underlaget. Med en HTTP-förfrågan till Intercom API hämtar det hela konversationen, filtrerar meddelandedelar och sätter ihop ett korrekt formaterat transkript så att AI:n inte behöver tolka en rörig tråd.

AI poängsätter konversationen och parsar resultatet. En AI-agent (driven av en OpenAI-chatmodell) utvärderar svarstid, tydlighet, ton, hantering av brådska samt ägarskap/lösning. Kodsteg gör om modellens output till konsekventa fält som du kan lagra och analysera.

Poängen hamnar i Google Sheets, och låga poäng får extra fokus. Arbetsflödet lägger till en ny rad i ditt ark och kontrollerar sedan betyget. Om det är 3 eller lägre genererar det coachningsliknande feedback som du kan använda i granskningar eller uppföljningar (och kan vid behov skicka vidare till Gmail eller Telegram om du vill ha notiser).

Du kan enkelt ändra poängkriterierna så att de matchar din QA-rubric, eller byta destination från Google Sheets till ett annat system. Se hela implementeringsguiden nedan för anpassningsalternativ.

Steg-för-steg-guide för implementering

Steg 1: konfigurera webhook-triggern

Det här arbetsflödet startar när Intercom skickar en konversationshändelse till er webhook-endpoint.

  1. Lägg till och öppna Incoming Webhook Trigger.
  2. Ställ in HTTP MethodPOST.
  3. Ställ in Patha716761a-b062-4f93-9734-04fdc83e9a9a.
  4. Kopiera webhook-URL:en för produktion och klistra in den i era Intercom-webhookinställningar.

Tips: använd webhook-URL:en för test under uppsättning så att ni kan fånga en exempel-payload utan att påverka produktionen.

Steg 2: anslut Intercom och filtrera konversationstyper

Det här avsnittet hämtar hela konversationen och filtrerar bort oönskade typer innan bearbetning.

  1. Öppna Intercom API Fetch och ställ in URL=https://api.intercom.io/conversations/{{ $json.body.data.item.id }}?display_as=plaintext' .
  2. Inloggningsuppgifter krävs: anslut era intercomApi-inloggningsuppgifter.
  3. Öppna Conversation Type Check och bekräfta att villkoren är inställda för att filtrera Spam/Promotional och Other med {{ $json.custom_attributes.Type }}.

⚠️ Vanlig fallgrop: om er Intercom-payload inte innehåller custom_attributes.Type kan filtret oväntat routa allt via grenen “true”.

Steg 3: bygg konversationstranskriptet

Det här steget expanderar Intercom-payloaden och omvandlar kommentarsdelar till ett rent transkript.

  1. Öppna Extract Source Fields och ställ in Field To Split Outsource.body, source.delivered_as, source.author.name, source.author.email, .
  2. Öppna Format Initial Message och behåll koden som matar ut conversationinitiatied baserat på source.body och uppgifter om författaren.
  3. Öppna Expand Parts List och ställ in Field To Split Outconversation_parts.
  4. Granska koden i Filter Comment Parts för att säkerställa att den endast matar ut objekt där part_type är lika med comment.
  5. Öppna Extract Comment Fields och ställ in Field To Split Outbody, created_at, author.type, author.name, author.email.
  6. Öppna Assemble Transcript och behåll logiken för transkriptformatering som matar ut en enda conversation-sträng.

Tips: utdata från Assemble Transcript används både för QA-poängsättning och meddelanderäkning, så håll formateringen konsekvent.

Steg 4: konfigurera AI-poängsättning och meddelanderäkning

Det här arbetsflödet använder två AI-spår: ett för QA-poängsättning och ett för meddelanderäkning, och slår sedan ihop resultaten.

  1. Öppna Combine Conversations och bekräfta att Mode är combine med Combine By inställt på combineByPosition.
  2. Öppna QA Review Agent och ställ in Text{{ $json }}.
  3. Inloggningsuppgifter krävs: anslut era openAiApi-inloggningsuppgifter i OpenAI Chat Engine. OpenAI Chat Engine är ansluten som språkmodell för QA Review Agent (inloggningsuppgifter läggs till i OpenAI Chat Engine, inte i agenten).
  4. Öppna Message Count Agent och ställ in Text{{ $json.conversation }}.
  5. Inloggningsuppgifter krävs: anslut era openAiApi-inloggningsuppgifter i OpenAI Mini Chat. OpenAI Mini Chat är ansluten som språkmodell för Message Count Agent.
  6. Öppna Parse QA Scores och behåll JSON-parse-logiken för $json["output"].
  7. Öppna Parse Count Output och behåll koden som tar bort markdown och parsar JSON.
  8. Öppna Merge Scores & Counts och bekräfta att Mode är combine med Combine By inställt på combineByPosition.

Assemble Transcript skickar utdata till både Combine Conversations och Message Count Agent parallellt.

Steg 5: konfigurera utdata till Google Sheets och coaching vid låg poäng

Det här steget skriver QA-resultat till Google Sheets och triggar coachande feedback vid låga poäng.

  1. Öppna Append Sheet Row och ställ in Operationappend.
  2. Ställ in Document ID[YOUR_ID] och Sheet Name[YOUR_ID].
  3. Mappa kolumner med de befintliga uttrycken, till exempel {{ $json["Overall Score"] }} och {{ $item(0).$node["Intercom API Fetch"].json["id"] }}.
  4. Inloggningsuppgifter krävs: anslut era googleSheetsOAuth2Api-inloggningsuppgifter i Append Sheet Row.
  5. Öppna Low Score Filter och bekräfta att villkoret är {{ $json['Overall Score'] }} lte 3.
  6. Öppna Coaching Feedback Agent och säkerställ att Text konkatenerar {{ $('Combine Conversations').item.json.conversationinitiatied }} och {{ $('Combine Conversations').item.json.conversation }}.
  7. Inloggningsuppgifter krävs: anslut era openAiApi-inloggningsuppgifter i OpenAI Latest Chat. OpenAI Latest Chat är ansluten som språkmodell för Coaching Feedback Agent.

Merge Scores & Counts skickar utdata till både Append Sheet Row och Low Score Filter parallellt.

⚠️ Vanlig fallgrop: om era kolumnnamn i Google Sheet inte matchar mappningsnycklarna (som Overall Score eller Response time), kommer append att misslyckas eller skriva tomma värden.

Steg 6: testa och aktivera ert arbetsflöde

Verifiera arbetsflödet från början till slut innan ni slår på det för produktionstrafik.

  1. Klicka på Execute Workflow och skicka en exempel-payload från Intercom till Incoming Webhook Trigger.
  2. Bekräfta att Intercom API Fetch returnerar en fullständig konversation och att Conversation Type Check routar den till bearbetning (inte filtrerar bort den).
  3. Verifiera att QA Review Agent och Message Count Agent båda returnerar JSON-utdata som parsas korrekt i Parse QA Scores och Parse Count Output.
  4. Kontrollera att Append Sheet Row skriver en ny rad med förväntade värden och att Low Score Filter triggar Coaching Feedback Agent för poäng ≤ 3.
  5. När allt ser korrekt ut, slå om arbetsflödet till Active för användning i produktion.
🔒

Lås upp fullständig steg-för-steg-guide

Få den kompletta implementeringsguiden + nedladdningsbar mall

Tips för felsökning

  • Intercom-credentials och tokens kan ha begränsad scope. Om noden Intercom API Fetch börjar fallera, kontrollera token-behörigheter i Intercom och bekräfta att endpointen fortfarande tillåter läsning av konversationsdelar.
  • Om du får tomma transkript är det oftast filterlogiken som är för aggressiv. Kontrollera stegen “Filter Comment Parts” och transkript-ihopsättning i n8n igen, och testa med några olika konversationstyper.
  • OpenAI kan returnera lite olika formatering över tid. Om steget Parse QA Scores skapar fel, skärp prompten till AI-agenten så att outputen blir förutsägbar, och kör sedan om några exempelärenden för att bekräfta att fälten matchar dina kolumner i arket.

Snabba svar

Hur lång är uppsättningstiden för den här Intercom QA-automationen?

Cirka 30 minuter om din Intercom-webhook och ditt ark är klara.

Krävs kodning för det här QA-poängresultatet?

Nej. Du kopplar främst ihop Intercom, OpenAI och Google Sheets och testar sedan med några stängda konversationer.

Är n8n gratis att använda för det här Intercom QA-automationsflödet?

Ja. n8n har ett gratisalternativ för egen hosting och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volymer. Du behöver också räkna in kostnader för OpenAI API, som vanligtvis är några cent per poängsatt konversation beroende på transkriptets längd.

Var kan jag hosta n8n för att köra den här automatiseringen?

Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller egen hosting på en VPS. För egen hosting är Hostinger VPS prisvärd och klarar n8n bra. Egen hosting ger dig obegränsat antal körningar men kräver grundläggande serverhantering.

Kan jag modifiera det här Intercom QA-automationsflödet för andra use cases?

Ja, och det bör du förmodligen. De flesta team anpassar prompten till QA Review Agent så att den matchar deras rubric (till exempel att vikta ton tyngre för vissa köer). Du kan också justera tröskeln i Low Score Filter, lägga till en spam-/reklamkontroll direkt efter Conversation Type Check eller byta ut Google Sheets mot en annan destination genom att ersätta steget Append Sheet Row.

Varför fungerar inte min Intercom-anslutning i det här flödet?

Oftast beror det på en utgången eller felaktigt scoped Intercom-token. Skapa om credentialn, bekräfta att den kan läsa konversationsdetaljer och testa HTTP-förfrågan igen med ett känt konversations-ID. Om det bara fallerar ibland kan du slå i rate limits när många konversationer stängs samtidigt, så att lägga in en kort väntan eller kö kan stabilisera det.

Vilken volym kan det här Intercom QA-automationsflödet hantera?

Med n8n Cloud Starter kan du hantera tusentals körningar per månad, och vid egen hosting försvinner körningsbegränsningen. I praktiken är den begränsande faktorn OpenAI-genomströmning och Intercoms rate limits, men de flesta små team kan poängsätta varje stängd konversation utan problem.

Är den här Intercom QA-automationen bättre än att använda Zapier eller Make?

Ofta, ja. Det här arbetsflödet gör mer än att flytta fält; det hämtar full Intercom-data, sätter ihop ett transkript, kör en AI-utvärdering i flera steg, parsar strukturerade poäng och genererar sedan coachningsfeedback villkorligt. I Zapier eller Make blir det ofta en lång kedja av sköra steg, och du märker det när output varierar eller när du behöver förgreningar. n8n ger dig dessutom ett alternativ för egen hosting, vilket är praktiskt om du poängsätter många tickets. Om du bara behöver “logga stängda tickets i ett ark” kan Zapier eller Make vara enklare. Prata med en automationsexpert om du vill ha en snabb rekommendation.

När det här väl rullar blir QA ett stabilt system i stället för en veckovis panikinsats. Arbetsflödet tar hand om den repetitiva poängsättningen och loggningen så att du kan fokusera på coachning och att förbättra den faktiska kundupplevelsen.

Kontakta oss

Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.

×

Använd mall

Få direkt tillgång till denna n8n-arbetsflödes JSON-fil

Launch login modal Launch register modal