Behöver ert företag hjälp med att implementera AI? Kontakta oss och få prisoffert här →
AI Skolan
januari 22, 2026

Amplitude + Slack: PQL-varningar med mer kontext

Rickard Andersson Partner, Nodenordic.se

Din produkt visar vem som är redo att köpa. Problemet är att signalen fastnar i Amplitude, begravs i cohort-listor och upptäcks för sent. När någon väl kollar är ögonblicket redan förbi.

Den här konfigurationen för Amplitude Slack alerts slår hårdast mot RevOps, men PLG-marknadsförare och SDR-teamledare känner av den också. Du vill att sälj ska agera snabbt, men du behöver också “varför” bakom larmet så att reps inte skickar klumpig, generisk outreach.

Det här n8n-flödet gör en Amplitude cohort-entry till ett säljklart Slack-meddelande med berikning, en konsekvent 0–10-poäng och samtalsstartare. Du ser vad det automatiserar, vilka resultat du kan förvänta dig och hur du anpassar det efter dina egna PQL-regler.

Så fungerar den här automatiseringen

Hela n8n-flödet, från trigger till slutligt resultat:

n8n Workflow Template: Amplitude + Slack: PQL-varningar med mer kontext

Problemet: PQL-signaler når inte sälj med kontext

PQL:er låter bra på pappret: “När en användare når de här produktmilstolparna, notifiera sälj.” I praktiken hamnar team i en stökig veckorutin. Någon exporterar en cohort-lista, försöker matcha mejladresser till konton, googlar bolaget, gissar intent och pingar sedan en säljare med en halvdan notis. Det är långsamt. Det är också inkonsekvent, vilket gör att sälj litar mindre på larmen och slutar bry sig. Värst är alternativkostnaden: dina bästa “redo nu”-konton behandlas som vilken lead som helst.

Friktionen bygger på. Här är var det brister.

  • Ni ser cohort-entry timmar (eller dagar) efter att det hänt, så outreach blir kall istället för tajmad.
  • Sälj får ett larm utan “varför”, vilket tvingar fram manuellt gräv innan de kan skicka ett vettigt första meddelande.
  • Poängsättningen ändras beroende på vem som tittar på datan, så routing blir politik istället för process.
  • Gratis mejldomäner och registreringar med låg passform smyger in i samma kö, vilket skapar merjobb och utmattning.

Lösningen: Amplitude cohort → berikat Slack-PQL-larm

Det här flödet lyssnar på en webhook från Amplitude i samma ögonblick som en användare går in i din PQL-cohort. Därefter berikar det personen och företaget bakom användaren (via People Data Labs) och gör snabb företagsresearch (via Perplexity) för att få fram detaljer som sälj faktiskt bryr sig om, som sannolik fas, teknisk mognad eller budgetsiganler. Sedan utvärderar en AI-agent den kombinerade “användning + berikning + ICP-regler” och sätter en tydlig 0–10-poäng med motivering. Till sist formaterar n8n allt till ett lättläst Slack-larm så att sälj kan agera direkt, med några skräddarsydda samtalsstartare istället för gissningar.

Flödet startar med en webhook för Amplitude cohort-entry. Därifrån validerar det payloaden, berikar kontot och slår ihop alla signaler till en enda PQL-post. Sedan poängsätter och strukturerar AI-agenten resultatet, och Slack får ett felfritt, konsekvent larm som teamet kan lita på.

Vad du får: automatisering vs. resultat

Exempel: så här ser det ut

Säg att du får 10 nya PQL-cohort-entries på en dag. Manuellt är en vettig “snabbkoll” ändå cirka 20 minuter per lead (hitta kontot, berika grunderna, skumma sajten, skriva en Slack-notis), alltså ungefär 3 timmar merjobb. Med det här flödet lägger du kanske 10 minuter i början på att definiera cohorten och ditt scoring-dokument, och sedan blir varje ny entry automatiskt ett Slack-larm efter en kort beriknings- och scoringkörning. Det är några timmar tillbaka på intensiva dagar, och dina larm blir bättre än de människor skriver när de har bråttom.

Det du behöver

  • n8n-instans (prova n8n Cloud gratis)
  • Självhostningsalternativ om du föredrar det (Hostinger fungerar bra)
  • Amplitude för att skicka webhooks vid cohort-entry.
  • Slack för att leverera larm till rätt kanal.
  • People Data Labs API-nyckel (hämta den i din PDL-dashboard).

Svårighetsnivå: Medel. Du kopplar några API:er, klistrar in autentiseringsuppgifter och testar en webhook-payload från start till mål.

Vill du inte sätta upp det här själv? Prata med en automationsspecialist (gratis 15-minuters konsultation).

Så fungerar det

Amplitude cohort-entry triggar flödet. Amplitude skickar en webhook så fort en användare går in i din definierade PQL-cohort, och n8n tar emot payloaden.

Payloaden struktureras och valideras. n8n plockar ut nyckelidentifierare (som mejl, user ID och cohort-kontext) och filtrerar bort händelser som inte matchar det du räknar som en riktig PQL-entry.

Berikning och research fyller i luckorna. People Data Labs lägger till företags-/personattribut, medan ett AI-researchsteg (Perplexity i det här flödet) hämtar praktisk affärskontext som inte finns i din produktanalys.

En AI-agent poängsätter och förklarar leaden. Scoring-agenten jämför intensiteten i produktanvändning och den berikade kontoprofilen mot dina ICP- och PQL-kriterier som lagras i Google Docs, och levererar sedan en strukturerad poäng med motivering samt rekommenderade nästa steg.

Slack får ett “säljklart” larm. Meddelandet formateras för att vara lätt att läsa i en kanal: vad som hände, varför det spelar roll, hur hett det är och vad man ska säga först.

Du kan enkelt ändra PQL-trösklar och routingregler så att de matchar teamets arbetssätt utifrån era behov. Se hela implementationsguiden nedan för anpassningsalternativ.

Steg-för-steg-guide för implementation

Steg 1: konfigurera webhook-triggern

Börja med att sätta upp den inkommande webhooken som tar emot cohort-händelser och startar workflowet.

  1. Lägg till noden Incoming Cohort Webhook.
  2. Ställ in HTTP MethodPOST.
  3. Ställ in Pathamplitude-pql-cohort.
  4. Kopiera webhookens test-URL och konfigurera er cohort-källa (t.ex. Amplitude) att skicka payloads till den.
Om testsamtal misslyckas, verifiera att ert cohort-verktyg skickar en JSON-payload med en users-array.

Steg 2: parsa och validera cohort-payloaden

Normalisera inkommande data och filtrera bort ogiltiga eller icke-cohort-poster innan berikning.

  1. Lägg till noden Extract Webhook Payload och behåll den angivna JavaScript Code för att parsa användare och validera e-postadresser.
  2. Lägg till noden Validate Cohort Entry och ställ in villkoret till att kontrollera Boolean is true med Left Value {{ $json.inCohort }}.
  3. Koppla Incoming Cohort WebhookExtract Webhook PayloadValidate Cohort Entry.
⚠️ Vanlig fallgrop: Noden Extract Webhook Payload ger fel om inga användare eller ogiltiga e-postadresser finns. Säkerställ att er webhook-payload innehåller giltiga användar-ID:n eller e-postfält.

Steg 3: anslut berikningstjänster och parallella uppslag

Berika varje lead med People Data Labs och företagsintelligens, och slå sedan samman strömmarna.

  1. Lägg till noden Enrich with PDL Data och ställ in URLhttps://api.peopledatalabs.com/v5/person/enrich.
  2. Ställ in Query Parameters i Enrich with PDL Data så att de inkluderar email = {{ $json.email }} och pretty = true.
  3. Inloggning krävs: Anslut era httpHeaderAuth-credentials i Enrich with PDL Data.
  4. Lägg till noden Company Intelligence Lookup och behåll dess meddelandemall; den refererar till företagsnamnet via {{ $json.data.job_company_name }}.
  5. Inloggning krävs: Anslut era perplexityApi-credentials i Company Intelligence Lookup.
  6. Lägg till noden Combine All Inputs för att slå samman berikning och webhook-data.
  7. Koppla Validate Cohort EntryEnrich with PDL Data, och notera att Enrich with PDL Data skickar output till både Company Intelligence Lookup och Combine All Inputs parallellt.
  8. Koppla Company Intelligence LookupCombine All Inputs.

Steg 4: sätt ihop den enhetliga PQL-posten

Slå samman alla datakällor till en enda berikad post för poängsättning.

  1. Lägg till noden Assemble PQL Record och behåll den angivna JavaScript Code som slår samman berikning, användningsdata och cohort-metadata.
  2. Koppla Combine All InputsAssemble PQL Record.

Steg 5: sätt upp AI-baserad lead scoring

Konfigurera AI-agenten, språkmodellen och verktygen för att poängsätta varje lead mot era ICP-kriterier.

  1. Lägg till noden AI Lead Scoring Agent och behåll dess Text-prompt, som refererar till den berikade payloaden med {{ JSON.stringify($json, null, 2) }}.
  2. Koppla Assemble PQL RecordAI Lead Scoring Agent.
  3. Koppla in Claude Chat Model som språkmodell och ställ in Modelclaude-sonnet-4-20250514.
  4. Koppla in verktygsnoderna Reasoning Helper och ICP Doc Fetcher till AI Lead Scoring Agent.
  5. Ställ in ICP Doc Fetcher Operationget.
  6. Inloggning krävs: Anslut era googleDocsOAuth2Api-credentials till den överordnade AI Lead Scoring Agent (verktyget används av agenten).
⚠️ Vanlig fallgrop: Claude Chat Model har inga credentials konfigurerade. Lägg till Anthropic API-credentials i Claude Chat Model, annars misslyckas agenten att poängsätta leads.

Steg 6: konfigurera Slack-output

Formatera leadet med poäng och skicka en Slack-notis till er säljkanal.

  1. Lägg till noden Structure Scored Lead och ställ in JSON Output{{ $json.output }}.
  2. Lägg till noden Prepare Slack Alert och behåll prompt-tilldelningen som formaterar notisen med {{ JSON.stringify($json, null, 2) }}.
  3. Lägg till noden Dispatch Slack Notification och ställ in Text{{ $json.content.parts[0].text }}.
  4. Ställ in AuthenticationoAuth2 och välj rätt Channel ID-värde (ersätt [YOUR_ID]).
  5. Koppla AI Lead Scoring AgentStructure Scored LeadPrepare Slack AlertDispatch Slack Notification.
⚠️ Vanlig fallgrop: Dispatch Slack Notification har inga credentials konfigurerade. Lägg till Slack OAuth2-credentials innan ni testar.

Steg 7: testa och aktivera ert workflow

Validera poängsättning och meddelanden end-to-end, och slå sedan på workflowet för produktionsanvändning.

  1. Klicka på Execute Workflow och skicka en exempel-payload till test-URL:en för Incoming Cohort Webhook.
  2. Bekräfta att Validate Cohort Entry passerar, att berikningsnoderna returnerar data och att AI Lead Scoring Agent ger en JSON-poäng som output.
  3. Verifiera att Dispatch Slack Notification postar ett formaterat meddelande till er valda kanal.
  4. När resultaten ser korrekta ut, växla workflowet till Active för att aktivera körning i produktion.
🔒

Lås upp fullständig steg-för-steg-guide

Få den kompletta implementeringsguiden + nedladdningsbar mall

Vanliga fallgropar

  • Amplitude-webhookpayloads ändras beroende på cohort-konfiguration. Om larmen plötsligt ser “tomma” ut, kontrollera först Amplitudes test-payload för webhook och ditt extraheringssteg i n8n.
  • Om du använder Wait-noder eller extern rendering varierar processtiderna. Öka väntetiden om nedströms noder fallerar på tomma svar.
  • People Data Labs och AI-researchanrop kan slå i rate limits eller kreditgränser. När berikningen kommer tillbaka tom, kontrollera din PDL-användningsdashboard och behörigheterna för din API-nyckel.

Vanliga frågor

Hur lång tid tar det att sätta upp den här automatiseringen för Amplitude Slack alerts?

Cirka en timme om din Amplitude-cohort och dina API-nycklar är klara.

Behöver jag kunna koda för att automatisera Amplitude Slack alerts?

Nej. Du kopplar mest konton och klistrar in API-nycklar. Flödet hanterar redan logiken; du konfigurerar det efter dina kriterier.

Är n8n gratis att använda för det här Amplitude Slack alerts-flödet?

Ja. n8n har ett gratis självhostat alternativ och en gratis provperiod på n8n Cloud. Cloud-planer startar på 20 USD/månad för högre volymer. Du behöver också räkna in People Data Labs-krediter och AI API-användning för research/scoring.

Var kan jag hosta n8n för att köra den här automatiseringen?

Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller självhosting på en VPS. För självhosting är Hostinger VPS prisvärd och hanterar n8n bra. Självhosting ger dig obegränsade körningar men kräver grundläggande serverhantering.

Kan jag anpassa det här Amplitude Slack alerts-flödet för olika nivåer i poängsättningen?

Ja, och det är en av de bästa anledningarna att använda det här flödet. Du kan justera trösklarna för het/varm/kall i routinglogiken och uppdatera scoringkriterierna i regel-dokumentet i Google Docs som ICP Doc Fetcher läser. Om du vill byta berikningsleverantör kan du ersätta People Data Labs HTTP Request med Clearbit eller Apollo och behålla resten av flödet. Du kan också ändra Slack-formateringssteget så att det matchar teamets föredragna larmmall.

Varför misslyckas min Amplitude-anslutning i det här flödet?

Oftast är det webhook-setupen, inte “Amplitude” i sig. Kontrollera att cohort-webhooken triggar vid entry (använd Amplitudes Test Webhook) och bekräfta sedan att din n8n-webhook-URL är korrekt och publikt nåbar. Om payloaden kommer fram men valideringen misslyckas förväntar sig dina extraheringssteg/filter troligen ett annat fältnamn än det som din cohort skickar.

Hur många leads kan den här automatiseringen för Amplitude Slack alerts hantera?

Många, så länge dina API-gränser och din n8n-plan matchar din volym.

Är den här automatiseringen för Amplitude Slack alerts bättre än att använda Zapier eller Make?

För det här use caset är n8n oftast bättre eftersom du kombinerar flera datakällor, gör berikning, kör AI-resonemang och formaterar ett nyanserat Slack-larm. Den typen av “branching plus strukturerat output” blir dyrt och klumpigt i många Zapier-setup:er. Make klarar mer komplexitet, men du stöter fortfarande på begränsningar när du vill ha konsekvent scoringlogik och rikare transformationer. n8n ger dig också möjlighet till självhosting, vilket spelar roll när larmen spikar. Om du är osäker, prata med en automationsspecialist och beskriv din volym och dina routingbehov.

När detta är live slutar PQL-detektering vara ett kalkylarksjobb och blir en automatisk överlämning som sälj faktiskt kan använda. Sätt upp det, trimma kriterierna och låt sedan flödet sköta de tråkiga delarna.

Kontakta oss

Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.

×

Använd mall

Få direkt tillgång till denna n8n-arbetsflödes JSON-fil

Launch login modal Launch register modal