Du känner igen känslan: en ny lead kommer in, alla har en åsikt, och den “snabba kvalificeringen” blir en minidebatt som äter upp din förmiddag. Sedan kopierar någon in några LinkedIn-detaljer i ett kalkylark, gissar sig till matchning, och du hoppas att du inte just begravde ett riktigt bra konto under “kanske”.
Det här slår hårdast mot sales ops, om vi ska vara ärliga. Men GTM-ansvariga och tillväxtfokuserade grundare känner det också, eftersom pipeline bara rör sig när prioriteringen är konsekvent. Med den här automatiseringen för ICP-poängsättning får du en korrekt formaterad 0–100-poäng samt en kort sammanfattning för varje bolag, så att outreach-beslut slutar bygga på personliga preferenser.
Nedan ser du exakt vad workflowet gör, hur poänglogiken fungerar, och vad du behöver för att köra det i n8n utan att göra processen till ett vetenskapsprojekt.
Så fungerar den här automatiseringen
Här är hela workflowet du kommer att sätta upp:
n8n Workflow Template: Explorium + OpenAI: poängsätt leads säkert
flowchart LR
subgraph sg0["On form submission Flow"]
direction LR
n0["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/form.svg' width='40' height='40' /></div><br/>On form submission"]
n1@{ icon: "mdi:robot", form: "rounded", label: "AI Agent", pos: "b", h: 48 }
n2@{ icon: "mdi:wrench", form: "rounded", label: "MCP Client", pos: "b", h: 48 }
n3@{ icon: "mdi:brain", form: "rounded", label: "Anthropic Chat Model", pos: "b", h: 48 }
n4["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/httprequest.dark.svg' width='40' height='40' /></div><br/>HTTP Request"]
n1 --> n4
n2 -.-> n1
n0 --> n1
n3 -.-> n1
end
%% Styling
classDef trigger fill:#e8f5e9,stroke:#388e3c,stroke-width:2px
classDef ai fill:#e3f2fd,stroke:#1976d2,stroke-width:2px
classDef aiModel fill:#e8eaf6,stroke:#3f51b5,stroke-width:2px
classDef decision fill:#fff8e1,stroke:#f9a825,stroke-width:2px
classDef database fill:#fce4ec,stroke:#c2185b,stroke-width:2px
classDef api fill:#fff3e0,stroke:#e65100,stroke-width:2px
classDef code fill:#f3e5f5,stroke:#7b1fa2,stroke-width:2px
classDef disabled stroke-dasharray: 5 5,opacity: 0.5
class n0 trigger
class n1 ai
class n3 aiModel
class n2 ai
class n4 api
classDef customIcon fill:none,stroke:none
class n0,n4 customIcon
Varför det här spelar roll: lead scoring fallerar när det blir subjektivt
Manuell ICP-poängsättning låter enkelt tills du gör det i volym. Du börjar med “kolla bara webbplatsen”, sedan letar någon efter rekryteringssignaler, sedan vill någon annan ha ledtrådar om tech stack, och plötsligt har du tre olika sätt att poängsätta under samma vecka. Ännu värre: motiveringen försvinner. Nästa månad minns du inte varför Bolag A var “hett” och Bolag B var “inte nu”, så ni tar om diskussionen och bränner tid igen. Alternativkostnaden är påtaglig: dina bästa säljare lägger timmar på kvalificering i stället för att prata med köpare.
Det växer snabbt. Här är var det oftast går snett.
- Folk poängsätter samma lead olika, vilket gör att routing och outreach blir inkonsekvent.
- Firmografiska data och rekryteringskontext finns i för många flikar, så detaljer missas eller misstolkas.
- Anteckningar är ostrukturerade (“verkar bra”) så du kan inte granska beslut eller träna nya SDR:er.
- När volymen sticker iväg blir “snabbkollar” genvägar, och du jagar konton med låg matchning.
Vad du bygger: automatiserad ICP-poängsättning baserat på berikad företagsdata
Det här workflowet gör om ett företagsnamn till en försvarbar ICP-poäng i ett enda körningstillfälle. Det startar när någon skickar in ett företag via en enkel formulärtrigger i n8n. Därefter berikar Explorium kontot med firmografiska detaljer, rekryteringssignaler och teknikkontext (sånt du annars jagar via fem olika källor). Sedan tillämpar en AI-agent ett konsekvent poängramverk med tre pelare, totalt 100 poäng, och producerar två outputs du faktiskt kan använda: en numerisk poäng och en kort, tydlig sammanfattning av “varför”. Till sist skickar workflowet det strukturerade resultatet till en endpoint för dokumentkonvertering, så att du kan lagra det som JSON eller som en delbar brief i dokumentformat.
I praktiken börjar workflowet med intake, hämtar berikningsdata från Explorium och låter LLM:en poängsätta strategisk matchning, AI/tech-beredskap och engagemang/nåbarhet. Efter det paketeras slutpoängen och motiveringen i ett korrekt formaterat format som teamet kan kopiera in i CRM, ett kalkylark eller en routingregel.
Det du bygger
| Det som automatiseras | Det du uppnår |
|---|---|
|
|
Förväntade resultat
Säg att teamet kvalificerar 20 inbound-bolag i veckan. Manuellt tar även en “snabb” kontroll runt 15 minuter per bolag när du räknar in flikbyten och anteckningar, alltså ungefär 5 timmar per vecka. Med det här workflowet tar det cirka en minut att skicka in ett bolag, sedan kör berikning + poängsättning i bakgrunden och returnerar en poäng plus en sammanfattning. Du granskar fortfarande resultatet, men det blir ett snabbt beslut, inte en researchuppgift.
Innan du börjar
- n8n-instans (testa n8n Cloud gratis)
- Alternativ för egen hosting om du föredrar det (Hostinger fungerar bra)
- Explorium för firmografisk berikning, rekryterings- och tech-berikning.
- OpenAI för att skapa poäng och sammanfattning.
- Explorium MCP-inloggningsuppgifter (hämta dem från ditt Explorium-konto).
Kunskapsnivå: Mellan. Du kopplar konton, klistrar in inloggningsuppgifter och justerar en poängprompt utan att skriva kod.
Vill du att någon bygger detta åt dig? Prata med en automations-expert (gratis 15-minuters konsultation).
Steg för steg
Intake av företag via en formulärtrigger. Någon skickar in ett företagsnamn (och valfri kontext som du lägger till, som målsegment eller territorium). Den enda inputen blir “single source of truth” för poängkörningen.
Berikning via Explorium. Workflowet anropar Exploriums MCP-verktyg för att hämta data som människor annars slår upp: bolagsstorlek, bransch, rekryteringssignaler och teknisk footprint. Den berikningen gör att slutpoängen känns grundad, inte gissad.
LLM-baserad poängsättning med en konsekvent rubric. En AI-agent utvärderar bolaget över tre pelare (strategisk matchning, AI/tech-beredskap och engagemang/nåbarhet) och returnerar en 0–100-poäng, en bedömningsetikett och en nedbrytning per pelare. LLM:en är “domaren”, men rubricen är din ledstång.
Strukturerad output för dokument och nedströmsverktyg. Workflowet skickar det formaterade resultatet till en endpoint för dokumentkonvertering så att det kan landa som JSON eller en dokumentlik sammanfattning som du kan dela internt. Därifrån är det enkelt att trycka in i Google Sheets, ett CRM eller ett routingsystem.
Du kan enkelt justera tröskelvärden för poäng och vikter per pelare så att de matchar din ICP. Se hela implementationsguiden nedan för alternativ för anpassning.
Steg-för-steg-guide för implementation
Steg 1: Konfigurera formulärtriggern
Konfigurera intagsformuläret som startar ICP-poängsättningsflödet.
- Lägg till noden Form Intake Trigger som din trigger.
- Ställ in Form Title på
Company ICP scoring. - Lägg till ett formulärfält med Field Label satt till
Company Name, Placeholder satt tillAppleoch markera det som obligatoriskt. - Ställ in Form Description på
=This automation takes company's Linkedin Profile URL and Airtop Profile (authenticated for Linkedin) and returns the company's ICP score.
Steg 2: Sätt upp AI-agenten för poängsättning
Konfigurera AI-prompten som genererar ICP-poängsättningsrapporten.
- Lägg till noden LLM Scoring Agent och anslut den till Form Intake Trigger.
- Ställ in Prompt Type på
define. - Ställ in Text till hela prompten som tillhandahålls, inklusive uttrycket
{{ $json['Company Name'] }}på raden för företagsnamn. - Ställ in System Message i Options till de tillhandahållna instruktionerna för affärsanalytiker för att säkerställa Markdown-utdata och poängsättningsregler.
Steg 3: Anslut AI-språkmodellen och verktyget
Koppla in LLM:en och det externa verktyget som agenten använder. Dessa ansluts som AI-undernoder.
- Anslut Anthropic Chat Engine till LLM Scoring Agent via anslutningen för AI-språkmodell.
- Ställ in modellen i Anthropic Chat Engine till
claude-3-7-sonnet-20250219. - Inloggningsuppgifter krävs: Anslut era
anthropicApi-inloggningsuppgifter i Anthropic Chat Engine. - Anslut Explorium MCP Tool till LLM Scoring Agent via anslutningen för AI-verktyg.
- Ställ in SSE Endpoint till
mcp.explorium.ai/sseoch Authentication tillheaderAuthi Explorium MCP Tool. - Inloggningsuppgifter krävs: Anslut era
httpHeaderAuth-inloggningsuppgifter i Explorium MCP Tool.
Steg 4: Konfigurera utdata för dokumentkonverteringen
Konvertera Markdown-rapporten till ett Google Doc via en HTTP-förfrågan.
- Lägg till noden Doc Conversion Request och anslut den efter LLM Scoring Agent.
- Ställ in URL på
https://md2doc.n8n.aemalsayer.comoch Method påPOST. - Aktivera Send Body.
- Ställ in Authentication på
predefinedCredentialTypeoch Credential Type pågoogleDocsOAuth2Api. - Lägg till body-parametrar: output med värdet
={{ $json.output }}och fileName med värdet={{ $('Form Intake Trigger').item.json['Company Name'] }} ICP Report. - Inloggningsuppgifter krävs: Anslut era
googleDocsOAuth2Api-inloggningsuppgifter i Doc Conversion Request.
Steg 5: Testa och aktivera ert workflow
Verifiera hela flödet från formulärinlämning till dokumentskapande och aktivera det sedan för produktion.
- Klicka på Execute Workflow och skicka in en testpost via Form Intake Trigger.
- Bekräfta att LLM Scoring Agent returnerar en Markdown-rapport med avsnitten för ICP-poäng och slutsats.
- Verifiera att Doc Conversion Request slutförs utan fel och att ett Google Doc skapas med företagsnamnet i filnamnet.
- När ni är nöjda, växla workflowet till Active för att ta emot produktionsinlämningar via formuläret.
Felsökningstips
- Explorium-inloggningsuppgifter kan löpa ut eller kräva specifika behörigheter. Om det skapar fel, kontrollera först dina åtkomstinställningar för Explorium MCP i ditt Explorium-konto.
- Om du använder Wait-noder eller extern rendering varierar processtiderna. Öka väntetiden om nedströmsnoder fallerar på tomma svar.
- Standardprompter i AI-noder är generiska. Lägg in din tonalitet tidigt, annars kommer du redigera outputs för alltid.
Snabba svar
Cirka 30 minuter om dina Explorium- och OpenAI-inloggningsuppgifter är klara.
Nej. Du kopplar Explorium och din LLM-leverantör, och justerar sedan poängprompten och outputfälten.
Ja. n8n har ett gratis alternativ för egen hosting och en gratis testperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna in OpenAI-kostnader (ofta några cent per poängsatt bolag, beroende på din prompt och modell).
Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller egen hosting på en VPS. För egen hosting är Hostinger VPS prisvärd och hanterar n8n bra. Egen hosting ger dig obegränsade körningar men kräver grundläggande serveradministration.
Ja, och det bör du. Du kan ändra pelarvikter och tröskelvärden för bedömningen i AI Agent-prompten, och sedan justera den formaterade outputen som skickas av Doc Conversion Request. Vanliga justeringar är att lägga till regler för “målgeografi”, kräva en minsta bolagsstorlek eller ändra rubricen så att den matchar produktlinjer (SMB vs. enterprise). Om du föredrar en annan modell kan du byta ut Anthropic Chat Engine mot en OpenAI Chat Model-nod.
Oftast handlar det om utgångna inloggningsuppgifter eller saknade MCP-behörigheter i ditt Explorium-konto. Generera en ny token, uppdatera den i n8n och försök igen med berikningsanropet. Om du poängsätter många bolag under en kort period kan rate limits också se ut som “slumpmässiga” fel, så det hjälper att sprida ut anropen.
Om du hostar n8n själv finns ingen exekveringsgräns (det beror främst på din server och API-gränser). På n8n Cloud beror din månatliga exekveringskvot på plan, och workflowet använder en exekvering per poängsatt bolag. I de flesta upplägg tar poängsättning av ett bolag tillräckligt lång tid för att du ska vilja batcha vid stora listor, men att hantera några hundra i veckan är realistiskt.
Ofta, ja. n8n passar bättre när du vill ha riktig logik (förgreningar, retries, strukturerad JSON), och det är enklare att köra själv när exekveringarna växer. Zapier eller Make kan fungera för ett lättviktigt “logga leaden”-flöde, men LLM-poängsättning plus berikning blir snabbt rörigt i tvåstegsautomationer. Den större vinsten är kontroll: du kan versionshantera rubricen, ändra vikter och hålla outputen konsekvent mellan team. Prata med en automations-expert om du vill ha hjälp att välja.
När det här väl rullar slutar lead scoring vara en återkommande mötespunkt. Workflowet tar hand om den repetitiva utvärderingen, och du kan lägga tiden på det som spelar roll: att prata med rätt konton.
Kontakta oss
Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.