Behöver ert företag hjälp med att implementera AI? Kontakta oss och få prisoffert här →
AI Skolan
januari 21, 2026

ScrapeGraphAI till Pipedrive, policyuppdateringar spåras

Rickard Andersson Partner, Nodenordic.se

Att manuellt kontrollera policywebbplatser är den typ av uppgift som känns ”snabb” tills du inser att den i tysthet äter upp din vecka. Flikar blir fler. Anteckningar blir röriga. Och den enda uppdateringen du behövde mest dyker upp två dagar för sent.

Den här automatiseringen för policy update tracking slår hårdast mot regelefterlevnad inom vård och omsorg och policyteam, men driftansvariga och kundansvariga känner av den också. Du får ett repeterbart sätt att upptäcka nya eller ändrade dokument, logga dem i Pipedrive och snabbt avisera rätt personer.

Nedan ser du hur arbetsflödet körs var några timmar, vad det registrerar och hur du kan justera det så att det matchar din pipeline och din aviseringsstil.

Så fungerar den här automatiseringen

Hela n8n-arbetsflödet, från trigger till slutresultat:

n8n Workflow Template: ScrapeGraphAI till Pipedrive, policyuppdateringar spåras

Problemet: policyuppdateringar missas (eller upptäcks för sent)

Policyändringar väntar inte på din kalender. En ny väglednings-PDF publiceras på en myndighetssida, en sida för offentligt samråd uppdaterar ett datum, eller en ”mindre” revidering ändrar i det tysta vad teamet faktiskt måste göra. När bevakningen är manuell blir den inkonsekvent som standard. Någon kollar på måndag, ingen kollar på tisdag, och på onsdag reagerar ni i stället för att planera. Värst är den mentala belastningen: du är aldrig helt säker på att ni är uppdaterade, vilket skapar fler möten, fler mejltrådar och mycket ”Kan du dubbelkolla det här?”

Det drar iväg snabbt. Här är var det brukar falla sönder.

  • Att kontrollera ens 20 policy-URL:er kan ta cirka 1–2 timmar per genomgång när du öppnar sidor, letar efter datum och bekräftar vad som faktiskt ändrats.
  • Uppdateringar ser ”lika” ut, så folk skummar och missar en revidering som påverkar en rutin, en deadline eller ett rapporteringskrav.
  • Det finns ingen konsekvent revisionslogg, vilket gör att du inte enkelt kan svara på: ”När såg vi den här förändringen första gången?”
  • Aviseringar fastnar i någons inkorg i stället för att vara synliga för teamet som behöver agera.

Lösningen: skrapa policywebbplatser, logga i Pipedrive, avisera i Matrix

Det här arbetsflödet gör policybevakning till en pålitlig loop. Det körs enligt schema (standard är var 6:e timme), hämtar din lista med mål-URL:er, besöker sedan varje sida och extraherar de viktiga delarna som titel, publiceringsdatum, ett sammanfattande stycke och källa. Därefter standardiserar det fält så att allt ser konsekvent ut mellan olika webbplatser. Sedan aggregerar det resultaten, tar bort dubbletter och kontrollerar vad som är ”nytt” eller nyligen uppdaterat så att du inte blir spamad av samma sida om och om igen. Slutligen skapar eller uppdaterar det en Pipedrive-affär för varje policyobjekt och postar ett formaterat meddelande i ditt Matrix-rum så att rätt personer ser det direkt.

Arbetsflödet börjar med en schemalagd skanning och en byggare för URL-listan. ScrapeGraphAI extraherar strukturerade detaljer från varje sida, och sedan filtrerar n8n bort dubbletter och skickar bara verkliga förändringar vidare till Pipedrive och Matrix.

Vad du får: automatisering vs. resultat

Exempel: så här ser det ut

Säg att du bevakar 30 policysidor på myndighets- och tillsynssajter. Manuellt tar även en snabb koll kanske 3 minuter per sida när du öppnar den, letar datum och kontrollerar vad som ändrats, så du lägger cirka 90 minuter per genomgång. Om du gör det två gånger per dag blir det ungefär 3 timmar dagligen. Med det här arbetsflödet: du lägger cirka 15 minuter i början på att lägga till dina URL:er och inloggningsuppgifter, och sedan körs varje skanning i bakgrunden var 6:e timme och postar bara de objekt som faktiskt är nya eller uppdaterade.

Det här behöver du

  • n8n-instans (prova n8n Cloud gratis)
  • Alternativ för self-hosting om du föredrar det (Hostinger fungerar bra)
  • ScrapeGraphAI community-nod för att extrahera policydetaljer
  • Pipedrive för att lagra uppdateringar som affärer i en pipeline
  • Matrix-konto (fås via din homeserver-admin eller Matrix-leverantör)
  • ScrapeGraphAI API-nyckel (hämtas från ScrapeGraphAI)
  • Pipedrive OAuth2 / API-token (hämtas i Pipedrive-inställningar)

Kunskapsnivå: Mellan. Du kopplar in inloggningsuppgifter, redigerar en konfigurationsnod och mappar några fält till din Pipedrive-pipeline.

Vill du inte sätta upp detta själv? Prata med en automationsspecialist (gratis 15-minuters konsultation).

Så fungerar det

En schemalagd skanning startar allt. Arbetsflödet körs var 6:e timme som standard, så du får tät bevakning utan att någon måste komma ihåg att göra det.

Din lista med policy-URL:er förbereds för bearbetning. Ett litet kodsteg tar det kommaseparerade värdet POLICY_SITES och gör om det till en array, och sedan bearbetar n8n varje URL i batchar för att undvika timeouts.

ScrapeGraphAI extraherar det du faktiskt bryr dig om. För varje sida hämtar det strukturerad metadata (titel, datum, sammanfattning, källa, plus en hash) och standardiserar sedan dessa fält så att Pipedrive-poster förblir konsekventa, även när webbplatser inte är det.

Bara verkliga förändringar går vidare. Resultat slås ihop, dubbletter tas bort och en kontroll av ”är detta nyligen/nytt?” avgör om en Pipedrive-affär ska skapas eller uppdateras och om en Matrix-avisering ska skickas.

Du kan enkelt ändra listan över policywebbplatser för att täcka nya tillsynsmyndigheter eller länder utifrån dina behov. Se den fullständiga implementationsguiden nedan för anpassningsalternativ.

Steg-för-steg-guide för implementation

Steg 1: konfigurera den schemalagda triggern

Ställ in arbetsflödet så att det körs dagligen enligt ett schema för att automatiskt skanna policykällor.

  1. Lägg till och öppna Scheduled Policy Scan.
  2. Ställ in schemaregeln så att den körs var 24:e timme (redan konfigurerat som hoursInterval: 24).
  3. Koppla Scheduled Policy Scan till Assemble Policy Links.

Om ni behöver tätare uppdateringar kan ni minska intervallet i Scheduled Policy Scan för att matcha era övervakningsbehov.

Steg 2: anslut URL:er för policykällor

Definiera webbplatserna som ska skannas och dela upp dem i batchar för vidare bearbetning.

  1. Öppna Assemble Policy Links och bekräfta att jsCode innehåller URL:erna ni vill övervaka, till exempel https://www.hhs.gov/about/news/index.html, https://www.cms.gov/newsroom och https://www.fda.gov/news-events/fda-voices.
  2. Koppla Assemble Policy Links till Batch URL Splitter.
  3. I Batch URL Splitter behåller ni standardinställningarna om ni inte vill begränsa batchstorleken.
  4. Säkerställ att Batch URL Splitter skickar utdata till Extract Policy Details och Combine Scrape Outputs.

⚠️ Vanlig fallgrop: Om ni lägger till nya källor, se till att varje objekt innehåller ett source-fält för att behålla ursprungsspårning i efterföljande steg.

Steg 3: ställ in policyextraktion och standardisering

Skrapa varje källsida och normalisera sedan utdatafälten för konsekvent bearbetning.

  1. Öppna Extract Policy Details och ställ in Website URL till ={{ $json.url }}.
  2. Bekräfta att User Prompt innehåller hela instruktionssträngen för att extrahera title, date, summary, link och source från de senaste 7 dagarna.
  3. Credential Required: Anslut era ScrapeGraphAI-inloggningsuppgifter i Extract Policy Details.
  4. Öppna Standardize Policy Fields och behåll den förifyllda jsCode för att normalisera fält och sätta isNew baserat på de senaste 24 timmarna.
  5. Koppla Extract Policy Details till Standardize Policy Fields.
  6. Koppla Standardize Policy Fields till Combine Scrape Outputs.

Om en källsida har en annan struktur, justera prompten i Extract Policy Details så att den speglar sidans layout.

Steg 4: slå ihop, avduplicera och routa senaste policies

Kombinera alla batchar, ta bort dubbletter och dela upp flödet baserat på hur aktuell policyn är.

  1. Öppna Combine Scrape Outputs och ställ in Mode till combine.
  2. Koppla Combine Scrape Outputs till Remove Duplicate Policies.
  3. Verifiera att Remove Duplicate Policies använder den angivna jsCode för att eliminera skiftlägesokänsliga dubbletter av titlar.
  4. Öppna Check Recent Policy och behåll villkoret ={{ $json.isNew }} inställt på true.
  5. Koppla Remove Duplicate Policies till Check Recent Policy.
  6. Check Recent Policy skickar utdata parallellt till både Compose Matrix Alert och Sync Policy Deal.

⚠️ Vanlig fallgrop: Om fältet date saknas eller är felformaterat kommer Standardize Policy Fields att sätta det till aktuell tid, vilket kan orsaka falska positiva träffar i Check Recent Policy.

Steg 5: konfigurera utdata och notifieringar

Skicka aviseringar till Matrix och skapa affärer i Pipedrive för nya policies.

  1. Öppna Compose Matrix Alert och mappa eventuella obligatoriska fält (meddelandetext, rum eller formatering) efter behov för er Matrix-konfiguration.
  2. Koppla Compose Matrix Alert till Dispatch Matrix Notice.
  3. Öppna Dispatch Matrix Notice och ställ in Operation till send.
  4. Credential Required: Anslut era Matrix-inloggningsuppgifter i Dispatch Matrix Notice.
  5. Öppna Sync Policy Deal och bekräfta att Title är inställt på ={{ $json.title }}.
  6. I Sync Policy Deal behåller ni Additional Fields konfigurerade för label: Policy, status: open och visible_to: 3.
  7. Credential Required: Anslut era Pipedrive-inloggningsuppgifter i Sync Policy Deal.

Ni kan berika Matrix-meddelandet genom att lägga till fälten summary och link i Compose Matrix Alert.

Steg 6: testa och aktivera ert arbetsflöde

Kör ett manuellt test för att validera skrapning, avduplicering och utdata innan ni schemalägger arbetsflödet.

  1. Klicka på Execute Workflow för att trigga Scheduled Policy Scan manuellt.
  2. Verifiera att objekt flödar från Extract Policy Details in i Standardize Policy Fields och Combine Scrape Outputs.
  3. Bekräfta att endast unika objekt passerar genom Remove Duplicate Policies och att Check Recent Policy utvärderar isNew korrekt.
  4. Kontrollera att Dispatch Matrix Notice skickar ett meddelande och att Sync Policy Deal skapar en öppen affär med rätt titel.
  5. När allt fungerar, växla arbetsflödet till Active för produktionsanvändning.
🔒

Lås upp fullständig steg-för-steg-guide

Få den kompletta implementeringsguiden + nedladdningsbar mall

Vanliga fallgropar

  • ScrapeGraphAI-inloggningar och selektorer kan sluta fungera när en webbplats ändrar layout. Om du börjar få tomma objekt, kontrollera först utdata från ScrapeGraphAI-noden i din senaste körning.
  • Om du använder Wait-noder eller extern rendering varierar bearbetningstiderna. Öka väntetiden om efterföljande noder misslyckas på grund av tomma svar.
  • Pipedrive kan skapa dubbletter om du inte använder en unik nyckel. Se till att din ”find or create”-logik bygger på sidans URL eller hash, och bekräfta sedan i Pipedrives affärshistorik att uppdateringar skriver över i stället för att klona.

Vanliga frågor

Hur lång tid tar det att sätta upp den här automatiseringen för policy update tracking?

Cirka 15–20 minuter om dina inloggningsuppgifter och din Pipedrive-pipeline är redo.

Behöver jag kodningskunskaper för att automatisera policy update tracking?

Nej. Du klistrar in inloggningsuppgifter och redigerar några konfigurationsvärden. Den enda ”koden” som ingår finns redan i mallen.

Är n8n gratis att använda för det här arbetsflödet för policy update tracking?

Ja. n8n har ett gratis self-hosted-alternativ och en gratis provperiod på n8n Cloud. Cloud-planer startar på 20 USD/månad för högre volym. Du behöver också räkna in kostnader för ScrapeGraphAI API-användning (varierar med volym) och eventuella Pipedrive-planer.

Var kan jag hosta n8n för att köra den här automatiseringen?

Två alternativ: n8n Cloud (hanterat, enklast att sätta upp) eller self-hosting på en VPS. För self-hosting är Hostinger VPS prisvärd och klarar n8n bra. Self-hosting ger dig obegränsade körningar men kräver grundläggande serverhantering.

Kan jag anpassa det här arbetsflödet för policy update tracking för olika policywebbplatser och fält?

Ja, och det bör du. Uppdatera värdena i Set (Initial Config) för POLICY_SITES och justera ScrapeGraphAI-selektorerna om en webbplats använder en annan layout. Vanliga anpassningar är att lägga till ett författarfält, fånga dokumenttyp (PDF vs webbsida), mappa ”Review Needed” till ett specifikt Pipedrive-steg och byta ut Matrix-notiser mot mejl om ditt team inte använder Matrix.

Varför misslyckas min Pipedrive-anslutning i det här arbetsflödet?

Oftast är det utgångna OAuth-inloggningar eller en återkallad API-token. Återanslut Pipedrive-uppgifterna i n8n och bekräfta sedan att den anslutna användaren har behörighet att skapa och uppdatera affärer i mål-pipelinen. Om det bara fallerar vid större körningar, kontrollera rate limiting och minska antalet POLICY_SITES per cykel.

Hur många policysidor klarar den här automatiseringen för policy update tracking?

Håll dig under cirka 50 URL:er per körning för att behålla stabilitet och undvika rate limits.

Är den här automatiseringen för policy update tracking bättre än att använda Zapier eller Make?

Ofta, ja, eftersom det här arbetsflödet behöver loopar, deduplicering och logik för ”avisera bara vid förändring”, vilket blir klumpigt i enklare verktyg. n8n ger dig också en väg för self-hosting, vilket spelar roll om du väntar dig frekventa skanningar och inte vill betala per ministeg. En annan praktisk fördel är kontroll: du kan granska varje körning och se exakt varför något flaggades (eller inte) som nytt. Zapier eller Make kan fungera utmärkt för enkla aviseringar i stil med ”ny RSS-post till Slack”, men de brukar få problem när du skrapar flera webbplatser och normaliserar data. Vill du ha hjälp att välja, Prata med en automationsspecialist.

När detta väl körs slutar policybevakning att vara ett dagligt måste och blir i stället infrastruktur i bakgrunden. Arbetsflödet hanterar den repetitiva kontrollen så att du kan fokusera på beslut och genomförande.

Kontakta oss

Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.

×

Använd mall

Få direkt tillgång till denna n8n-arbetsflödes JSON-fil

Launch login modal Launch register modal