Din compliance-”övervakning” ser förmodligen ut så här: en handfull flikar med myndigheter, ett par bokmärkta nyhetsportaler och en gnagande känsla av att du missade något viktigt i går.
Complianceansvariga får smällen först. Men operationsansvariga och riskmedvetna grundare känner det också, särskilt när verksamheten berör finans, energi, vård eller annat som är reglerat. Telegram compliance alerts löser stressen genom att göra utspridda uppdateringar till ett enda strukturerat flöde.
Det här arbetsflödet använder ScrapeGraphAI för att skanna de sidor du väljer, avduplicerar uppdateringar med Redis och postar en lättläst avisering till Telegram. Du ser vad det automatiserar, vilka resultat du kan förvänta dig och vad du behöver för att köra det utan att behöva sitta barnvakt.
Så fungerar den här automatiseringen
Hela n8n-flödet, från trigger till slutligt output:
n8n Workflow Template: ScrapeGraphAI till Telegram: compliancevarningar som fastnar
flowchart LR
subgraph sg0["Start Workflow Flow"]
direction LR
n0@{ icon: "mdi:play-circle", form: "rounded", label: "Start Workflow", pos: "b", h: 48 }
n1["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/code.svg' width='40' height='40' /></div><br/>Define Sources"]
n2@{ icon: "mdi:swap-vertical", form: "rounded", label: "Split Sources", pos: "b", h: 48 }
n3@{ icon: "mdi:cog", form: "rounded", label: "Scrape Regulatory Data", pos: "b", h: 48 }
n4["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/merge.svg' width='40' height='40' /></div><br/>Merge Results"]
n5["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/code.svg' width='40' height='40' /></div><br/>Format & Deduplicate"]
n6@{ icon: "mdi:swap-horizontal", form: "rounded", label: "New Important Update?", pos: "b", h: 48 }
n7@{ icon: "mdi:swap-vertical", form: "rounded", label: "Prepare Telegram Message", pos: "b", h: 48 }
n8["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/telegram.svg' width='40' height='40' /></div><br/>Send Telegram Alert"]
n9["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/redis.svg' width='40' height='40' /></div><br/>Save to Redis"]
n10["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/code.svg' width='40' height='40' /></div><br/>Error Handler"]
n4 --> n5
n2 --> n3
n1 --> n2
n0 --> n1
n5 --> n6
n5 --> n9
n6 --> n7
n3 --> n4
n3 --> n10
n7 --> n8
end
%% Styling
classDef trigger fill:#e8f5e9,stroke:#388e3c,stroke-width:2px
classDef ai fill:#e3f2fd,stroke:#1976d2,stroke-width:2px
classDef aiModel fill:#e8eaf6,stroke:#3f51b5,stroke-width:2px
classDef decision fill:#fff8e1,stroke:#f9a825,stroke-width:2px
classDef database fill:#fce4ec,stroke:#c2185b,stroke-width:2px
classDef api fill:#fff3e0,stroke:#e65100,stroke-width:2px
classDef code fill:#f3e5f5,stroke:#7b1fa2,stroke-width:2px
classDef disabled stroke-dasharray: 5 5,opacity: 0.5
class n0 trigger
class n6 decision
class n9 database
class n1,n5,n10 code
classDef customIcon fill:none,stroke:none
class n1,n4,n5,n8,n9,n10 customIcon
Problemet: compliance-uppdateringar är lätta att missa (och svåra att lita på)
Regeländringar annonserar sällan artigt. En rubrik justeras, en PDF byts ut, en ”guidance”-sida uppdateras i det tysta och plötsligt är du personen som måste förklara varför ingen såg det tidigare. Det manuella upplägget är dessutom rörigt: du kollar när du kommer ihåg, du skummar när du har bråttom och du vidarebefordrar länkar som ibland hinner bli inaktuella innan teamet klickar. Det handlar inte bara om tid. Det är mental belastning, konstant kontextväxling och den där lågintensiva oron att den enda uppdateringen du missade är den som spelar roll.
Friktionen byggs på.
- Du slutar med att kontrollera samma myndighetssidor om och om igen eftersom det inte finns något ”redan granskat”-minne.
- När flera personer bevakar samma källor uppstår dubbla pingar och alla börjar ignorera aviseringar.
- Viktiga uppdateringar begravs i chatten eftersom meddelandena inte är konsekvent formaterade eller inte innehåller korrekt formaterade länkar.
- En missad ändring kan leda till stressade interna förändringar, juridisk granskning i sista minuten och obekväma kundsamtal.
Lösningen: skrapa, avduplicera och skicka aviseringar till Telegram
Det här n8n-arbetsflödet fungerar som ett lättviktigt ”förvarningssystem” för uppdateringar inom regelverk och juridiska nyheter. Du anger vilka sidor du bryr dig om (myndighetssajter, tillsynsorgan, juridiska portaler). Vid varje körning hämtar ScrapeGraphAI de senaste posterna från varje sida och extraherar de nyckelfält du faktiskt behöver: titel, datum och källänk. Flödet normaliserar sedan resultaten och kontrollerar i Redis vad som redan har aviserats. Om en post är ny eller ändrad formaterar det ett tydligt Telegram-meddelande och postar det i den kanal eller chatt du väljer. Till sist sparas ID:t i Redis så att du inte blir pingad igen för samma sak.
Arbetsflödet börjar med en manuell körning medan du testar, och därefter kan det schemaläggas med en Cron-trigger så att det kontrollerar dagligen (eller oftare). ScrapeGraphAI hanterar den stökiga webbtolkningen, Redis fungerar som minnet och Telegram blir den enda platsen där teamet får reda på förändringar utan att behöva leta.
Det du får: automatisering vs. resultat
| Det här arbetsflödet automatiserar | Resultat du får |
|---|---|
|
|
Exempel: så här ser det ut
Säg att du bevakar 8 myndighetssidor och 2 juridiska nyhetsportaler. Manuellt tar även ”snabba kontroller” kanske 5 minuter per sida när du öppnar flikar, skannar rubriker och kopierar länkar, så du lägger runt 50 minuter per runda, och de flesta team gör det några gånger i veckan. Med det här arbetsflödet triggar du en körning (eller schemalägger den), väntar ett par minuter på skrapning och formatering, och Telegram får de nya posterna automatiskt. Det är ungefär 2 till 3 timmar tillbaka varje vecka, plus färre missade ändringar.
Det här behöver du
- n8n-instans (testa n8n Cloud gratis)
- Självhostat alternativ om du föredrar det (Hostinger fungerar bra)
- ScrapeGraphAI community node för AI-assisterad sid-skrapning
- Redis för att lagra ID:n för artiklar som redan setts
- Telegram bot token (hämta den från BotFather i Telegram)
- ScrapeGraphAI API-nyckel (hämta den från ditt ScrapeGraphAI-konto)
Kunskapsnivå: Medel. Du kopierar in uppgifter, klistrar in några URL:er och verifierar ditt Telegram chat ID, men du skriver ingen app.
Vill du inte sätta upp detta själv? Prata med en automatiseringsexpert (gratis 15-minuters konsultation).
Så fungerar det
En körning startar från en trigger. Under uppsättning använder du den manuella triggern för att testa. När du litar på den byter du till ett schema (Cron) så att den kontrollerar dagligen vid en tid som passar teamet.
Dina källor byggs ihop och bearbetas i batchar. En kodnod returnerar listan med myndighetssidor du vill bevaka, sedan loopar n8n igenom dem i små chunkar så att du inte överbelastar webbplatser eller triggar rate limits.
ScrapeGraphAI extraherar de senaste posterna och normaliserar dem. Skraparen hämtar rubrik, datum och URL, och sedan skapar ett normaliseringssteg ett konsekvent ”record ID” som du kan jämföra pålitligt mellan körningar (så att samma uppdatering inte ser ”ny” ut bara för att sajten ändrade formatering).
Redis förhindrar dubbletter och Telegram levererar aviseringen. Om posten redan är lagrad skickas inget. Om den är ny postas ett formaterat meddelande till Telegram och record ID:t skrivs till Redis för att låsa in minnet.
Du kan enkelt ändra källistan för att lägga till branscher eller nyckelord utifrån dina behov. Se hela implementationsguiden nedan för alternativ för anpassning.
Steg-för-steg-guide för implementering
Steg 1: konfigurera den manuella triggern
Konfigurera den manuella triggern så att ni kan köra arbetsflödet vid behov medan ni validerar skrapnings- och varningslogiken.
- Lägg till noden Manual Launch Trigger som er startpunkt.
- Lämna parametrarna i Manual Launch Trigger tomma (standardkonfiguration).
- Behåll vid behov Flowpast Branding som en dokumentationsnotering; det påverkar inte körningen.
Steg 2: anslut skrapkällor och batchbearbetning
Bygg listan över regulatoriska källor och iterera igenom varje URL en i taget.
- I Assemble Source List ställer ni in JavaScript Code till den konfigurerade listan med URL:er, t.ex.
https://www.sec.gov/news/pressreleases,https://www.fca.org.uk/newsochhttps://www.esma.europa.eu/press-news/esma-news. - Koppla Assemble Source List till Batch Source Iterator för att iterera igenom varje källa.
- Lämna Batch Source Iterator med standardinställningar (inga ändringar behövs).
Steg 3: skrapa regulatoriska sidor och slå ihop resultat
Skrapa varje sida efter uppdateringar och kombinera sedan utdata för vidare bearbetning.
- I Regulatory Page Scraper ställer ni in User Prompt till
Extract all recent regulatory news items from the page. For each item return JSON with: title, date, summary, url, sourceName = "{{$json.source}}". Limit to the first 10 items.. - Ställ in Website URL till
{{ $json.url }}så att varje batchobjekt skrapas. - Koppla Regulatory Page Scraper till Combine Scrape Outputs (två indata) och till Failure Capture Logic parallellt.
- Ställ in Combine Scrape Outputs till Mode
combineför att konsolidera skrapresultaten.
Regulatory Page Scraper skickar utdata till både Combine Scrape Outputs (två indata) och Failure Capture Logic parallellt.
Steg 4: normalisera, avduplicera och förgrena parallellt
Normalisera den skrapade datan, tagga kritiska uppdateringar och dela flödet för både avisering och lagring.
- I Normalize and De-dup behåller ni det medföljande normaliseringsskriptet (lägger till
dedupId,isImportant,scrapedAtochsource). - Koppla Combine Scrape Outputs till Normalize and De-dup.
- I Check Critical Update ställer ni in det booleska villkoret till Value 1
{{ $json.isImportant }}med Operationtrue. - I Store Record in Redis ställer ni in Operation till
set, Key till{{ 'reg_update:' + $json.dedupId }}, Value till{{ JSON.stringify($json) }}och TTL till604800med Expire aktiverat.
Normalize and De-dup skickar utdata till både Check Critical Update och Store Record in Redis parallellt.
Steg 5: konfigurera Telegram-aviseringar
Formatera en Telegram-avisering för kritiska uppdateringar och skicka den till den chatt ni har valt.
- Koppla Check Critical Update till Compose Telegram Notice.
- I Compose Telegram Notice lämnar ni Options som standard (konfigurera fält om ni vill bygga en anpassad
text-payload). - I Dispatch Telegram Alert ställer ni in Text till
{{ $json.text }}och Chat ID till{{ $env.TELEGRAM_CHAT_ID || 'YOUR_CHAT_ID' }}. - Behåll Parse Mode som
Markdownoch Disable Notification somfalse.
text-fält kommer Dispatch Telegram Alert att skicka ett tomt meddelande. Lägg till ett fält med namnet text vid behov.Steg 6: testa och aktivera ert arbetsflöde
Validera körningen från början till slut och aktivera sedan arbetsflödet för löpande användning.
- Klicka på Execute Workflow från Manual Launch Trigger för att köra ett fullständigt test.
- Verifiera att Combine Scrape Outputs och Normalize and De-dup ger strukturerade objekt med fälten
dedupIdochisImportant. - Bekräfta att kritiska objekt passerar genom Check Critical Update och når Dispatch Telegram Alert med en giltig
text-payload. - Kontrollera er Redis-instans för att bekräfta att poster skrivs med nycklar som
reg_update:*. - När allt är validerat växlar ni arbetsflödet till Active för att aktivera produktionsanvändning.
Vanliga fallgropar
- ScrapeGraphAI-uppgifter kan gå ut eller så kanske community-noden inte är installerad. Om skrapningen plötsligt inte returnerar något, kontrollera först n8n:s inställningar för Community Nodes och din ScrapeGraphAI API-nyckel.
- Om du använder Wait-noder eller extern rendering varierar bearbetningstiderna. Öka väntetiden om efterföljande noder fallerar på tomma svar.
- Felkonfigurerad Redis orsakar dubbla aviseringar. Se till att varje Redis-nod pekar mot samma host och DB-nummer (att använda en dedikerad DB som ”DB 1” hjälper).
Vanliga frågor
Cirka 10–15 minuter när du har dina nycklar redo.
Nej. Du kommer mest att klistra in uppgifter och uppdatera en lista med käll-URL:er.
Ja. n8n har ett gratis självhostat alternativ och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna med ScrapeGraphAI:s API-kostnader baserat på hur ofta du skrapar och hur många sidor du bevakar.
Två alternativ: n8n Cloud (hanterat, enklast att sätta upp) eller självhosting på en VPS. För självhosting är Hostinger VPS prisvärd och hanterar n8n bra. Självhosting ger dig obegränsade körningar men kräver grundläggande serveradministration.
Ja, och det är det viktigaste du bör anpassa. Uppdatera kodnoden ”Assemble Source List” för att lägga till dina myndighets-URL:er, en branschlabel och valfria nyckelord som ”AML”, ”tariff” eller ”guidance”. Om du vill routa på annat sätt kan du behålla Telegram för brådskande uppdateringar och lägga till Gmail eller Slack genom att duplicera steget ”Dispatch Telegram Alert” och ändra meddelandeformatet i set-noden ”Compose Telegram Notice”.
Oftast är det bot token eller chat ID. Skapa en ny eller kopiera om Telegram Bot Token från BotFather, och bekräfta sedan att du skickar till rätt chat.id (många råkar ta fel tråd eller startar aldrig en chatt med boten). Kontrollera också att boten får posta i målkanalen och har lagts till som admin om det krävs. Om det fungerar i ett arbetsflöde men inte i ett annat, jämför vilken credential som är vald i Telegram-noden.
I praktiken fungerar dussintals sidor bra om du batchar dem och inte skrapar för aggressivt. På n8n Cloud Starter begränsas du av månatliga körningar, så då kör du normalt sett högst några gånger per dag. Om du självhostar finns ingen körningsgräns, men dina Redis- och CPU-begränsningar spelar fortfarande roll; det här arbetsflödet bearbetar vanligtvis en liten batch URL:er per minut när sajter svarar normalt.
Ofta ja, eftersom det här inte är en enkel ”ny post → skicka meddelande”-zap. Du behöver batching, normalisering, avduplicering och en plats att lagra tillstånd (Redis) så att samma rubrik inte spammar teamet. n8n hanterar den typen av logik utan att bli en spagettihärva. Zapier eller Make kan fungera om du bara bevakar ett flöde och inte bryr dig om dubbletter, men de flesta compliance-team bryr sig, ärligt talat. Prata med en automatiseringsexpert om du vill ha hjälp att välja en setup som matchar din aviseringsvolym.
När det här väl rullar slutar du ”kolla sidor” och börjar reagera på det som faktiskt har ändrats. Sätt upp det, låt Telegram göra sitt jobb och få tillbaka ditt fokus.
Kontakta oss
Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.