Behöver ert företag hjälp med att implementera AI? Kontakta oss och få prisoffert här →
AI Skolan
januari 22, 2026

PostgreSQL + SendGrid: dagliga nyhetssammanfattningar

Rickard Andersson Partner, Nodenordic.se

Regulatoriska uppdateringar kommer inte snyggt förpackade. De sprids över myndighetssajter, PDF-bulletiner och ”nyhets”-sidor som kan ändras över en natt, vilket gör att morgonen börjar med tabbar överallt och en gnagande känsla av att du missat något viktigt.

Den här Postgres SendGrid digest-automationen riktar sig i första hand till complianceansvariga, helt ärligt. Men marknadsanalytiker och driftsansvariga märker också nyttan, eftersom någon ändå måste omvandla färska uppdateringar till något teamet faktiskt läser. Resultatet är enkelt: nya regulatoriska punkter fångas automatiskt och landar i din inkorg som en korrekt formaterad daglig sammanställning.

Nedan ser du hur flödet körs, vad det eliminerar och vad du behöver för att få det på plats utan att det blir ett sidoprojekt.

Så fungerar automationen

Se hur detta löser problemet:

n8n Workflow Template: PostgreSQL + SendGrid: dagliga nyhetssammanfattningar

Utmaningen: att hålla sig uppdaterad utan att bo i webbläsaren

Att följa policy- och complianceuppdateringar låter hanterbart tills du gör det varje dag. En tillsynsmyndighet publicerar ett kort inlägg, en annan laddar upp en PDF med en vag titel och en tredje ändrar en sida utan någon tydlig ”nytt”-markering. Så du öppnar flikar, skummar rubriker, kopierar länkar till ett kalkylark och försöker minnas vad du kollade i går. Sedan frågar någon: ”Har något ändrats kring dataskydd den här veckan?” och du är tillbaka och dubbelkollar samma källor eftersom det inte finns någon pålitlig historik.

Det blir snabbt mycket. Här är var det faller isär.

  • Manuell bevakning blir ungefär 1–2 timmar per dag när du följer fler än en handfull myndigheter.
  • Att kopiera och klistra in länkar i ett dokument eller ark skapar fel, och de felen dyker upp senare vid revisioner eller genomgångar med intressenter.
  • Utan avduplicering läser team samma uppdatering igen, vidarebefordrar den igen och slutar gradvis lita på sammanställningen.
  • När arbetet bara finns i någons webbläsarhistorik försvinner täckningen så fort personen är sjuk eller byter roll.

Lösningen: skrapa, lagra och mejla en daglig sammanställning automatiskt

Det här flödet körs enligt schema och kontrollerar en lista med regulatoriska källor som du definierar. Det använder ScrapeGraphAI för att hämta strukturerade poster (som titel, URL, källa och publiceringstid) i stället för att du manuellt skannar sidor. Därefter filtrerar och normaliserar det resultaten i ett Code-steg, så att du bara behåller det som är relevant för dina nyckelord (GDPR, AML, cybersäkerhet eller vad som gäller i din verklighet). Sedan kontrollerar det PostgreSQL för att se vad som redan har fångats och sparar bara nya poster, vilket håller databasen felfri. Till sist bygger det en läsbar HTML-sammanfattning och skickar den via SendGrid till de personer som behöver veta.

Flödet startar med en daglig schematrigger. ScrapeGraphAI samlar in nya poster från din källista, sedan rankar och taggar flödet dem innan det avgör vad som har tillräckligt ”hög påverkan” för att tas med. SendGrid levererar sammanställningen och PostgreSQL behåller historiken så att du kan söka eller rapportera senare.

Vad som förändras: före vs. efter

Praktisk effekt

Säg att du bevakar 12 regulatoriska sajter. Manuellt kanske du lägger cirka 10 minuter per sajt på att ladda sidor, skumma, öppna några poster och sedan klistra in länkar någonstans, vilket blir ungefär 2 timmar per dag när sajterna är ”brusiga”. Med det här flödet lägger du cirka 10 minuter i början på att definiera källor och nyckelord, sedan sker den dagliga körningen automatiskt: skrapa, filtrera, lagra, mejla. Vanligtvis läser du bara sammanställningen (kanske 5 minuter) och går vidare.

Krav

  • n8n-instans (prova n8n Cloud gratis)
  • Alternativ för egen drift om du föredrar det (Hostinger fungerar bra)
  • ScrapeGraphAI community node för skrapning och strukturerad extraktion.
  • SendGrid för att leverera den dagliga sammanställningen via e-post.
  • PostgreSQL för att lagra poster och förhindra dubletter.
  • ScrapeGraphAI API-nyckel (hämta den i din ScrapeGraphAI-kontopanel).
  • SendGrid API-nyckel (skapa den i SendGrids API-inställningar).

Svårighetsgrad: Medel. Du är bekväm med att klistra in autentiseringsuppgifter, redigera en nyckelordslista och skapa en enkel SQL-tabell.

Behöver du hjälp att implementera detta? Prata med en automationsexpert (gratis 15-minuters konsultation).

Flödets gång

En schemalagd trigger körs dagligen. Du väljer rytm (dagligen, endast vardagar, veckovis). När den triggar hämtar den din konfigurerade lista med regulatoriska källor så att flödet vet vad som ska skannas.

Skrapning och extraktion sker därefter. ScrapeGraphAI besöker varje käll-URL och returnerar strukturerade fält som titel, URL, källdomän och publiceringstidsstämpel, vilket är betydligt mer användbart än rå HTML.

Filtrering, normalisering och utvärdering av ”påverkan”. En Code-nod tillämpar din nyckelordslista och städar upp datum. Sedan utvärderar en If-nod påverkanivå så att du kan styra viktiga uppdateringar (eller helt enkelt inkludera dem i sammanställningen med tydligare märkning).

E-post skickas och poster lagras. Flödet bygger en HTML-sammanfattning och skickar den via SendGrid. I samma körning skriver det nya poster till PostgreSQL så att morgondagens skanning kan hoppa över dubletter.

Du kan enkelt ändra nyckelordsfiltreringen så att den matchar branschens termer, eller byta schema från dagligen till veckovis utifrån dina behov. Se hela implementationsguiden nedan för anpassningsalternativ.

Steg-för-steg-guide för implementering

Steg 1: Konfigurera schematriggern

Ställ in arbetsflödet så att det körs enligt en regelbunden rutin för regelefterlevnadsövervakning.

  1. Lägg till och öppna Scheduled Compliance Trigger.
  2. Ställ in Interval så att det körs var 24:e timme (regel: hoursInterval = 24).
  3. Anslut Scheduled Compliance Trigger till Set Regulation Sources.

Steg 2: Anslut ScrapeGraphAI

Konfigurera webbextraktionsnoden så att den hämtar regulatoriska uppdateringar från varje käll-URL.

  1. Öppna Collect Regulatory Web Data.
  2. Ställ in User Prompt till Extract regulatory updates. For each update return: {"title":"string","summary":"string","date":"string","link":"string","impactLevel":"string"}. If impact cannot be inferred set impactLevel to "Normal".
  3. Ställ in Website URL till {{ $json.url }}.
  4. Anslut Iterate Source List till Collect Regulatory Web Data.

Inloggningsuppgifter krävs: Anslut era ScrapeGraphAI-inloggningsuppgifter i Collect Regulatory Web Data.

Steg 3: Ställ in källiteration och påverkanpoängsättning

Definiera källistan, iterera igenom varje URL och normalisera påverkanpoäng innan ni utvärderar prioritet.

  1. Öppna Set Regulation Sources och bekräfta att JavaScript-arrayen innehåller era URL:er, t.ex. https://www.sec.gov/news/pressreleases.rss, https://www.federalregister.gov/, https://www.fca.org.uk/news.
  2. Anslut Set Regulation Sources till Iterate Source List.
  3. Öppna Normalize And Rank Impact och behåll den tillhandahållna poänglogiken för nyckelord som effective immediately och compliance deadline.
  4. Anslut Collect Regulatory Web Data till Normalize And Rank Impact, och därefter till Append Time And Metadata.
  5. Öppna Evaluate Impact Level och verifiera att villkoret använder {{ $json.highImpact }} med den booleska operatorn satt till true.

⚠️ Vanlig fallgrop: Om Set Regulation Sources returnerar en tom array kommer Iterate Source List aldrig att trigga efterföljande noder.

Steg 4: Konfigurera utdata och lagring

Sätt ihop varningsinnehåll, skicka aviseringar och lagra alla uppdateringar i Postgres.

  1. Öppna Assemble Alert Message och mappa fälten ni vill inkludera i aviseringarna.
  2. Anslut Evaluate Impact Level till Assemble Alert Message.
  3. Öppna Dispatch SendGrid Notice och konfigurera e-poståtgärden.
  4. Anslut Assemble Alert Message till Dispatch SendGrid Notice, och därefter till Write Record To Postgres.
  5. Öppna Write Record To Postgres och ställ in Schema till public och Table till regulatory_updates.
  6. Bekräfta att kolumnmappningarna använder uttryck som {{ $json.title }}, {{ $json.summary }}, {{ $json.highImpact }}, {{ $json.timestamp }}, {{ $json.link }}, {{ $json.impactLevel }} och {{ $json.date }}.

Inloggningsuppgifter krävs: Anslut era SendGrid-inloggningsuppgifter i Dispatch SendGrid Notice.

Inloggningsuppgifter krävs: Anslut era Postgres-inloggningsuppgifter i Write Record To Postgres.

Steg 5: Testa och aktivera ert arbetsflöde

Validera hela körvägen och aktivera automationen för användning i produktion.

  1. Klicka på Execute Workflow för att köra ett manuellt test med start i Scheduled Compliance Trigger.
  2. Verifiera att poster passerar genom Collect Regulatory Web Data och poängsätts i Normalize And Rank Impact.
  3. Bekräfta att Dispatch SendGrid Notice skickar ett meddelande för poster med hög påverkan och att Write Record To Postgres infogar en rad i public.regulatory_updates.
  4. Växla arbetsflödet till Active för att aktivera den schemalagda övervakningen som körs var 24:e timme.
🔒

Lås upp fullständig steg-för-steg-guide

Få den kompletta implementeringsguiden + nedladdningsbar mall

Se upp med

  • ScrapeGraphAI-autentiseringsuppgifter kan gå ut eller kräva specifika behörigheter. Om det uppstår fel, kontrollera först autentiseringsuppgifterna för ScrapeGraphAI-noden i n8n och bekräfta sedan att din API-nyckel fortfarande är aktiv hos leverantören.
  • Om du använder Wait-noder eller extern skrapning varierar processtiderna. Öka väntetiden om nedströmsnoder misslyckas på tomma svar, särskilt när du har fler än cirka 20 källor.
  • SendGrid kan ”lyckas” samtidigt som mejlen ändå inte kommer fram om avsändarautentisering inte är klar. Kontrollera SendGrids avsändaridentitet/domänautentisering och din suppression list innan du antar att flödet är trasigt.

Vanliga frågor

Hur snabbt kan jag implementera den här Postgres SendGrid digest-automationen?

Cirka 20 minuter om dina inloggningsuppgifter och databasen är redo.

Kan icke-tekniska team implementera den här dagliga sammanställningen?

Ja, men någon bör vara bekväm med att skapa en enkel PostgreSQL-tabell. Efter det handlar det mest om att koppla konton och redigera källistan och nyckelorden.

Är n8n gratis att använda för det här Postgres SendGrid digest-flödet?

Ja. n8n har ett gratis alternativ för egen drift och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna in användning av ScrapeGraphAI och SendGrid baserat på hur många källor du skrapar och hur många mejl du skickar.

Var kan jag hosta n8n för att köra den här automationen?

Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller egen drift på en VPS. För egen drift är Hostinger VPS prisvärd och kör n8n bra. Egen drift ger dig obegränsade körningar men kräver grundläggande serverhantering.

Hur anpassar jag den här Postgres SendGrid digest-lösningen till mina specifika utmaningar?

Du kan justera listan med regulatoriska källor i code-steget ”Set Regulation Sources” och sedan finjustera nyckelordsfiltreringen i ”Normalize And Rank Impact”. Vanliga justeringar är att lägga till branschtermer (SOX, PCI, HIPAA), ändra schemat till veckovis och uppdatera HTML-formateringen i ”Assemble Alert Message” så att sammanställningen matchar er interna stil.

Varför misslyckas min SendGrid-anslutning i det här flödet?

Oftast är det en ogiltig eller återkallad API-nyckel. Uppdatera SendGrid-autentiseringsuppgifterna i n8n och bekräfta sedan att din avsändaridentitet är verifierad i SendGrid; overifierade avsändare är en tyst källa till problem. Om flödesloggarna visar lyckade anrop men ingen får mejlet, kontrollera suppression list och spamfiltrering på mottagarsidan. Håll även koll på rate limits om du börjar mejla stora listor.

Vad är kapaciteten för den här Postgres SendGrid digest-lösningen?

Den hanterar utan problem några dussin källor per dag för de flesta team. I n8n Cloud beror kapaciteten på din plans månatliga körningar, och egen drift tar bort den gränsen (din server blir flaskhalsen). Om du skalar till hundratals källor, använd batchning och längre timeouts så att skrapresultaten hinner komma tillbaka.

Är den här Postgres SendGrid digest-automationen bättre än att använda Zapier eller Make?

För sammanställningar med mycket skrapning som den här är n8n oftast bättre, eftersom du kan köra kod, bygga grenlogik och avduplicera mot PostgreSQL utan att slåss mot plattformsbegränsningar. Egen drift är också viktigt om du vill ha obegränsade körningar och mer kontroll över datahantering. Zapier eller Make kan fungera för enklare flöden av typen ”RSS till e-post”, men det här flödets skrapning, filtrering och databaskontroller blir ofta klumpiga där. Ärligt talat väljer de flesta team utifrån vem som ska förvalta det. Prata med en automationsexpert om du vill ha en rekommendation för din setup.

När detta väl rullar blir regulatorisk bevakning en tyst bakgrundsprocess i stället för daglig panik. Flödet tar hand om de repetitiva delarna, så att du kan lägga tiden på beslut, inte flikhantering.

Kontakta oss

Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.

×

Använd mall

Få direkt tillgång till denna n8n-arbetsflödes JSON-fil

Launch login modal Launch register modal