Behöver ert företag hjälp med att implementera AI? Kontakta oss och få prisoffert här →
AI Skolan
januari 22, 2026

Perplexity till MongoDB: dagligt nyhetsarkiv + Gmail

Rickard Andersson Partner, Nodenordic.se

Din process för ”daglig nyhetssammanställning” brukar börja med goda intentioner och sluta i en massa flikar. Du kopierar rubriker till ett dokument, klistrar in länkar i Slack, tappar bort källan och gör sedan om allt i morgon. Det är därför Perplexity MongoDB-automatisering är så användbar: den gör att nyhetsbevakning inte blir ett andra jobb.

Det här träffar marknadsförare som behöver snabba vinklar till kampanjer, men byråägare och drift-/ops-personer som kör kundbevakning känner också igen sig. Du får ett sökbart arkiv i MongoDB plus en pålitlig Gmail-sammanställning varje morgon, utan att behöva passa processen.

Nedan ser du hur arbetsflödet körs 08:00 UTC, hur det omvandlar Perplexitys svar till felfri strukturerad data och hur det lagrar allt så att nästa brief bygger på källor du faktiskt kan hitta.

Så här fungerar automatiseringen

Se hur detta löser problemet:

n8n Workflow Template: Perplexity till MongoDB: dagligt nyhetsarkiv + Gmail

Utmaningen: daglig nyhetsbevakning som aldrig blir ett system

Att hänga med i nyheterna är enkelt. Att hålla ordning på dem är den brutala delen. Du kanske läser en artikel på morgonen, klistrar in länken i en anteckning och inser senare att du också behöver tidsstämpeln, källnamnet och kategorin för rapportering. Nästa vecka frågar någon: ”Har vi redan sett den här nyheten?” och du fastnar i att leta i mejltrådar och gamla dokument. Ärligt talat är den värsta delen den mentala belastningen: du gör research samtidigt som du försöker agera databas.

Det bygger snabbt upp. Här är var rutinen vanligtvis faller isär.

  • Rubriker sparas utan konsekventa fält, så filtrering på källa eller ämne blir gissningslek.
  • Länkar hamnar utspridda i dokument, chatt och bokmärken, vilket gör att du inte kan bygga ett tillförlitligt arkiv.
  • Manuell kopiering bjuder in fel, och en enda felaktig URL räcker för att rasera förtroendet för hela sammanställningen.
  • Dagliga sammanställningar hoppas över när dagen blir stressig, så ”systemet” funkar bara på lugna dagar.

Lösningen: Perplexity hämtar nyheter, MongoDB lagrar dem, Gmail bekräftar

Det här arbetsflödet kör tyst i bakgrunden och gör dagliga nyheter till strukturerad, återanvändbar information. Varje morgon 08:00 UTC triggar n8n en Perplexity-fråga som begär de senaste globala nyheterna i en fördefinierad JSON-struktur. Eftersom Perplexity returnerar payloaden som en sträng, rensar och tolkar arbetsflödet den med ett litet JavaScript-steg och omvandlar sedan varje rubrik till ett konsekvent ”nyhetsobjekt” (rubrik, tidsstämpel, källa, URL, kategori). Därefter loopar n8n igenom objekten och lägger in dem i en MongoDB-kollektion som heter daily_news. När insättningarna är klara aggregerar det en snabb sammanfattning och skickar ett Gmail-meddelande så att du vet att pipelinen körde och vad den fångade upp.

Arbetsflödet startar enligt schema, inte när du kommer ihåg det. Perplexity genererar dagens flöde, datan normaliseras till felfri JSON och MongoDB blir ditt långtidsarkiv. Gmail levererar sedan den korta sammanställningen du faktiskt hinner läsa.

Vad som förändras: före vs. efter

Praktisk effekt i verkligheten

Säg att du följer ungefär 20 rubriker varje morgon. Manuellt lägger du kanske 3 minuter per artikel på att fånga rubrik, länk, källa och en snabb kategori, plus ytterligare 20 minuter på att skriva och skicka en sammanställning. Det är ungefär 1,5 till 2 timmar per dag när du räknar med att dubbelkolla och rätta misstag. Med det här arbetsflödet är ”arbetet” i princip noll: det körs 08:00 UTC, lagrar allt automatiskt och skickar en Gmail-sammanfattning på några minuter. Du får tillbaka din morgon och du behåller arkivet.

Krav

  • n8n-instans (prova n8n Cloud gratis)
  • Alternativ för self-hosting om du föredrar det (Hostinger fungerar bra)
  • Perplexity för att hämta strukturerade dagliga nyhetsresultat
  • MongoDB för ett sökbart daily_news-arkiv
  • Gmail för att skicka den dagliga bekräftelsesammanställningen
  • Perplexity API-nyckel (hämtas i inställningarna för ditt Perplexity-konto)
  • MongoDB-anslutningssträng (hämtas från din MongoDB-klusterkonfiguration)

Kunskapsnivå: Medel. Du kopplar konton, sätter upp autentiseringsuppgifter och är bekväm med att redigera ett litet parsningsskript.

Behöver du hjälp att implementera detta? Prata med en automationsexpert (kostnadsfri konsultation i 15 minuter).

Flödet i arbetsflödet

Ett dagligt schema startar det. 08:00 UTC kör cron-triggern automatiskt, så du är inte beroende av att någon kommer ihåg att ”göra sammanställningen”.

Perplexity hämtar nyheterna i ett strikt format. Perplexity-noden begär globala nyheter och ber om en specifik JSON-struktur (rubrik, tidsstämpel, källa, URL, kategori), vilket gör datan enklare att lagra och återanvända.

Svaret rensas och delas upp i objekt. Ett kodsteg parsar Perplexitys strängutdata till giltig JSON, och därefter använder n8n en batch-loop för att hantera varje artikel en och en utan att fastna i en stor payload.

MongoDB blir arkivet och Gmail blir kvittot. Varje objekt läggs in i daily_news-kollektionen, och sedan aggregerar ett annat kodsteg en kort sammanfattning och skickar en bekräftelse via Gmail.

Du kan enkelt ändra Perplexity-prompten så att den fokuserar på din bransch i stället för ”globala nyheter” utifrån dina behov. Se den fullständiga implementationsguiden nedan för anpassningsalternativ.

Steg-för-steg-guide för implementering

Steg 1: Konfigurera schematriggern

Det här arbetsflödet startar dagligen enligt ett schema för att automatiskt hämta de senaste nyheterna.

  1. Lägg till noden Scheduled Automation Start som din trigger.
  2. Ställ in schemaregeln så att den körs vid triggerAtHour: 8 (finns under ruleinterval).
  3. Lämna övriga triggerinställningar på standardvärdena om ni inte vill ha ett annat schema.

Steg 2: Anslut Perplexity för nyhetshämtning

Arbetsflödet använder Perplexity för att hämta och formatera nyhetsflashar.

  1. Lägg till Perplexity News Fetch och koppla den till Scheduled Automation Start.
  2. Behörighet krävs: Anslut era perplexityApi-uppgifter.
  3. Ställ in Modelsonar-pro.
  4. Under Options ställer ni in Search Recencyday.
  5. Använd den tillhandahållna prompttexten i Messages för att säkerställa att svaret är en JSON-array med de obligatoriska fälten.

⚠️ Vanlig fallgrop: Om Perplexity returnerar felaktigt formaterad JSON kommer parsningssteget att misslyckas. Håll prompten strukturerad exakt som den visas och verifiera svarsformatet under testning.

Steg 3: Tolka och batcha nyhetsdatan

Dessa noder rensar JSON-svaret och bearbetar varje nyhetsobjekt var för sig.

  1. Lägg till Parse News Payload och koppla den till Perplexity News Fetch.
  2. Klistra in den tillhandahållna JavaScript-koden i jsCode (den tar bort backticks och parsar JSON-arrayen).
  3. Lägg till Iterate News Batches och koppla den till Parse News Payload.
  4. Låt alternativen i Iterate News Batches vara standard; reset ska vara kvar som false.

Tips: Parse News Payload ger ett objekt per nyhetsartikel, vilket möjliggör batch-iteration och infogningar rad-för-rad i MongoDB.

Steg 4: Konfigurera lagring i databasen

Varje nyhetsobjekt infogas i MongoDB före den slutliga aggregeringen.

  1. Lägg till Store News in MongoDB och koppla den till den andra utgången från Iterate News Batches.
  2. Behörighet krävs: Anslut era mongoDb-uppgifter.
  3. Ställ in Operationinsert.
  4. Ställ in Collectionnews.
  5. Ställ in Fields=headline,timestamp,source,summary,url,category,language,metadata.
  6. I OptionsdateFields anger ni värdet till {{ $json.headline }},{{ $json.timestamp }},{{ $json.source }},{{ $json.summary }},{{ $json.url }},{{ $json.category }},{{ $json.language }},{{ $json.metadata }}.

⚠️ Vanlig fallgrop: Säkerställ att er MongoDB-kollektion tillåter inserts med de fält som skickas; valideringar för avvikande schema kan neka poster.

Steg 5: Aggregera resultat och skicka bekräftelse

Efter batch-inserts aggregerar arbetsflödet alla objekt och skickar ett bekräftelsemail.

  1. Lägg till Aggregate News Results och koppla den till den första utgången från Iterate News Batches.
  2. Klistra in den tillhandahållna JavaScript-koden i jsCode för att bygga en noticias-array från alla objekt.
  3. Lägg till Dispatch Confirmation Email och koppla den till Aggregate News Results.
  4. Behörighet krävs: Anslut era gmailOAuth2-uppgifter.
  5. Ställ in Send To[YOUR_EMAIL].
  6. Ställ in Subject=[ News ] Record of all news items.
  7. Ställ in Message till HTML-innehållet som börjar med = för att behålla den formaterade e-posten.

Notering om körflöde: Iterate News Batches skickar utdata till både Aggregate News Results och Store News in MongoDB parallellt.

Steg 6: Testa och aktivera ert arbetsflöde

Kör ett manuellt test för att validera nyhetshämtning, parsning, databasinfogningar och e-postleverans.

  1. Klicka på Execute Workflow för att köra ett manuellt test från Scheduled Automation Start.
  2. Verifiera att Perplexity News Fetch returnerar en JSON-array och att Parse News Payload ger separata objekt.
  3. Kontrollera MongoDB för att bekräfta att dokument infogades i news-kollektionen.
  4. Bekräfta att e-postmeddelandet kommer från Dispatch Confirmation Email och att HTML-formateringen är intakt.
  5. När allt är verifierat växlar ni arbetsflödet till Active för att aktivera dagliga körningar.
🔒

Lås upp fullständig steg-för-steg-guide

Få den kompletta implementeringsguiden + nedladdningsbar mall

Se upp med

  • Perplexity-autentiseringsuppgifter kan gå ut eller behöva specifika behörigheter. Om det slutar fungera, kontrollera först inställningarna för Perplexity API-nyckeln i ditt konto.
  • Om du använder Wait-noder eller extern rendering varierar processtiderna. Öka väntetiden om nedströmsnoder misslyckas på grund av tomma svar.
  • Standardprompter i AI-noder är generiska. Lägg in er tonalitet tidigt, annars kommer du redigera utdata för alltid.

Vanliga frågor

Hur snabbt kan jag implementera den här Perplexity MongoDB-automatiseringen?

Cirka en timme om du redan har dina Perplexity-, MongoDB- och Gmail-uppgifter redo.

Kan icke-tekniska team implementera den här Perplexity MongoDB-automatiseringsuppgiften/utfallet från fokusnyckelordet?

Ja, men du vill ha någon som är bekväm med att klistra in autentiseringsuppgifter och testa några provkörningar. Den enda ”tekniska” delen är att verifiera att JSON-parsningen beter sig korrekt med ditt Perplexity-utdata.

Är n8n gratis att använda för det här Perplexity MongoDB-automatiseringsarbetsflödet?

Ja. n8n har ett gratis self-hosted-alternativ och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna in Perplexity API-användning och eventuella kostnader för MongoDB-hosting.

Var kan jag hosta n8n för att köra den här automatiseringen?

Två alternativ: n8n Cloud (hanterad tjänst, enklast att komma igång) eller self-hosting på en VPS. För self-hosting är Hostinger VPS prisvärd och hanterar n8n bra. Self-hosting ger dig obegränsade körningar men kräver grundläggande serverhantering.

Hur anpassar jag den här Perplexity MongoDB-automatiseringslösningen till mina specifika utmaningar?

Börja med att ändra prompten i Perplexity News Fetch-noden så att den riktar in sig på din nisch (konkurrenter, regelverk, produktlanseringar, lokal bevakning). Om du vill berika datan ytterligare, lägg till fält i Edit Fields (Set) efter parsningen och lagra dem i MongoDB också. Vanliga anpassningar är att lägga till en ”company”-tagg, dela upp kategorier i flera etiketter eller routa olika sammanställningar till olika Gmail-mottagare.

Varför misslyckas min Perplexity-anslutning i det här arbetsflödet?

Oftast är det en ogiltig eller utgången API-nyckel, så skapa en ny i Perplexity och uppdatera autentiseringsuppgiften i n8n. Det kan också fallera när prompten returnerar text som inte är giltig JSON, vilket gör att kodsteget Parse News Payload skapar fel. Mer ovanligt, men förekommer: rate limits eller tillfälliga avbrott uppströms, särskilt om du kör det många gånger under test.

Vilken kapacitet har den här Perplexity MongoDB-automatiseringslösningen?

I self-hosted n8n beror kapaciteten främst på din server och hur många rubriker du hämtar per körning. I n8n Cloud beror din månadsgräns för körningar på din plan, och det här arbetsflödet använder normalt en körning per daglig körning plus den interna artikelhanteringen. I praktiken kan de flesta team lagra dussintals rubriker per dag utan att behöva tänka på skalning. Om du börjar hämta hundratals objekt eller flera ämnen vill du hålla koll på MongoDB-indexering och Perplexity-kostnader.

Är den här Perplexity MongoDB-automatiseringen bättre än att använda Zapier eller Make?

Ofta, ja, eftersom mönstret med parsning + loopning + databasinsättning är där no-code-verktyg börjar kännas klumpiga. n8n hanterar batchning, kodbaserad rensning och mer komplex logik utan att varje extra steg blir en extra kostnad. Zapier eller Make kan fortfarande fungera om du håller det väldigt enkelt och hoppar över MongoDB, men då tappar du det riktiga arkivet. Om du behöver att detta körs dagligen i månader betyder driftsäkerhet mer än ”snabb uppsättning”. Prata med en automationsexpert om du vill ha hjälp att välja.

När detta väl är igång slutar din nyhetsbevakning vara en daglig stress och blir en pålitlig tillgång. Arbetsflödet tar hand om den repetitiva insamlingen och arkiveringen så att du kan fokusera på beslut, briefs och budskap.

Kontakta oss

Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.

×

Använd mall

Få direkt tillgång till denna n8n-arbetsflödes JSON-fil

Launch login modal Launch register modal