Behöver ert företag hjälp med att implementera AI? Kontakta oss och få prisoffert här →
AI Skolan
januari 22, 2026

Bright data till Gmail: daglig börssammanfattning

Rickard Andersson Partner, Nodenordic.se

Du börjar dagen med goda intentioner. Sedan öppnar du fem flikar, skummar rubriker, kopierar några anteckningar och känner ändå att du missade något viktigt. Den där ”snabba marknadskollen” blir en daglig tidsskatt.

stock digest automation träffar marknadsföringsansvariga som behöver aktuell kontext för kampanjer. Det är lika frustrerande för småföretagare som bevakar en handfull ticker-symboler och byråoperatörer som vill ha en strukturerad sammanfattning att vidarebefordra till kunder. Resultatet är enkelt: en konsekvent daglig e-postsammanfattning, plus en kalkylbladslogg du faktiskt kan söka i senare.

Det här flödet använder Bright Data för att hämta färska marknadshöjdpunkter, sparar råresultaten i Google Sheets och låter sedan AI göra om det till en läsbar Gmail-sammanfattning. Nedan ser du vad som krånglar i dag, vad automatiseringen löser och hur du sätter upp den utan att fastna i detaljerna.

Så här fungerar automatiseringen

Hela n8n-flödet, från trigger till slutresultat:

n8n Workflow Template: Bright data till Gmail: daglig börssammanfattning

Problemet: dagliga marknadsuppdateringar blir snabbt röriga

Att hänga med i ”vad som hände i dag” låter enkelt tills du gör det varje morgon. Du skummar en källa, skriver ner några punkter och inser sedan att du glömde två tickers. Du klistrar in några highlights i ett mejl, formulerar om dem så att de inte ser kopierade ut, och sedan behöver du ändå en plats att lagra detaljerna på ifall någon frågar senare. Skala det till ett team, eller till kunder, och det blir ett återkommande moment som stjäl fokus från riktigt arbete (strategi, analys, beslutsfattande). Och ärligt talat är det värsta inkonsekvensen. Dagen du har som mest att göra är dagen uppdateringen går ut sent, eller inte alls.

Friktionen byggs på. Här är var det faller isär i verkligheten.

  • Daglig ”bara 20 minuter koll” blir ofta 1–2 timmar när du verifierar källor och skriver om anteckningar.
  • Manuella sammanfattningar tappar i kvalitet, så din målgrupp slutar lita på dem som en stabil daglig signal.
  • Utan en löpande logg kan du inte svara på enkla följdfrågor som ”När började den här trenden?” utan att göra om researchen.
  • Kopiera-klistra-flöden bjuder in små fel (fel ticker, fel datum, saknad nyckelkontext) som får dig att se slarvig ut.

Lösningen: Bright Data → loggning i Sheets → AI-sammanfattning → leverans via Gmail

Den här automatiseringen startar på schema, går igenom din aktielista och ber Bright Datas Datasets API att skrapa färsk finansiell bevakning för varje ticker. n8n väntar sedan och kontrollerar jobbstegningen tills dataset-snapshoten är klar, hämtar resultaten och aggregerar allt till en enda strukturerad batch. Den batchen läggs till i Google Sheets, som blir ditt sökbara arkiv av ”vad vi såg och när”. Till sist omvandlar en AI-agent (driven av en chattmodell) den skrapade datan till en prydlig HTML-sammanfattning och skickar den via Gmail. Du vaknar till en digest du kan läsa på en minut och sedan vidarebefordra som den är om du vill.

Flödet börjar med en schemalagd trigger och en aktielista i JSON. Bright Data gör grovjobbet med att samla in datan, medan n8n sköter väntan, hämtningen och struktureringen. Sista steget är det mest värdefulla: den AI-genererade sammanfattningen som landar i inkorgen automatiskt.

Det här får du: automatisering vs. resultat

Exempel: så här ser det ut

Säg att du följer 12 aktier och publicerar en daglig intern sammanfattning. Manuellt kanske du lägger cirka 10 minuter per aktie på att skumma, plocka ut en highlight och notera avvikelser, vilket blir runt 2 timmar. Med det här flödet lägger du kanske 5 minuter på att uppdatera ticker-listan när den ändras, sedan samlar den schemalagda körningen in datan, loggar den i Google Sheets och skickar Gmail-sammanfattningen automatiskt. Även om Bright Data tar 20–30 minuter att slutföra en skrapning gör du inte jobbet, och digesten är klar när du är det.

Det du behöver

  • n8n-instans (prova n8n Cloud gratis)
  • Alternativ för egen hosting om du föredrar det (Hostinger fungerar bra)
  • Bright Data för dataset-skrapning och snapshots.
  • Google Sheets för att lagra en daglig marknadslogg.
  • Gmail för att leverera det dagliga digest-mejlet.
  • Bright Data API-nyckel (hämta den i din Bright Data-dashboard).

Svårighetsgrad: Medel. Du klistrar in API-uppgifter, redigerar en JSON-aktielista och mappar några fält i Google Sheets.

Vill du inte sätta upp det här själv? Prata med en automationsexpert (gratis 15-minuters konsultation).

Så fungerar det

En schemalagd körning startar allt. n8n kör på de dagar och tider du väljer och laddar sedan din aktielista (en enkel JSON-lista med tickers och namn).

Varje ticker blir en sökterm. Flödet delar upp listan i enskilda objekt, plockar ut tickern och formaterar den för Bright Datas dataset-trigger ”discover by keyword”.

Bright Data samlar in den senaste bevakningen. n8n triggar ett dataset-jobb, väntar och kontrollerar status tills Bright Data markerar snapshoten som klar. Om den fortfarande körs pausar flödet och försöker igen.

Sheets får källan-som-gäller-loggen, sedan får Gmail sammanfattningen. När resultaten kommer tillbaka lägger n8n till rå-raderna i Google Sheets, aggregerar hela batchen och skickar den till en AI-agent som skriver ett läsbart HTML-sammanfattningsmejl.

Du kan enkelt ändra aktielistan för att följa andra tickers (eller till och med sektorer) utifrån dina behov. Se hela implementationsguiden nedan för anpassningsalternativ.

Steg-för-steg-guide för implementering

Steg 1: konfigurera den schemalagda triggern

Konfigurera workflow-schemat som startar processen för aktiesammanställningen.

  1. Lägg till och öppna Scheduled Start.
  2. I Rule definierar ni ert intervallschema (det här workflowet använder standardobjektet för intervall).
  3. Säkerställ att Scheduled Start kopplas till Mock Stock List som första nod i flödet.

Om ni behöver en specifik körtid (t.ex. vid börsstängning), ställ in den direkt i Scheduled Start så att den dagliga sammanfattningen matchar ert handelsfönster.

Steg 2: bygg aktieindata och trigga scrapern

Definiera aktielistan och skicka varje objekt vidare till Bright Data-triggern.

  1. Öppna Mock Stock List och bekräfta att den sätter json till hela array-värdet som visas i noden (listan med tickers och metadata).
  2. I Separate Records ställer ni in Field to Split Out till json.
  3. I Assign Search Term ställer ni in keyword till {{ $json.ticker }}.
  4. Konfigurera FT Data Scraper med Method POST och URL https://api.brightdata.com/datasets/v3/trigger.
  5. Ställ in JSON Body till {{ $('Assign Search Term').all().map(item => item.json) }}.
  6. Lägg till query-parametrar i FT Data Scraper: dataset_id = [YOUR_ID], include_errors = true, type = discover_new, discover_by = keyword.
  7. I headers för FT Data Scraper ställer ni in Authorization till Bearer [CONFIGURE_YOUR_TOKEN].

⚠️ Vanlig fallgrop: Ersätt [YOUR_ID] och [CONFIGURE_YOUR_TOKEN] i FT Data Scraper med ert Bright Data dataset-ID och API-token, annars kommer triggern att misslyckas.

Steg 3: övervaka scrape-status och routa efter status

Kontrollera datasetets status och loopa tills resultaten är klara.

  1. I Retrieve Progress Status ställer ni in URL till https://api.brightdata.com/datasets/v3/progress/{{ $json.snapshot_id }}.
  2. I headers för Retrieve Progress Status ställer ni in Authorization till Bearer [CONFIGURE_YOUR_TOKEN].
  3. Öppna Route by Status och bekräfta regelutgångarna: ready om {{ $json.status }} är lika med ready, och running om {{ $json.status }} är lika med running.
  4. Konfigurera Pause Interval så att den väntar Amount 20 sekunder innan den loopar tillbaka till Retrieve Progress Status.

Om datasetet tar längre tid, öka värdet för Pause Interval för att minska API-anrop och undvika rate limiting.

Steg 4: hämta resultat och hantera parallella utdata

Hämta resultaten från den färdiga snapshoten och dela upp dem i spår för lagring och aggregering.

  1. I Fetch Snapshot Results ställer ni in URL till https://api.brightdata.com/datasets/v3/snapshot/{{ $json.snapshot_id }}.
  2. Lägg till query-parametern format = json och ställ in headern Authorization till Bearer [CONFIGURE_YOUR_TOKEN].
  3. Notera den parallella exekveringen: Fetch Snapshot Results skickar utdata parallellt till både Update Spreadsheet och Combine Items.
  4. I Combine Items ställer ni in Aggregate till aggregateAllItemData för att skapa en payload för AI-sammanfattning.

Steg 5: anslut Google Sheets och lagra resultaten

Lägg till rå snapshot-data i ert kalkylark för arkivering och analys.

  1. Öppna Update Spreadsheet och behåll Operation inställd på append.
  2. Ställ in Document ID till [YOUR_ID] och Sheet Name till [YOUR_ID].
  3. Inloggning krävs: Anslut era googleSheetsOAuth2Api-inloggningsuppgifter i Update Spreadsheet.

⚠️ Vanlig fallgrop: Säkerställ att arket finns och att kolumnerna matchar er inkommande data, annars kan append misslyckas.

Steg 6: konfigurera AI-sammanfattning och e-post

Konfigurera Gemini som språkmodell och säkerställ att agenten kan skicka HTML-sammanfattningen via e-post.

  1. I Gemini Chat Engine ställer ni in Model Name till models/gemini-2.0-flash-lite.
  2. Inloggning krävs: Anslut era googlePalmApi-inloggningsuppgifter i Gemini Chat Engine.
  3. Öppna Compose Summary Email och behåll Prompt Type inställd på define med den angivna systemprompten.
  4. Bekräfta att prompt-uttrycken finns med: {{ $now.format('cccc yyyy-MM-dd t ') }} och {{ $json.data.toJsonString() }}.
  5. I Send Email Notice ställer ni in Send To till [YOUR_EMAIL].
  6. Behåll Subject som {{ /*n8n-auto-generated-fromAI-override*/ $fromAI('Subject', `Daily Stock report for {date today}`, 'string') }} och Message som {{ /*n8n-auto-generated-fromAI-override*/ $fromAI('Message', `A detailed summary of the stock performance today. Must Look good`, 'string') }}.
  7. Inloggning krävs: Anslut era gmailOAuth2-inloggningsuppgifter i Send Email Notice. Den här noden används som ett AI-verktyg av Compose Summary Email, så säkerställ att verktyget är auktoriserat så att agenten kan skicka e-postmeddelandet.

Send Email Notice är kopplad som ett AI-verktyg till Compose Summary Email—om e-postmeddelandet inte skickas, verifiera först Gmail OAuth-anslutningen och verktygsbehörigheterna.

Steg 7: testa och aktivera ert workflow

Kör ett fullständigt test för att bekräfta dataflödet, AI-sammanfattningen och e-postleveransen.

  1. Klicka på Execute Workflow för att köra ett manuellt test som startar vid Scheduled Start.
  2. Kontrollera att ni får lyckade svar från FT Data Scraper, Retrieve Progress Status och Fetch Snapshot Results.
  3. Bekräfta att Update Spreadsheet lägger till nya rader och att Compose Summary Email genererar HTML-innehåll.
  4. Verifiera att Send Email Notice levererar ett e-postmeddelande till [YOUR_EMAIL] med den AI-genererade HTML-texten.
  5. När testet är lyckat, slå på Active för att aktivera de schemalagda körningarna.
🔒

Lås upp fullständig steg-för-steg-guide

Få den kompletta implementeringsguiden + nedladdningsbar mall

Vanliga fallgropar

  • Bright Data-uppgifter kan gå ut eller kräva specifika behörigheter. Om det skapar fel, kontrollera först token-status och dataset-åtkomst i din Bright Data-dashboard.
  • Om du använder Wait-noder eller extern rendering varierar processtiderna. Öka väntetiden om nedströms noder fallerar på tomma svar.
  • Standardprompter i AI-noder är generiska. Lägg in er tonalitet tidigt, annars kommer du redigera utdata för alltid.

Vanliga frågor

Hur lång tid tar det att sätta upp den här stock digest automation?

Cirka 30–60 minuter när dina konton är klara.

Behöver jag kodkunskaper för att automatisera stock digest automation?

Nej. Du klistrar mest in API-nycklar, redigerar din ticker-lista och kopplar ihop Google Sheets och Gmail.

Är n8n gratis att använda för det här stock digest automation-flödet?

Ja. n8n har ett gratis self-hosted-alternativ och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna in Bright Data API-användning och din AI-modellanvändning (ofta några dollar i månaden för en liten aktielista).

Var kan jag hosta n8n för att köra den här automatiseringen?

Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller egen hosting på en VPS. För egen hosting är Hostinger VPS prisvärd och hanterar n8n bra. Egen hosting ger dig obegränsade körningar men kräver grundläggande serverhantering.

Kan jag anpassa det här stock digest automation-flödet för en annan aktielista och e-postlayout?

Ja, och det är det första du bör göra. Byt ut exempel-JSON:en i steget ”Mock Stock List” mot dina riktiga tickers och justera sedan AI-prompten i steget ”Compose Summary Email” så att utdata matchar din tonalitet och dina sektioner (största rörelser, viktiga rubriker, risker, bevakningslista). Du kan också ändra Google Sheets-mappningen för att spara extra fält du bryr dig om, som sektor eller strategitaggar. Om du vill ha uppdateringar intradag ändrar du bara schemat och behåller Bright Data-pollningslogiken.

Varför misslyckas min Bright Data-anslutning i det här flödet?

Oftast beror det på en ogiltig eller utgången Bright Data API-nyckel, så generera en ny i din Bright Data-dashboard och uppdatera Authorization-headern i HTTP Request-noderna. Det kan också vara ett felaktigt dataset_id, vilket gör att trigger-anropet misslyckas tyst eller returnerar fel i snapshoten. Om skrapningen startar men aldrig blir klar kan du slå i rate limits eller köra för många tickers samtidigt; försök minska listan och kör igen för att bekräfta.

Hur många aktier kan den här stock digest automation hantera?

Dussintals per körning är vanligt; den praktiska gränsen styrs av dina Bright Data-användningsgränser och hur länge du är villig att vänta på snapshots.

Är den här stock digest automation bättre än att använda Zapier eller Make?

Ofta, ja, eftersom det här flödet behöver polling, grenar baserat på jobbstatus och aggregering över många objekt, vilket är där Zapier/Make kan bli dyrt eller klumpigt. n8n gör också egen hosting realistiskt, så du betalar inte per litet steg när du skalar upp aktielistan. Samtidigt: om din variant bara är ”en webhook → ett mejl” känns Zapier eller Make snabbare. Så fort du lägger till väntan, retries och strukturerad loggning i Google Sheets känns n8n lugnare. Prata med en automationsexpert om du vill ha hjälp att välja det enklaste alternativet.

När det här väl rullar slutar ”daglig sammanfattning” vara en uppgift du kommer på i sista minuten. Flödet sköter insamling, loggning och sammanfattning, så att du kan lägga tiden på besluten i stället.

Kontakta oss

Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.

×

Använd mall

Få direkt tillgång till denna n8n-arbetsflödes JSON-fil

Launch login modal Launch register modal