Att följa finansieringsnyheter låter enkelt tills du jonglerar fem flikar, ett rörigt anteckningsdokument och ett kalkylark som redan är fullt av dubbletter. När du väl “är klar” har de bästa leadsen redan kontaktats av någon annan.
Den här funded lead automation träffar säljteam och BD-ansvariga hårdast. Men grundare som kör snabb, hands-on outbound och analytiker som bygger marknadskartor känner samma friktion. Resultatet är tydligt: ett felfritt, avduplicerat Google Sheet med nyligen finansierade bolag, redo för outreach.
Det här arbetsflödet använder BrowserAct för att skrapa artiklar, en AI-agent (Gemini) för att extrahera företagsdetaljerna och Google Sheets för att lagra allt. Du får se hur det fungerar, vad du behöver och var team oftast kör fast.
Så fungerar den här automatiseringen
Så här löser den problemet:
n8n Workflow Template: BrowserAct + Google Sheets: finansierade leads
flowchart LR
subgraph sg0["When clicking ‘Execute workflow’ Flow"]
direction LR
n0@{ icon: "mdi:play-circle", form: "rounded", label: "When clicking ‘Execute workf..", pos: "b", h: 48 }
n1@{ icon: "mdi:robot", form: "rounded", label: "AI Agent", pos: "b", h: 48 }
n2["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/code.svg' width='40' height='40' /></div><br/>Code in JavaScript"]
n3@{ icon: "mdi:database", form: "rounded", label: "Append or update row in sheet", pos: "b", h: 48 }
n4@{ icon: "mdi:robot", form: "rounded", label: "Structured Output", pos: "b", h: 48 }
n5@{ icon: "mdi:swap-horizontal", form: "rounded", label: "If", pos: "b", h: 48 }
n6@{ icon: "mdi:brain", form: "rounded", label: "Gemini l", pos: "b", h: 48 }
n7["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/slack.svg' width='40' height='40' /></div><br/>Send a message"]
n8["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/merge.svg' width='40' height='40' /></div><br/>Merge"]
n9@{ icon: "mdi:database", form: "rounded", label: "Get row(s) in sheet", pos: "b", h: 48 }
n10@{ icon: "mdi:swap-vertical", form: "rounded", label: "Loop Over Items", pos: "b", h: 48 }
n11@{ icon: "mdi:cog", form: "rounded", label: "Run a workflow Series 2", pos: "b", h: 48 }
n12@{ icon: "mdi:cog", form: "rounded", label: "Run a workflow Series 1", pos: "b", h: 48 }
n13@{ icon: "mdi:cog", form: "rounded", label: "Get workflow Series 2", pos: "b", h: 48 }
n14@{ icon: "mdi:cog", form: "rounded", label: "Get workflow Series1", pos: "b", h: 48 }
n5 --> n3
n8 --> n1
n1 --> n2
n6 -.-> n1
n7 --> n10
n10 --> n12
n10 --> n11
n4 -.-> n1
n2 --> n5
n9 --> n10
n14 --> n8
n13 --> n8
n12 --> n14
n11 --> n13
n3 --> n7
n0 --> n9
end
%% Styling
classDef trigger fill:#e8f5e9,stroke:#388e3c,stroke-width:2px
classDef ai fill:#e3f2fd,stroke:#1976d2,stroke-width:2px
classDef aiModel fill:#e8eaf6,stroke:#3f51b5,stroke-width:2px
classDef decision fill:#fff8e1,stroke:#f9a825,stroke-width:2px
classDef database fill:#fce4ec,stroke:#c2185b,stroke-width:2px
classDef api fill:#fff3e0,stroke:#e65100,stroke-width:2px
classDef code fill:#f3e5f5,stroke:#7b1fa2,stroke-width:2px
classDef disabled stroke-dasharray: 5 5,opacity: 0.5
class n0 trigger
class n1,n4 ai
class n6 aiModel
class n5 decision
class n3,n9 database
class n2 code
classDef customIcon fill:none,stroke:none
class n2,n7,n8 customIcon
Utmaningen: finansieringsnyheter är utspridda och svåra att operationalisera
Finansieringsannonseringar kommer inte i en prydlig, ringklar lista. De dyker upp i TechCrunch-liknande artiklar, pressmeddelanden, lokala affärstidningar och sammanställningar, och de är skrivna för människor – inte för CRM. Så du hamnar i samma loop: sök, skumma, kopiera företagsnamnet, gissa bransch, klistra in URL:en och försök sedan att inte lägga in ett bolag du loggade förra veckan. Det värsta är den mentala belastningen. Du kan inte avgöra om din “pipeline” växer eller bara blir mer brusig.
Det summeras snabbt. Här är var det skapar fel i verkliga team.
- Någon måste manuellt söka efter “Series A” och “Series B”-artiklar om och om igen, och det blir en återkommande kalenderuppgift.
- Copy-paste till ett ark låter ofarligt tills formateringen glider och du börjar tappa URL:er eller blanda fält.
- Dubbletter smyger sig in eftersom folk stavar samma företagsnamn olika, vilket gör uppföljning av outreach opålitlig.
- Även när leadet är bra blir det ofta liggande obemärkt eftersom ingen får en notis när listan uppdateras.
Lösningen: skrapa finansieringsnyheter, extrahera leads och upserta till Sheets
Det här arbetsflödet gör finansieringsnyheter till en fungerande leadlista. Det börjar med att ladda dina sökmål (nyckelord som “Series A” eller “Series B”, plus platser) från Google Sheets, och loopar sedan igenom dem för att starta BrowserAct-skrapjobb som hämtar relevanta artiklar. När BrowserAct är klart slås allt ihop till en enda batch med innehåll och skickas till en AI-agent driven av Google Gemini. AI:n läser artiklarna som en researcher skulle göra och extraherar sedan strukturerade fält som företagsnamn, investeringsinriktning och käll-URL. Slutligen formaterar arbetsflödet resultatet, filtrerar bort tomma träffar och upsertar återstående leads till Google Sheets genom att matcha på “Company”, så att dubbletter inte byggs på.
Arbetsflödet startar med en manuell trigger (eller ett schema om du byter till Cron). Därifrån sköter BrowserAct insamlingen, Gemini tolkningen och Google Sheets blir din enda, pålitliga lista. Ett Slack-meddelande knyter ihop det så att teamet faktiskt ser uppdateringen.
Vad som förändras: före vs. efter
| Det här tar bort | Effekten du ser |
|---|---|
|
|
Effekt i verkligheten
Säg att du följer 10 kombinationer av nyckelord/plats (till exempel: Series A + USA, Series A + Storbritannien, Series B + USA, och så vidare). Manuell hantering gör det lätt att lägga cirka 10 minuter per kombination på att söka, öppna artiklar och klistra in anteckningar – alltså ungefär 100 minuter per körning, plus städning. Med det här arbetsflödet klickar du en gång för att köra, väntar på att BrowserAct ska skrapa klart (ofta 10–20 minuter), och arket uppdateras automatiskt. Det är cirka en timme tillbaka per körning – och datan är faktiskt användbar.
Krav
- n8n-instans (testa n8n Cloud gratis)
- Självhostningsalternativ om du föredrar det (Hostinger fungerar bra)
- BrowserAct för att skrapa sidor med finansieringsannonseringar.
- Google Sheets för att lagra nyckelord och leadlistan.
- Gemini-konto (skaffas via Google AI Studio) för AI-agentens analys.
- Slack för att notifiera teamet när uppdateringar landar.
Kunskapsnivå: Medel. Du kopplar några konton, klistrar in API-uppgifter och förstår en enkel arkstruktur för in- och utdata.
Behöver du hjälp att implementera detta? Prata med en automationsexpert (gratis 15-minuters konsultation).
Flödet i arbetsflödet
Du startar det (eller schemalägger det). Arbetsflödet är just nu uppsatt med en manuell trigger, vilket är perfekt för test. Vill du att det ska köras dagligen eller veckovis kan du byta triggern mot ett Cron-schema.
Google Sheets levererar sökplanen. En radlista i arket matar in nyckelorden och platserna du bryr dig om, och arbetsflödet itererar igenom dem i batchar så att du inte överbelastar skrapning eller AI-anrop.
BrowserAct samlar in artiklarna. Två skrapspår körs för “Series A” och “Series B”, och separata “await”-steg övervakar jobben så att arbetsflödet inte går vidare innan resultaten är klara.
Gemini extraherar strukturerad leaddata. AI-agenten läser de sammanslagna artiklarna och returnerar felfria fält (företag, investeringsinriktning, URL). Ett formateringssteg konverterar det till enskilda poster, och ett filter tar bort tomma rader.
Sheets uppdateras och Slack notifieras. Varje lead upsertas på företagsnamn för att förhindra dubbletter, och sedan får din Slack-kanal ett meddelande om att listan har ändrats.
Du kan enkelt ändra nyckelordslistan och “matcha på”-logiken så att den passar din nisch. Se hela implementationsguiden nedan för anpassningsalternativ.
Steg-för-steg-guide för implementering
Steg 1: Konfigurera den manuella triggern
Starta arbetsflödet med en manuell trigger så att ni kan testa och köra det vid behov medan ni sätter upp era datakällor och era scrapers.
- Lägg till noden Manual Launch Trigger som din trigger.
- Behåll standardinställningarna (inga fält krävs) för att möjliggöra manuella körningar under uppsättningen.
Steg 2: Anslut Google Sheets
Hämta nyckelordsrader för Series A och Series B och förbered målbladet för upserts.
- Öppna Fetch Sheet Rows och välj mål-kalkylarket för nyckelord med värdet Document
[YOUR_ID]. - Ställ in Sheet till
[YOUR_ID](arket med etiketten ”Keywords For Funding Announcement to Lead List (TechCrunch)”). - Autentisering krävs: Anslut era
googleSheetsOAuth2Api-uppgifter i Fetch Sheet Rows. - Öppna Upsert Sheet Row och välj mål-kalkylarket med värdet Document
[YOUR_ID]. - Ställ in Operation till
appendOrUpdateoch mappa kolumner: Url till{{ $json.text.Url }}, Company till{{ $json.text.Company }}och InvestedOn till{{ $json.text.InvestedOn }}. - Autentisering krävs: Anslut era
googleSheetsOAuth2Api-uppgifter i Upsert Sheet Row.
Steg 3: Konfigurera scraping och batchning
Dela upp nyckelordsraderna i batcher och starta scraping-uppgifter för Series A och Series B för varje post.
- I Batch Iterate Records behåller ni standardinställningarna för att iterera över varje rad från Fetch Sheet Rows.
- Konfigurera Start Scrape Series A med Workflow ID satt till
[YOUR_ID]och inparametrar: KeyWord till{{ $json["keyword Series A"] }}och Location till{{ $json.Geo }}. - Autentisering krävs: Anslut era
browserActApi-uppgifter i Start Scrape Series A. - Konfigurera Start Scrape Series B med Workflow ID satt till
[YOUR_ID]och inparametrar: KeyWord till{{ $json["keyword Series B"] }}och Location till{{ $json.Geo }}. - Autentisering krävs: Anslut era
browserActApi-uppgifter i Start Scrape Series B. - Batch Iterate Records skickar utdata till både Start Scrape Series A och Start Scrape Series B parallellt och startar båda scraping-uppgifterna för varje post.
- I Await Series A Task och Await Series B Task behåller ni Operation som
getTask, Max Wait Time som900och Polling Interval som30, med Task ID satt till{{ $json.id }}. - Autentisering krävs: Anslut era
browserActApi-uppgifter i både Await Series A Task och Await Series B Task.
[YOUR_ID] till giltiga BrowserAct-workflow-ID:n, annars körs inte uppgifterna.Steg 4: Sätt upp AI-analys och parsning
Använd AI-agenten för att analysera scrapad artikeltext och parsa den till strukturerad JSON-utdata för vidare bearbetning.
- Öppna Funding Analysis Agent och ställ in Prompt till den angivna instruktionen i flera rader, och behåll uttrycket
{{ $json.output.string }}oförändrat. - Säkerställ att Has Output Parser är aktiverat i Funding Analysis Agent.
- I Structured JSON Parser ställer ni in JSON Schema Example till
[{"Company":".","InvestedOn":" ","Url":" "}] - Gemini Chat Model är ansluten som språkmodell för Funding Analysis Agent — säkerställ att uppgifter läggs till i Gemini Chat Model.
- Autentisering krävs: Anslut era
googlePalmApi-uppgifter i Gemini Chat Model. - Structured JSON Parser är en AI-undernod — lägg till uppgifter i föräldranoden (Gemini Chat Model), inte i parsern.
Steg 5: Formatera, filtrera och notifiera
Formatera AI-resultat till enskilda objekt, filtrera bort icke-träffar, gör upsert till arket och skicka en Slack-notis.
- I Format Result Items behåller ni den angivna JavaScript-koden för att omvandla
$input.first().json.outputtill enskilda objekt. - Konfigurera Company Presence Check med tre OR-villkor: Company, Url och InvestedOn är vardera lika med
No Companymed uttrycken{{ $json.text.Company }},{{ $json.text.Url }}och{{ $json.text.InvestedOn }}. - Säkerställ att grenen true i Company Presence Check är tom och att grenen false routas till Upsert Sheet Row.
- I Post Slack Update ställer ni in Text till
The data for the lead announcement has been updatedoch väljer mål-värdet för Channel[YOUR_ID]. - Autentisering krävs: Anslut era
slackOAuth2Api-uppgifter i Post Slack Update.
Steg 6: Testa och aktivera ert arbetsflöde
Kör ett manuellt test, verifiera utdata i Google Sheets och Slack och aktivera sedan arbetsflödet för produktion.
- Klicka på Execute Workflow på Manual Launch Trigger för att köra ett test.
- Bekräfta att Combine Results tar emot resultat från både Await Series A Task och Await Series B Task.
- Verifiera att Upsert Sheet Row skriver eller uppdaterar kolumnerna Company, InvestedOn och Url i ert målark.
- Kontrollera Slack för att bekräfta att Post Slack Update publicerar uppdateringsmeddelandet i den valda kanalen.
- Växla arbetsflödet till Active när testningen är lyckad.
Se upp för
- Google Sheets-behörigheter kan blockera upserts. Om rader inte dyker upp, kontrollera det anslutna Google-kontot i n8n-uppgifter och bekräfta att arket är delat med det.
- Om du använder Wait-liknande “await scraping task”-beteende i BrowserAct varierar processtiderna. Öka väntetiden om noder längre ned fallerar på tomma svar.
- Standardprompter i AI-agenten är generiska. Lägg till dina målregler (branscher, minsta runda, exkluderingar) tidigt – annars kommer du att redigera utdata för alltid.
Vanliga frågor
Cirka en timme om dina konton är redo.
Ja. Ingen kodning krävs, men någon bör vara bekväm med att koppla uppgifter (credentials) och redigera ett Google Sheet som styr sökningarna.
Ja. n8n har ett gratis självhostat alternativ och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna in BrowserAct-användning och kostnader för Gemini-modeller baserat på hur många artiklar du analyserar.
Två alternativ: n8n Cloud (hanterat, enklast att sätta upp) eller självhosting på en VPS. För självhosting är Hostinger VPS prisvärd och hanterar n8n bra. Självhosting ger dig obegränsade körningar men kräver grundläggande serverhantering.
Du kan byta nyckelords-/platsarket så att det matchar din nisch och sedan justera vad AI-agenten extraherar (till exempel lägga till “rundstorlek” eller “investerare” som fält). Om du föredrar en annan avdupliceringsregel kan du ändra Google Sheets-upserten så att den matchar på URL eller “Company + Location” i stället för bara “Company”. Team skärper också ofta filtret så att bara vissa branscher hamnar i slutarket.
Oftast beror det på en utgången eller saknad BrowserAct API-nyckel i n8n-uppgifter. Det kan också vara en mismatch mellan workflow-/template-ID om din BrowserAct-skrapmall inte finns tillgänglig i ditt konto, eller att du träffar en tillfällig rate limit eftersom för många skrapjobb startades samtidigt. Kontrollera först BrowserAct-jobbets status och kör sedan om ett enda nyckelord för att bekräfta att anslutningen fungerar.
Om du självhostar n8n finns inget tak för antal körningar (det beror främst på din server och API-gränser). I praktiken kör de flesta team 10–50 kombinationer av nyckelord/plats per dag utan problem, så länge BrowserAct- och Gemini-kvoterna är dimensionerade för det.
Ofta, ja. Det här arbetsflödet behöver loopar, vänta på att skrapjobb blir klara, slå ihop resultat och sedan transformera strukturerad AI-utdata innan det skrivs till Google Sheets. n8n hanterar den typen av flerstegslogik tydligt, och självhosting kan hålla kostnaderna förutsägbara när du kör det ofta. Zapier eller Make kan fortfarande fungera, men du kan hamna i begränsningar kring långkörande uppgifter och komplex förgrening. Om du är osäker kan du prata med en automationsexpert så kvalitetssäkrar vi den enklaste setupen för din volym.
När det här väl rullar blir din “finansieringsresearch” en rutinuppdatering, inte en återkommande panikinsats. Arbetsflödet tar hand om de repetitiva delarna så att teamet kan fokusera på timing, budskap och att driva dialogen i mål.
Kontakta oss
Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.