Behöver ert företag hjälp med att implementera AI? Kontakta oss och få prisoffert här →
AI Skolan
januari 22, 2026

LinkedIn + Google Sheets: leads redo att skicka

Rickard Andersson Partner, Nodenordic.se

LinkedIn är fullt av köpsignaler, men att gå från ”de rekryterar” till ”vi borde mejla den här personen” är ett slit. Du hoppar mellan flikar, kopierar företagsdetaljer, letar mejladresser och stirrar sedan ändå på en tom sida medan du försöker skriva något som inte låter som en mall.

SDR:er känner av det i sina aktivitetsmål. Rekryterare märker det när de försöker ta sig in i nya konton snabbt. Och grundare som sköter försäljningen själva kör in i väggen ännu hårdare. Den här LinkedIn lead automation tar jobbannonser och gör om dem till en Google Sheets-lista med verifierade kontakter och utkast till outreach som du faktiskt kan skicka.

Nedan ser du vad flödet gör, vad som förändras när du implementerar det och de få inställningar som spelar roll så att du slipper lägga eftermiddagen på felsökning.

Så fungerar den här automatiseringen

Se hur detta löser problemet:

n8n Workflow Template: LinkedIn + Google Sheets: leads redo att skicka

Utmaningen: förvandla rekryteringssignaler till leads för outreach

Jobbannonser är en av de mest tydliga ”intent”-signalerna du kan få på LinkedIn. Problemet är allt som kommer efteråt. Du hittar en lovande roll, men behöver fortfarande företagsdetaljer, en domän du kan lita på, rätt beslutsfattare (inte praktikanten som sköter sidan) och en mejladress som inte studsar. Sedan kommer skrivandet. Om du gör det manuellt är det lätt att få ett rörigt ark, dubbletter av företag och mejl som låter generiska eftersom du stressar.

Det går snabbt att summera. Här är var det oftast faller isär.

  • Du slösar cirka 10 minuter per företag bara på att samla grundinfo som borde vara automatiskt.
  • Dubbletter smyger sig in, så du mejlar samma företag två gånger och ser slarvig ut.
  • Kontaktdata är inkonsekvent, vilket innebär fler studs och mer tid som går åt till att ”fixa listan”.
  • Personalisering hoppas över eftersom du försöker nå volym, så svaren matchar inte insatsen.

Lösningen: jobbannonser in, kvalificerade leads ut (med mejlutkast)

Det här flödet körs på beställning i n8n och gör LinkedIn-jobbsökresultat till ett outreach-ark som är redo att skicka. Det börjar med att skrapa LinkedIn-jobbannonser (via Apify) för rollerna du bryr dig om och filtrerar sedan företag baserat på dina regler, som företagsstorlek och bransch. Därefter berikas varje kvalificerat företag genom att hitta rätt personer via Apollo och hämta verifierade mejladresser. När leadprofilen är sammansatt skriver flödet allt till Google Sheets och använder sedan en AI-mejlskrivare (Gemini-chatmodell i mallen) för att skapa en ämnesrad och en mejltext som refererar till rekryteringssignalen du hittade. Till sist sparas utkasten tillbaka i samma ark, så att listan och budskapet hänger ihop.

Flödet startar när du kör det i n8n. Apify samlar jobbannonsdata, Apollo fyller på med beslutsfattarkontakter och mejl, och Gemini genererar outreach-utkast baserat på den berikade leadkontexten. Google Sheets blir den enda platsen där du granskar, godkänner och skickar.

Vad som förändras: före vs. efter

Effekt i verkligheten

Säg att du riktar in dig på 30 företag i veckan som rekryterar för en specifik roll. Manuellt kanske du lägger cirka 10 minuter per företag på att fånga jobbinfon och företagsgrunderna, plus ytterligare 10 minuter på att hitta en beslutsfattare och en mejladress, vilket blir ungefär 10 timmar i veckan. Med det här flödet startar du en körning, låter det skrapa och berika i bakgrunden och lägger sedan cirka 30 minuter på att granska arket och justera de bästa utkasten. Det är nästan en hel arbetsdag tillbaka, varje vecka.

Krav

  • n8n-instans (testa n8n Cloud gratis)
  • Alternativ för egen hosting om du föredrar det (Hostinger fungerar bra)
  • Apify för att skrapa LinkedIn-jobbannonsresultat.
  • Apollo.io för att hitta personer och verifiera mejladresser.
  • Google Gemini API-nyckel (hämta den från Google AI Studio / Gemini API i din Google Cloud-konsol).

Kunskapsnivå: Medel. Du kopplar konton, klistrar in en LinkedIn Jobs-sök-URL i skraparen och mappar några Google Sheets-fält.

Behöver du hjälp att implementera detta? Prata med en automatiseringsexpert (gratis 15-minuters konsultation).

Flödet steg för steg

Du triggar en körning när du är redo. Flödet är byggt kring en manuell start, så du kan köra det dagligen, veckovis eller när din pipeline behöver nya konton.

LinkedIn-jobbdata samlas in och struktureras. Apify hämtar jobbannonsrader från din LinkedIn Jobs-sökning, sedan filtrerar n8n på företagsstorlek, tar bort dubbletter och exkluderar branscher du inte vill ha (som HR-tunga segment om det inte är din ICP).

Kontakter berikas och valideras. Med HTTP-förfrågningar till Apollo söker flödet efter relevanta personer, slår upp verifierade mejladresser och slår ihop person- och företagsdata till en enda leadprofil som är tillräckligt konsekvent för att använda i skala.

Google Sheets blir din output-hubb. Leads läggs till i ett ark, sedan läser flödet tillbaka dem, kontrollerar att obligatoriska fält finns och ber först därefter Gemini att skriva en personaliserad ämnesrad och mejltext. De utkasten skrivs tillbaka i samma rad så att granskningen blir enkel.

Du kan enkelt ändra filtreringsreglerna (företagsstorlek, branscher, titlar) för att matcha din ICP utifrån dina behov. Se hela implementationsguiden nedan för anpassningsalternativ.

Steg-för-steg-guide för implementation

Steg 1: konfigurera den manuella triggern

Det här arbetsflödet startar på begäran så att ni kan styra när LinkedIn-scrapingen och outreach-sekvensen börjar.

  1. Lägg till och öppna Manual Start Trigger.
  2. Lämna standardinställningarna som de är för att köra arbetsflödet manuellt.

Steg 2: anslut Apify och konfigurera scraping-indata

Dessa noder startar LinkedIn-jobbscrapern och läser dataset-resultaten för vidare bearbetning.

  1. Öppna Launch LinkedIn Scraper och ställ in customBody till den angivna JSON-indatan, inklusive LinkedIn Jobs-URL:en och "count": 100.
  2. I Retrieve Dataset Records ställer ni in resource till Datasets, limit till 110 och datasetId till ={{ $json.defaultDatasetId }}.
  3. Inloggningsuppgifter krävs: anslut era Apify-inloggningsuppgifter i Launch LinkedIn Scraper och Retrieve Dataset Records.

Steg 3: filtrera och normalisera företagsregister

Det här avsnittet filtrerar fram små företag, tar bort dubbletter, exkluderar HR-relaterade branscher och rensar företagsdomäner.

  1. I Check Company Size säkerställer ni att villkoret använder ={{ $json.companyEmployeesCount }} med operation lt och rightValue 250.
  2. I Deduplicate Companies ställer ni in compare till selectedFields och fieldsToCompare till companyName.
  3. I Exclude HR Industries säkerställer ni att de två notContains-kontrollerna för Human Resources och Staffing and Recruiting använder ={{ $json.industries }}.
  4. Behåll koden i Finalize Company Info som den är för att extrahera domain och kapsla in data under company.
  5. I Verify Domain Presence kontrollerar ni att exists-kontrollen använder ={{ $json.company.domain }}.
  6. Ställ in Limit Company Batch till maxItems 5 för att styra hur många företag som bearbetas per körning.

Limit Company Batch skickar utdata parallellt till både Combine Data Streams och Apollo People Search.

Steg 4: hämta person- och e-postdata från Apollo

Dessa noder hämtar beslutsfattare och e-postadresser från Apollo och förbereder sedan data för sammanslagning.

  1. I Apollo People Search ställer ni in url till https://api.apollo.io/api/v1/people/search och behåller jsonBody med {{ $json.company.domain }} inuti q_organization_domains_list.
  2. Inloggningsuppgifter krävs: anslut era httpHeaderAuth-inloggningsuppgifter i Apollo People Search.
  3. Behåll den angivna JavaScript-koden i Clean Person Records för att platta ut och avduplicera personer samtidigt som data kapslas in under person.
  4. I Apollo Email Lookup ställer ni in url till https://api.apollo.io/v1/people/match och jsonBody till ={"id":"{{ $json.person.personId }}"} .
  5. Inloggningsuppgifter krävs: anslut era httpHeaderAuth-inloggningsuppgifter i Apollo Email Lookup.
  6. Behåll JavaScript-koden i Clean Email Payload för att kapsla in resultaten under email.

Clean Person Records skickar utdata parallellt till både Apollo Email Lookup och Combine Data Streams.

Steg 5: slå ihop företag-, person- och e-postdata

Det här steget slår ihop tre strömmar till en enda lead-profil för infogning i sheet.

  1. I Combine Data Streams ställer ni in numberInputs till 3 för att slå ihop företag-, person- och e-postdata.
  2. Behåll JavaScript-koden i Assemble Lead Profile för att mappa person.personId till email.id och lägga till företagsfält.

Steg 6: anslut Google Sheets och lägg till leads

Lead-profiler läggs till i ert Google Sheet och laddas sedan om för e-postgenerering.

  1. I Append Leads to Sheet ställer ni in operation till append, documentId till ert sheet-ID och sheetName till gid=0.
  2. Verifiera att kolumnmappningarna använder uttryck som ={{ $json.email }}, ={{ $json.companyName }} och ={{ $json.personLinkedInUrl }}.
  3. Inloggningsuppgifter krävs: anslut era Google Sheets-inloggningsuppgifter i Append Leads to Sheet.
  4. I Retrieve Leads Sheet väljer ni samma documentId och sheetName för att läsa tillbaka de senaste raderna.
  5. Inloggningsuppgifter krävs: anslut era Google Sheets-inloggningsuppgifter i Retrieve Leads Sheet.

Append Leads to Sheet skickar utdata till Retrieve Leads Sheet för att starta flödet för e-postberikning.

Steg 7: validera rader och förbered batchar för AI

Dessa kontroller säkerställer att endast giltiga leads utan befintliga e-postmeddelanden bearbetas och begränsar batchstorleken.

  1. I Validate Email & Content bekräftar ni villkoren: ={{ $json.Subject }} är tomt, ={{ $json["Email Body"] }} är tomt och ={{ $json.Email }} innehåller @.
  2. I Batching Filter behåller ni villkoret ={{ $json.row_number }} gt 83 för att styra bearbetningsbatchar.

⚠️ Vanlig fallgrop: om ert sheet inte innehåller kolumnerna Subject och Email Body kommer Validate Email & Content att stoppa alla rader från att nå AI-steget.

Steg 8: konfigurera AI-generering av e-post

AI-kedjan skapar ämnesrad och brödtext med Gemini och säkerställer ett strukturerat svar.

  1. I AI Email Composer behåller ni prompttexten och variabler som {{ $json.Company }}, {{ $json['Job Title'] }} och {{ $json.Occupation }}.
  2. Öppna Gemini Chat Engine och anslut den till AI Email Composer som språkmodell.
  3. Öppna Structured Output Extractor och behåll jsonSchemaExample som definierar subject och email_body.
  4. Inloggningsuppgifter krävs: anslut era Google Gemini-inloggningsuppgifter i Gemini Chat Engine.

Structured Output Extractor är ansluten som output parser för AI Email Composer—säkerställ att inloggningsuppgifter läggs till i Gemini Chat Engine, inte i parsern.

Steg 9: skriv tillbaka genererade e-postmeddelanden till Google Sheets

Den genererade ämnesraden och e-posttexten skrivs tillbaka till sheetet med e-postadress som matchningsnyckel.

  1. I Write Email Back to Sheet ställer ni in operation till update och använder matchingColumns Email.
  2. Mappa kolumner med uttryck: ={{ $('Batching Filter').item.json.Email }}, ={{ $json.output.subject }} och ={{ $json.output.email_body }}.
  3. Inloggningsuppgifter krävs: anslut era Google Sheets-inloggningsuppgifter i Write Email Back to Sheet.

Steg 10: testa och aktivera ert arbetsflöde

Kör ett fullständigt test för att bekräfta att scraping, berikning, AI-generering och sheet-uppdateringar fungerar från början till slut.

  1. Klicka på Execute WorkflowManual Start Trigger för att köra ett live-test.
  2. Verifiera att Append Leads to Sheet lägger till nya rader och att Write Email Back to Sheet uppdaterar Subject och Email Body.
  3. Kontrollera att Limit Company Batch bara bearbetar 5 företag och att parallella grenar fyller både Combine Data Streams och Apollo People Search.
  4. När resultaten ser korrekta ut, ställ om arbetsflödet till Active för produktionsanvändning.
🔒

Lås upp fullständig steg-för-steg-guide

Få den kompletta implementeringsguiden + nedladdningsbar mall

Se upp med

  • Apollo.io-uppgifter kan löpa ut eller kräva specifika behörigheter. Om saker slutar fungera, kontrollera först din Apollo API-nyckel och dina planbegränsningar och uppdatera sedan header-autentiseringen i noderna för HTTP Request.
  • Om du använder Wait-noder eller extern rendering varierar processtiderna. Öka väntetiden om efterföljande noder fallerar på tomma svar.
  • Standardprompter i AI-noder är generiska. Lägg in din tonalitet tidigt, annars kommer du att sitta och redigera output i all evighet.

Vanliga frågor

Hur snabbt kan jag implementera den här LinkedIn lead automation-automatiseringen?

Oftast cirka en timme om du redan har kontona och API-nycklarna.

Kan icke-tekniska team implementera den här lead-berikningen och framtagningen av outreach-utkast?

Ja, men du vill ha någon som är bekväm med att koppla API:er och testköra några rundor. Ingen traditionell kodning, bara konfiguration och noggrann fältmappning.

Är n8n gratis att använda för det här LinkedIn lead automation-flödet?

Ja. n8n har ett gratis alternativ för egen hosting och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna in kostnader för användning av Apify, Apollo och Gemini API.

Var kan jag hosta n8n för att köra den här automatiseringen?

Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller egen hosting på en VPS. För egen hosting är Hostinger VPS prisvärd och hanterar n8n bra. Egen hosting ger dig obegränsade körningar men kräver grundläggande serverhantering.

Hur anpassar jag den här LinkedIn lead automation-lösningen till mina specifika utmaningar?

Börja med att ändra LinkedIn Jobs-sök-URL:en du klistrar in i Apify-skraparnoden så att flödet riktar in sig på dina nischade roller. Justera sedan företagsfiltren (logiken för ”Check Company Size” och ”Exclude HR Industries”) så att de matchar din ICP. Om du föredrar en annan berikningsleverantör kan du ersätta Apollos HTTP Request-noder med anrop till Clay eller Hunter och behålla samma steg ”Assemble Lead Profile”, så att kolumnerna i arket inte ändras. Slutligen redigerar du prompten i AI Email Composer så att den speglar ditt erbjudande, din tonalitet och eventuella compliance-regler du följer.

Varför misslyckas min Google Sheets-anslutning i det här flödet?

Oftast beror det på fel Document ID eller Sheet Name, inte på flödet i sig. Kontrollera att kalkylarket finns, att fliknamnet matchar exakt och att det anslutna Google-kontot har redigeringsbehörighet. Om det fungerade en gång och sedan slutade, autentisera om Google Sheets i n8n eftersom tokens kan löpa ut.

Vilken kapacitet har den här LinkedIn lead automation-lösningen?

På en typisk n8n Cloud-plan kan du köra tusentals exekveringar per månad, och egen hosting tar bort exekveringstaket. I praktiken begränsas kapaciteten oftast av Apifys skrapvolym och Apollos API-gränser, så de flesta team batchar några hundra leads per körning för att hålla det stabilt.

Är den här LinkedIn lead automation-automatiseringen bättre än att använda Zapier eller Make?

Ofta, ja. Det här flödet blandar skrapning, förgrenade filter, berikning, deduplicering och AI-generering, och den typen av flersteglogik blir klumpig (och dyr) i enklare automatiseringsverktyg. n8n ger dig också en väg till egen hosting, vilket är användbart när du vill ha högre volym utan att betala per liten delsteg. Zapier eller Make kan fortfarande vara bra om du bara behöver ”jobbannons → lägg till rad i ark” och inget mer. Prata med en automatiseringsexpert om du vill ha en snabb rekommendation baserat på dina volymer och din tech stack.

När det här väl rullar slutar ditt ark vara en kyrkogård av halvklar research och blir i stället en repeterbar outreach-motor. Sätt upp det, kör det när du behöver pipeline och lägg tiden på samtal i stället för copy-paste.

Kontakta oss

Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.

×

Använd mall

Få direkt tillgång till denna n8n-arbetsflödes JSON-fil

Launch login modal Launch register modal