Behöver ert företag hjälp med att implementera AI? Kontakta oss och få prisoffert här →
AI Skolan
januari 22, 2026

Apify + Google Sheets: rensa LinkedIn-leads snabbt

Rickard Andersson Partner, Nodenordic.se

Du får äntligen en lista med LinkedIn-profil-URL:er … och sedan försvinner en hel eftermiddag på att städa den. Namnen hamnar fel, jobbtitlarna är röriga, halva raderna saknar grunddata och du har fortfarande inte ens börjat med outreach.

Den här Apify Sheets leads-automationen slår hårdast mot sales ops– och growth-team, men rekryterare och byråägare känner av det också. I stället för copy-paste och “fixar sen” får du konsekventa lead-rader i Google Sheets som faktiskt är redo att användas.

Nedan ser du hur arbetsflödet körs, vad det ersätter och vad du behöver hålla koll på när LinkedIn-data börjar strula.

Så här fungerar automationen

Se hur detta löser problemet:

n8n Workflow Template: Apify + Google Sheets: rensa LinkedIn-leads snabbt

Utmaningen: förvandla LinkedIn-URL:er till användbara lead-rader

LinkedIn-URL:er är enkla att samla in och irriterande att göra användbara. Du kan ha 200 profiler i ett ark, men det hjälper dig inte att segmentera på titel, prioritera efter senioritet eller ens personalisera en första rad. “Snabbfixen” är oftast manuell: öppna flikar, kopiera rubriker, klistra in i kolumner och sedan inse att du klistrade in fel person eftersom två profiler såg likadana ut. Under tiden blir listan inaktuell och din uppföljning skjuts upp ännu en dag.

Det eskalerar snabbt. Här är var det faller isär.

  • Du lägger cirka 2–5 minuter per profil bara på att få in grunderna (namn, titel, företag), och det är innan du ens rimlighetskontrollerar något.
  • Ditt ark blir inkonsekvent, så filtrering på roll eller bransch blir ett litet dataprojekt.
  • När du gör detta i ryck uppstår fel, som felmatchade rader eller dubbletter som tyst snedvrider din rapportering.
  • De flesta “lead-verktyg” utgår inte från din befintliga URL-lista, vilket gör att du bygger om listor i stället för att rensa dem.

Lösningen: Apify-skrapning + strukturerad lagring i Google Sheets

Det här arbetsflödet tar LinkedIn-profil-URL:erna du redan har i Google Sheets och gör om dem till strukturerad lead-data med Apify. Det börjar med att läsa en kolumn med URL:er (din indata), och bearbetar dem sedan i kontrollerade batchar så att du inte överbelastar API:er eller triggar onödiga fel. För varje URL formaterar n8n förfrågan, anropar Apify via HTTP, väntar på att skrapkörningen blir klar och hämtar därefter de slutliga profilresultaten. Resultaten läggs tillbaka i Google Sheets som korrekt formaterade rader, och arbetsflödet uppdaterar en progresslogg så att du ser vad som hände utan att gissa. När körningen är klar skickas ett e-postmeddelande om att allt lyckades, så att du slipper sitta och vakta en flik.

Arbetsflödet startar när du triggar det (oftast via webhook eller enligt ett schema). Därifrån gör Apify grovjobbet med att skrapa och returnera profildata. Till sist blir Google Sheets din strukturerade källa, med en progressspårare och en e-postbekräftelse när allt är klart.

Vad som förändras: före vs. efter

Effekt i verkligheten

Säg att du samlar in 150 LinkedIn-profil-URL:er från eventdeltagare eller Sales Navigator. Manuellt blir även 3 minuter per profil cirka 7–8 timmar av flikbyten och copy-paste. Med det här arbetsflödet klistrar du in URL:er i en kolumn i Google Sheets, triggar körningen och väntar på att Apify ska returnera resultat medan n8n lägger till rader automatiskt. Du kanske lägger 10 minuter på att starta och stickprova output, och sedan kan du fortsätta med din dag.

Krav

  • n8n-instans (testa n8n Cloud gratis)
  • Alternativ för self-hosting om du föredrar det (Hostinger fungerar bra)
  • Google Sheets för att lagra URL:er och korrekt formaterade lead-rader
  • Apify för att skrapa LinkedIn-profildata
  • Apify API-token (hämta den i Apify Console → API)

Kunskapsnivå: Nybörjare. Du kopplar konton, väljer rätt kalkylarkskolumner och klistrar in en API-token.

Behöver du hjälp att implementera detta? Prata med en automationsexpert (gratis 15-minuterskonsultation).

Flödet i arbetsflödet

Webhook- eller schematrigger. Du startar körningen på beställning, eller låter den gå enligt en kadens (praktiskt när teamet lägger till nya URL:er under veckan).

Google Sheets hämtar indata-listan. Arbetsflödet läser dina LinkedIn-URL:er från en specifik kolumn (ofta kallad linkedin_url), och förbereder dem så att varje profil bearbetas korrekt.

Batchar + skrapning via Apify API. n8n loopar igenom URL:er i batchar, formaterar en request-URL och anropar Apify via HTTP för att starta LinkedIn-scraper-aktorn. Därefter väntar den på aktorkörningen och hämtar de slutliga skrapade resultaten när de är klara.

Lägg till resultat och notifiera. Skrapad data läggs till i Google Sheets, en progresslogg uppdateras och ett e-postmeddelande om slutförande skickas via Gmail så att du inte behöver fortsätta kontrollera.

Du kan enkelt ändra vilka fält du sparar i Sheets eller hur stor varje batch är utifrån dina behov. Se den fullständiga implementationsguiden nedan för anpassningsalternativ.

Steg-för-steg-guide för implementering

Steg 1: Konfigurera den okända triggern

Det här arbetsflödet startar från en datakälla snarare än en explicit trigger, så ni kör det manuellt eller kopplar in er föredragna trigger innan ni använder det i produktion.

  1. Bestäm hur ni vill starta arbetsflödet (manuell körning, eller lägg till en trigger-nod senare).
  2. Säkerställ att den första noden i körvägen är Retrieve LinkedIn Links så att batch-loopen har indata-rader.

Steg 2: Anslut Google Sheets

Dessa noder läser nyckelord, loggar status och lägger till skrapade resultat i era kalkylark.

  1. Öppna Retrieve LinkedIn Links och välj Linkedin Post Keywords som Document och Final keywords som Sheet. Credential Required: Anslut era googleApi-inloggningsuppgifter.
  2. Öppna Launch Apify Scraper och ställ in Document till Linkedin Post Keywords och Sheet till 24 June 2025. Credential Required: Anslut era googleApi-inloggningsuppgifter.
  3. Öppna Append to Sheets och bekräfta att Operation är inställd på append. Mappa fälten enligt följande: url till {{ $json.url }}, text till {{ $json.text }}, type till {{ $json.type == undefined ? "--" : $json.type }}, title till {{ $json.title }}, inputUrl till {{ $json.inputUrl }}, authorName till {{ $json.authorName }}, postedAtISO till {{ $json.postedAtISO }}, authorProfileUrl till {{ $json.authorProfileUrl }}. Credential Required: Anslut era googleApi-inloggningsuppgifter.
  4. Öppna Update Progress Log och behåll Operation som appendOrUpdate. Mappa Keywords till {{ $('Batch Scheduler').item.json.Keywords }} och Total Count 24-06-2025 till {{ $('Fetch Scrape Results').all().length }}. Credential Required: Anslut era googleApi-inloggningsuppgifter.

Steg 3: Konfigurera batchbearbetning och formatering av frågor

Dessa noder styr batch-loopen och bygger LinkedIn-sök-URL:er för Apify.

  1. I Batch Scheduler behåller ni standardinställningarna för att dela upp indata-rader i batchar.
  2. I Format Query URL behåller ni JavaScript-koden som den är för att generera URL:en med hjälp av fältet Keywords.
  3. Bekräfta att Batch Scheduler skickar utdata till både Launch Apify Scraper och Format Query URL parallellt.
  4. I Completion Delay ställer ni in Amount till 10 för att pausa mellan batchar.

Steg 4: Konfigurera Apify HTTP-begäranden

Dessa noder triggar Apify-aktorn, väntar på slutförande och hämtar dataset-resultaten.

  1. Öppna Request Profile Data och ställ in URL till https://api.apify.com/v2/acts/linkedin-scraper/runs, Method till POST och JSON Body till den angivna payloaden som innehåller {{ $json.url }} och {{ $credentials.linkedinAuth.sessionCookie }}. Credential Required: Anslut era httpHeaderAuth-inloggningsuppgifter.
  2. Öppna Await Actor Run och ställ in URL till https://api.apify.com/v2/actor-runs/{{ $json.data.id }} med Query Parameter waitForFinish=100. Credential Required: Anslut era httpHeaderAuth-inloggningsuppgifter.
  3. Öppna Fetch Scrape Results och ställ in URL till https://api.apify.com/v2/datasets/{{ $json.data.defaultDatasetId }}/items. Credential Required: Anslut era httpHeaderAuth-inloggningsuppgifter.

Steg 5: Konfigurera e-post för utdata

Skicka ett slutförande-mejl när steget för batchstart körs.

  1. Öppna Dispatch Success Email och ställ in Send To till {{ $credentials.emailNotification.recipientEmail }}. Credential Required: Anslut era gmailOAuth2-inloggningsuppgifter.
  2. Ställ in Subject till Apify LinkedIn data details - {{ $now.format('DD MMMM YYYY') }}.
  3. Ställ in Message till den angivna HTML-koden, inklusive {{ $now.format('DD MMMM YYYY') }} och {{ $('Launch Apify Scraper').all().length }}.

Steg 6: Testa och aktivera ert arbetsflöde

Kör ett fullständigt test för att bekräfta att batch-loopen, Apify-anropen och uppdateringarna i kalkylarket fungerar hela vägen.

  1. Klicka på Execute Workflow och verifiera att Retrieve LinkedIn Links läser in nyckelordsrader.
  2. Bekräfta att Format Query URL ger ut en LinkedIn-sök-URL och att Request Profile Data returnerar ett Apify run ID.
  3. Kontrollera Fetch Scrape Results för dataset-objekt och verifiera att Append to Sheets skriver rader till 24 June 2025.
  4. Bekräfta att Update Progress Log lägger till eller uppdaterar antal i Final keywords, och att Dispatch Success Email skickar sammanfattningen.
  5. Aktivera arbetsflödet när resultaten ser korrekta ut så att det är redo för produktionskörningar.
🔒

Lås upp fullständig steg-för-steg-guide

Få den kompletta implementeringsguiden + nedladdningsbar mall

Se upp för

  • Apify-inloggningar kan löpa ut eller så kan aktorn kräva extra behörigheter. Om det skapar fel, kontrollera först din token i Apify Console och åtkomsten till aktorn.
  • Om du använder Wait-noder eller externa skrapkörningar varierar processtiderna. Öka väntetiden om efterföljande HTTP-anrop misslyckas på grund av tomma svar.
  • Standardval för “vilka fält sparar vi?” kan bli för generiska. Bestäm din arkschema tidigt (titel, företag, plats, profilrubrik) annars kommer du rensa output i all evighet.

Vanliga frågor

Hur snabbt kan jag implementera den här Apify Sheets leads-automationen?

Cirka 30 minuter om dina Apify- och Google-konton är redo.

Kan icke-tekniska team implementera den här ledrensningen?

Ja. Ingen kodning krävs, men någon behöver koppla Google Sheets och klistra in en Apify API-token i n8n.

Är n8n gratis att använda för det här Apify Sheets leads-arbetsflödet?

Ja. n8n har ett gratis self-hosted-alternativ och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna in Apify-användning, som kan landa på några dollar för små listor och mer om du skrapar mycket.

Var kan jag hosta n8n för att köra den här automationen?

Två alternativ: n8n Cloud (hanterat, enklast setup) eller self-hosting på en VPS. För self-hosting är Hostinger VPS prisvärt och hanterar n8n bra. Self-hosting ger dig obegränsade körningar men kräver grundläggande serveradministration.

Hur anpassar jag den här Apify Sheets leads-lösningen till mina specifika utmaningar?

Det kan du. De flesta anpassningar sker där resultat skrivs och hur poster batchas: justera vilka fält som mappas i “Append to Sheets”, ändra hur ofta “Update Progress Log” skriver status och finjustera “Batch Scheduler” så att den kör mindre grupper om LinkedIns rate limiting blir ett problem. Om du vill använda andra Apify-aktorer byter du aktorinställningarna som används av HTTP-anropen som startar och hämtar körningar, och behåller samma lagringsmönster i Sheets.

Varför misslyckas min Google Sheets-anslutning i det här arbetsflödet?

Oftast beror det på att Google-auktoriseringen i n8n har löpt ut eller att kalkylarket flyttades och att ID:t ändrades. Återanslut Google Sheets-credential i n8n och bekräfta sedan att exakt arknamn och fliknamn fortfarande matchar. Kontrollera också delningsbehörigheter om arket ligger i en delad enhet.

Vad är kapaciteten för den här Apify Sheets leads-lösningen?

Den hanterar utan problem hundratals URL:er per körning för de flesta team, där batchning styr tempot. I self-hosted n8n finns inget tak för körningar (det är din server och Apify-gränser som betyder mest). Om du kör n8n Cloud beror kapaciteten på planens månadsvisa körningar och hur många URL:er du processar i varje körning.

Är den här Apify Sheets leads-automationen bättre än att använda Zapier eller Make?

Ofta, ja, om du hanterar batchar, väntar på skrapkörningar och behöver skriva tillbaka resultat på ett stabilt sätt. n8n trivs med loopar och mönster som “vänta tills klart”, och self-hosting kan hålla kostnaderna förutsägbara när volymen ökar. Zapier eller Make kan fungera, men flöden med flerstegsskrapning tenderar att bli sköra och dyra när antalet tasks växer. En annan fördel är kontroll: du kan logga progress, försöka igen selektivt och lägga till förgreningar utan att bygga om hela upplägget. Om du är osäker, prata med en automationsexpert så får du en rak rekommendation.

Felfri data förändrar allt, helt ärligt. Sätt upp detta en gång, så blir dina LinkedIn-URL-dumpar användbara prospektlistor utan kalkylarkskaos.

Kontakta oss

Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.

×

Använd mall

Få direkt tillgång till denna n8n-arbetsflödes JSON-fil

Launch login modal Launch register modal