Behöver ert företag hjälp med att implementera AI? Kontakta oss och få prisoffert här →
AI Skolan
januari 22, 2026

PhantomBuster till Google Sheets: rensade LinkedIn-leads

Rickard Andersson Partner, Nodenordic.se

Att kopiera LinkedIn-profiler till ett kalkylark låter enkelt tills du har gjort det 40 gånger i rad. Då blir det flikar överallt, halvifyllda namn, inkonsekventa jobbtitlar och den där långsamma känslan av att din ”leadlista” redan är inaktuell.

SDR:er känner av detta när de försöker nå dagliga aktivitetsmål. Rekryterare stöter på det när de bygger kortlistor. Och marknadsförare som rensar listor inför kampanjer kör in i samma vägg. Den här LinkedIn lead-automationen förvandlar profil-URL:er till felfria, strukturerade rader i Google Sheets, plus valfria outreach-anteckningar som du faktiskt kan använda.

Du får se hur flödet körs, vad du behöver koppla in och hur det skapar konsekventa fält som namn, företag, rubrik, bransch, erfarenhet och meddelandeutkast utan att du behöver skriva något för hand.

Så fungerar den här automatiseringen

Här är hela workflowet du kommer att sätta upp:

n8n Workflow Template: PhantomBuster till Google Sheets: rensade LinkedIn-leads

Varför det här spelar roll: rörig LinkedIn-data saboterar outreach

De flesta LinkedIn-leadlistor börjar med goda intentioner och slutar med ett kalkylark fullt av ”kanske”-data. Du klistrar in en URL, skummar profilen, gissar en jobbtitel och går vidare. En vecka senare minns du inte varför du sparade personen, företagsfältet är inkonsekvent (”Google”, ”Google LLC”, ”Alphabet”) och anteckningskolumnen är antingen tom eller en roman. Ännu värre: listan blir omöjlig att segmentera, så personaliseringen faller och svarsfrekvensen följer med ned.

Det är inte ett stort haveri. Det är dussintals små friktioner som bara fortsätter att staplas.

  • Att manuellt plocka ut namn, roll och företag från varje profil tar cirka 5 minuter per lead när du räknar med flikbyten och formatering.
  • Ditt team hamnar i olika namngivningsstandarder, vilket gör filtrering på bransch eller titel till ett hopplöst projekt.
  • Outreach-anteckningar hoppas över eftersom det tar tid, så kampanjer landar i generiska budskap.
  • När listan växer blir kvalitetskontroll en veckouppgift i stället för en snabb stickkontroll.

Vad du bygger: PhantomBuster → AI-parsning → Google Sheets-rader

Det här flödet börjar med en lista LinkedIn-profil-URL:er i Google Sheets. Enligt schema hämtar n8n dessa URL:er, loggar dem temporärt (så att inget tappas bort) och skickar var och en till en PhantomBuster-agent som skrapar profildata. Efter en kort väntan (cirka 45 sekunder) hämtar flödet resultatfilen från PhantomBuster och använder sedan en modell i GPT-4-klassen (OpenAI eller Azure OpenAI) för att extrahera felfria, strukturerade fält som namn, rubrik, företag, jobbtitel, bransch och erfarenhet. Om du vill kan det också generera anpassade outreach-meddelanden baserat på det som hittades. Till sist skrivs allt tillbaka till Google Sheets i prydliga kolumner, och den temporära loggen rensas inför nästa körning.

Flödet utgår från Google Sheets som ”single source of truth”. PhantomBuster gör skrapningen, och AI förvandlar rå, skrapad text till konsekventa kolumner som du kan filtrera och segmentera. Google Sheets tar emot slutresultatet, redo för outreach, berikning eller överlämning till ett CRM.

Det du bygger

Förväntade resultat

Säg att du samlar in 50 LinkedIn-profiler till en kampanj. Manuellt, med cirka 5 minuter per profil för att öppna, skumma, kopiera fält och fixa formatering, pratar vi ungefär 4 timmar monotont arbete. Med det här flödet lägger du in de 50 URL:erna i ett ark och låter det köra: skrapcykeln väntar runt en minut per URL, och sedan extraherar AI fälten och skriver tillbaka dem automatiskt. Din hands-on-tid landar närmare 10 minuter, mest granskning och små justeringar.

Innan du börjar

  • n8n-instans (testa n8n Cloud gratis)
  • Alternativ för egen hosting om du föredrar det (Hostinger fungerar bra)
  • PhantomBuster för att skrapa LinkedIn-profiler från URL:er
  • Google Sheets för att lagra URL:er och felfri output
  • OpenAI- eller Azure OpenAI-API-nyckel (hämta den i din OpenAI- eller Azure-portal)

Kunskapsnivå: Medel. Du kopplar konton, klistrar in en API-nyckel och mappar några kalkylarkskolumner.

Vill du att någon bygger detta åt dig? Prata med en automationsexpert (gratis 15-minuters konsultation).

Steg för steg

Ett schema kontrollerar ditt ark. n8n körs på en tidsstyrd trigger, hämtar LinkedIn-profil-URL:er från Google Sheets och mellanlagrar dem så att varje URL processas pålitligt.

Varje URL skickas till PhantomBuster. Flödet anropar PhantomBuster-agenten via en HTTP-request, vilket startar LinkedIn Profile Scraper med ditt agent-ID och din API-nyckel.

Resultat hämtas och struktureras. Efter en kort väntan (mallen använder cirka 45 sekunder) laddar n8n ned resultatets JSON och skickar det till ett AI-extraktionssteg som standardiserar fält som titel, företag och erfarenhet.

Strukturerade rader och valfria meddelanden hamnar tillbaka i Sheets. Flödet skriver de parsade kolumnerna och (om aktiverat) anpassade outreach-anteckningar till Google Sheets och rensar sedan den temporära loggen så att nästa batch startar rent.

Du kan enkelt justera vilka fält som extraheras så att de matchar din ICP och din rapportering, och sedan anpassa meddelandestilen efter er tonalitet. Se hela implementationsguiden nedan för anpassningsalternativ.

Steg-för-steg-guide för implementering

Steg 1: konfigurera schematriggern

Ställ in arbetsflödet så att det startar enligt ett schema, så att det regelbundet kan bearbeta nya profil-URL:er.

  1. Lägg till och öppna Scheduled Automation Trigger.
  2. Definiera ett schema som matchar er bearbetningstakt (t.ex. varje timme eller dagligen).
  3. Verifiera att Scheduled Automation Trigger är kopplad till Retrieve URLs from Sheet.
Om er källfil uppdateras ofta, använd ett kortare intervall för att minimera köbildning.

Steg 2: anslut Google Sheets

Dessa noder läser käll-URL:er, loggar tillfälliga poster, skriver skräddarsydda meddelanden och rensar den tillfälliga loggen.

  1. Öppna Retrieve URLs from Sheet och välj er källkalkyl och ert kalkylblad.
  2. Öppna Temporary URL Log och välj den kalkyl/kalkylblad som används för att lagra temporära URL:er.
  3. Öppna Write Messages to Sheet och välj destinationskalkylen/kalkylbladet för genererade meddelanden.
  4. Öppna Clear Temp URL Log och välj samma temporära loggblad för att rensa det efter att meddelanden har skrivits.
  5. Credential Required: Anslut era Google Sheets-credentials i Retrieve URLs from Sheet, Temporary URL Log, Write Messages to Sheet och Clear Temp URL Log.
⚠️ Vanlig fallgrop: Om ni använder olika kalkylark mellan Temporary URL Log och Clear Temp URL Log kan gamla URL:er bli kvar.

Steg 3: konfigurera PhantomBuster-begäran och fördröjning

Den här delen skickar URL-batchen till PhantomBuster och väntar innan resultaten hämtas.

  1. Öppna Send PhantomBuster Request och konfigurera HTTP-begäran för att trigga er PhantomBuster-agent.
  2. Säkerställ att Temporary URL Log är kopplad till Send PhantomBuster Request.
  3. Öppna Delay Execution och ställ in en väntetid som matchar körtiden för ert PhantomBuster-jobb.
  4. Bekräfta att Send PhantomBuster Request är kopplad till Delay Execution, som i sin tur är kopplad till Fetch PhantomBuster Result.
  5. Credential Required: Anslut era HTTP Request-credentials (eller autentiseringsmetod) i Send PhantomBuster Request och Fetch PhantomBuster Result.
Öka fördröjningen om PhantomBuster ofta returnerar ofullständiga resultat.

Steg 4: konfigurera AI-baserad URL-extraktion och profilhämtning

PhantomBuster-resultat tolkas av GPT-4 och används sedan för att hämta LinkedIn-profildata.

  1. Öppna GPT-4 URL Extraction och säkerställ att den tar emot input från Fetch PhantomBuster Result.
  2. Verifiera att Azure Chat Engine är ansluten som språkmodell för GPT-4 URL Extraction och lägg till Azure OpenAI-credentials där.
  3. Verifiera att Structured Result Parser är ansluten som output parser för GPT-4 URL Extraction; lägg till credentials i Azure Chat Engine, inte i parsern.
  4. Öppna Pull LinkedIn Profile Data och konfigurera HTTP-begäran för att hämta LinkedIn-profildata för de extraherade URL:erna.
  5. Credential Required: Anslut era HTTP Request-credentials (eller autentiseringsmetod) i Pull LinkedIn Profile Data.
⚠️ Vanlig fallgrop: Lägg inte till credentials i Structured Result Parser; credentials måste läggas till i Azure Chat Engine.

Steg 5: generera skräddarsydda meddelanden och skriv utdata

Profildata omvandlas till skräddarsydda meddelanden och sparas tillbaka till Google Sheets, och därefter rensas temp-loggen.

  1. Öppna Generate Tailored Messages och bekräfta att den tar emot input från Pull LinkedIn Profile Data.
  2. Verifiera att Secondary Azure Chat är ansluten som språkmodell för Generate Tailored Messages och lägg till Azure OpenAI-credentials där.
  3. Verifiera att Structured Result Parser 2 är ansluten som output parser för Generate Tailored Messages; lägg till credentials i Secondary Azure Chat, inte i parsern.
  4. Säkerställ att Generate Tailored Messages är kopplad till Write Messages to Sheet, som i sin tur är kopplad till Clear Temp URL Log.
Håll meddelandekolumnerna i destinationsbladet konsekventa med er prompt-struktur för förutsägbar mappning av utdata.

Steg 6: testa och aktivera ert arbetsflöde

Kör ett end-to-end-test för att bekräfta att URL:er bearbetas, profiler tolkas och meddelanden skrivs.

  1. Klicka på Execute Workflow för att köra ett manuellt test från Scheduled Automation Trigger.
  2. Kontrollera att Retrieve URLs from Sheet skickar data till Temporary URL Log och Send PhantomBuster Request.
  3. Bekräfta att Fetch PhantomBuster Result skickar ut URL:er till GPT-4 URL Extraction och att Pull LinkedIn Profile Data returnerar profiluppgifter.
  4. Verifiera att Generate Tailored Messages skriver rader till Write Messages to Sheet och att Clear Temp URL Log rensar temp-bladet.
  5. När allt fungerar, slå om arbetsflödet till Active för schemalagd körning.
🔒

Lås upp fullständig steg-för-steg-guide

Få den kompletta implementeringsguiden + nedladdningsbar mall

Felsökningstips

  • PhantomBuster-inloggning kan löpa ut eller kräva specifika behörigheter. Om det skapar fel: kontrollera först din PhantomBuster API-nyckel, agent-ID och inställningen för LinkedIn session cookie.
  • Om du använder Wait-noder eller extern skrapning varierar processtider. Öka väntetiden om nedströmsnoder fallerar på tomma svar.
  • Standardprompter i AI-noder är generiska. Lägg in er tonalitet tidigt, annars kommer du att redigera output i all evighet.

Snabba svar

Hur lång tid tar det att sätta upp den här LinkedIn lead-automationen?

Cirka 30 minuter om PhantomBuster och Sheets redan är förberedda.

Krävs det kodning för den här LinkedIn lead-automationen?

Nej. Du kopplar PhantomBuster, Google Sheets och din AI-nyckel och mappar sedan de fält du vill skriva tillbaka.

Är n8n gratis att använda för det här LinkedIn lead-automationsflödet?

Ja. n8n har ett gratis alternativ för egen hosting och en gratis provperiod på n8n Cloud. Cloud-planer startar på 20 USD/månad för högre volymer. Du behöver också räkna in API-användning för OpenAI eller Azure OpenAI (ofta bara några dollar i månaden vid måttliga leadvolymer).

Var kan jag hosta n8n för att köra den här automatiseringen?

Två alternativ: n8n Cloud (hanterat, enklast setup) eller egen hosting på en VPS. För egen hosting är Hostinger VPS prisvärd och hanterar n8n bra. Egen hosting ger dig obegränsade körningar men kräver grundläggande serveradministration.

Kan jag anpassa det här LinkedIn lead-automationsflödet för andra use cases?

Ja, och det bör du troligen. Du kan uppdatera stegen för AI-extraktion och parsning (GPT-4-agenten och noderna för strukturerad resultattolkning) så att de inkluderar fält som plats, kompetenser, utbildning eller ”trolig senioritet”. Vanliga justeringar är att ändra prompten för meddelandeskapande, lägga till ett skrivsteg till CRM i stället för Google Sheets eller filtrera bort profiler som inte matchar dina måltitlar med en If-nod.

Varför misslyckas min PhantomBuster-anslutning i det här flödet?

Oftast beror det på en ogiltig API-nyckel, agent-ID eller en LinkedIn session cookie som har löpt ut. Kontrollera PhantomBuster-dashboarden först, generera sedan det du behöver på nytt och uppdatera n8n-credentials. Om det bara fallerar vid större batcher kan du också slå i rate limits eller PhantomBuster-fördröjningar, så en längre väntetid kan hjälpa.

Vilken volym kan det här LinkedIn lead-automationsflödet hantera?

Det beror främst på PhantomBusters körtid och dina exekveringsgränser i n8n. Med n8n Cloud Starter kan du köra ett bra antal schemalagda körningar per månad för små team; vid egen hosting begränsas du främst av din server och PhantomBusters throughput. I praktiken kör många team detta i batcher om 20–100 URL:er åt gången, granskar och upprepar.

Är den här LinkedIn lead-automationen bättre än att använda Zapier eller Make?

Ofta, ja. Det här flödet bygger på att vänta på ett externt skrapjobb, hämta JSON-filer och göra strukturerad AI-extraktion, och n8n hanterar den typen av flersteglogik snyggt utan att det blir en gigantisk nota. Zapier eller Make kan fortfarande fungera om ditt flöde är enklare, men de är mindre förlåtande när du lägger till batchning, retries och anpassad parsning. Om ditt team skalar lead research är kontrollen du får i n8n värd det. Prata med en automationsexpert om du vill ha hjälp att välja.

Felfria leaddata förändrar allt nedströms: segmentering, personalisering och uppföljning. Sätt upp det en gång och låt sedan flödet göra grovjobbet medan du fokuserar på samtalen.

Kontakta oss

Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.

×

Använd mall

Få direkt tillgång till denna n8n-arbetsflödes JSON-fil

Launch login modal Launch register modal