Behöver ert företag hjälp med att implementera AI? Kontakta oss och få prisoffert här →
AI Skolan
januari 22, 2026

Decodo + Google Sheets: jämna cv-insikter

Rickard Andersson Partner, Nodenordic.se

Dina rekryteringsbeslut är bara så bra som anteckningarna du faktiskt fångar upp – och om vi ska vara ärliga är CV-granskningar ofta där en “bra process” går och dör. En person ser ledarskap. En annan ser jobbhoppande. Någon annan missar nyckelkompetensen helt eftersom den ligger gömd i en portföljlänk.

Den här resume insights automation slår hårdast mot rekryterare, men HR-analysteam och talent ops-ansvariga känner av det också. Du får konsekvent, strukturerad kandidatintelligens i Google Sheets, så att du kan jämföra sökande snabbare och slippa skriva om samma sammanfattning på fem olika sätt.

Nedan ser du hur flödet körs, vad det producerar och vad du behöver för att få det live utan att göra det här till ett månadslångt “systemprojekt”.

Så fungerar automatiseringen

Hela n8n-flödet, från trigger till slutresultat:

n8n Workflow Template: Decodo + Google Sheets: jämna cv-insikter

Problemet: CV-granskningar är långsamma och inkonsekventa

Manuell CV-granskning låter enkelt tills du gör det i skala, med olika format och olika granskare. En kandidat har en välordnad LinkedIn. En annan har en PDF med tabeller. En tredje har en personalsajt där halva informationen ligger i bilder. Du slutar med att pussla ihop sammanhang, gissa senioritet och försöka mappa luddig erfarenhet mot en specifik kravprofil. Sedan måste du förklara ditt resonemang för en rekryterande chef – på ett sätt som faktiskt går att jämföra mellan kandidater. Den sista delen är där de flesta team tappar både tid och säkerhet.

Friktionen växer snabbt. Ett enskilt CV är hanterbart. En pipeline är det inte.

  • Granskningsanteckningar glider över tid, så din etikett “stark kommunikatör” slutar betyda något efter några veckor.
  • Att copy-pasta höjdpunkter till kalkylark tar cirka 10 minuter per kandidat, och detaljerna blir ändå ojämna.
  • Traditionella scraping- eller parsingverktyg ger dig råtext, vilket innebär att den svåra delen (bedömning och syntes) fortfarande landar på dig.
  • När ledningen frågar “varför den här shortlistan” får du panik eftersom resonemanget ligger i DMs, kommentarer och halvfärdiga dokument.

Lösningen: Decodo + OpenAI förvandlar profiler till strukturerade rekryteringssignaler

Det här flödet hämtar en kandidatprofil från en URL, extraherar de faktiska rekryteringssignalerna och loggar dem i Google Sheets i ett konsekvent format. Du börjar med att ange tre inputs: CV- eller profillänken, en plats (användbart för regionspecifikt sammanhang) och den aktuella kravprofilen. Decodo scrapar sedan kandidatens profildetaljer som erfarenhet, kompetenser, utbildning och prestationer. Därefter konverterar OpenAI (GPT-4o-mini) den stökiga texten till ett korrekt formaterat JSON Resume Schema och kör sedan en djupare analys för att lyfta fram matchning mot kompetenser, gap, utvecklingskurva och praktiska insikter för “vad ni ska fråga härnäst”. Slutligen slår den ihop de strukturerade fälten och sammanfattningen och uppdaterar en rad i ditt rekryteringsintelligens-ark så att hela teamet ser samma bild.

Flödet startar med en manuell körning i n8n (du kan schemalägga det senare). Därifrån samlar Decodo in kandidatdata, OpenAI standardiserar och analyserar, och Google Sheets blir den enda platsen där ni jämför kandidater sida vid sida. Valfritt: det skriver också en JSON-rapport till disk för offline-lagring eller system-till-system-integration.

Det här får du: automatisering vs. resultat

Exempel: så här ser det ut

Säg att ditt team screenar 25 kandidater till en roll varje vecka. Om varje granskning tar cirka 15 minuter (öppna länkar, skumma, sammanfatta och sedan logga i Sheets) blir det ungefär 6 timmars arbete, plus den mentala belastningen av att växla kontext. Med det här flödet klistrar du in URL och kravprofil en gång per kandidat (cirka 2 minuter), väntar på bearbetningen och granskar sedan ett strukturerat resultat som redan är inskrivet i Google Sheets. Du fattar fortfarande beslutet, men du får tillbaka runt 4 timmar per vecka – och anteckningarna går äntligen att jämföra.

Det här behöver du

  • n8n-instans (prova n8n Cloud gratis)
  • Self-hosting-alternativ om du föredrar det (Hostinger fungerar bra)
  • Decodo för att scrapa kandidatprofilsidor
  • OpenAI (GPT-4o-mini) för att strukturera och analysera CV-data
  • OpenAI API-nyckel (hämta den i OpenAI API-dashboarden)

Kompetensnivå: Medel. Du kopplar upp inloggningar, ändrar några fält och bekräftar din mappning mot Google Sheet.

Vill du inte sätta upp det här själv? Prata med en automationsexpert (gratis 15 minuters konsultation).

Så fungerar det

Du anger CV-URL och kravprofil. Flödet börjar med en manuell körning (eller schemaläggning senare) och läser dina inputfält som kandidatens länk, plats och rollen du rekryterar till.

Decodo samlar in profildetaljerna. Den scrapar kandidatens sida och plockar ut råmaterialet: roller, tidslinjer, utbildning, prestationer och allt annat som syns på källan.

OpenAI gör råtexten till rekryteringsklar intelligens. Ett varv strukturerar innehållet till JSON Resume Schema. Ett annat varv kör en djupare analys (kompetensmatchning, gap, utvecklingskurva, signaler kring kultur/arbetsstil), och därefter tar en summerare fram en tydlig berättelse som du kan dela internt.

Google Sheets blir ert konsekventa jämförelselager. En merge slår ihop strukturerade fält och insikter och flödet uppdaterar sedan en rad i ditt Sheet så att varje kandidatpost har samma form och samma “etiketter”. Valfria noder som skriver till fil sparar JSON-utdata för senare systemintegration.

Du kan enkelt ändra inputfälten för att matcha olika roller, regioner eller poänglogik utifrån era behov. Se hela implementationsguiden nedan för anpassningsalternativ.

Steg-för-steg-guide för implementering

Steg 1: konfigurera den manuella triggern

Starta arbetsflödet med en manuell trigger så att ni snabbt kan testa och iterera på CV-analysen.

  1. Lägg till noden Manual Run Start som er trigger.
  2. Koppla Manual Run Start till Assign Input Parameters.

Steg 2: anslut Decodo och ställ in inparametrar

Definiera CV-källan, geo och jobbbeskrivningen, och skrapa sedan CV-innehållet från den angivna URL:en.

  1. I Assign Input Parameters, ställ in url till https://registry.jsonresume.org/thomasdavis?theme=academic-cv-lite.
  2. Ställ in geo till India.
  3. Ställ in jobDescription till Senior Software Engineer with 5+ years of experience in React, Node.js, and cloud technologies. Must have experience with AWS, Docker, and agile development methodologies. Looking for someone who can lead technical projects and mentor junior developers..
  4. Öppna Decodo Scrape Call och ställ in geo till {{ $json.geo }} och url till {{ $json.url }}.
  5. Credential Required: Anslut era decodoApi-autentiseringsuppgifter i Decodo Scrape Call.

Decodo Scrape Call skickar utdata till Resume Data Parser, Talent Insight Analyzer och Profile Summary Builder parallellt.

Steg 3: konfigurera AI-tolkning och analys

Konfigurera AI-noderna för att extrahera strukturerad CV-data, ta fram talanginsikter och generera profilsammanfattningar.

  1. I Resume Data Parser, behåll prompttexten och säkerställ att den använder {{ $json.data.results[0].content }} för tolkning.
  2. I Talent Insight Analyzer, behåll prompten och säkerställ att den refererar till {{ $json.data.results[0].content }} och {{ $('Assign Input Parameters').item.json.jobDescription }}.
  3. I Profile Summary Builder, behåll prompten och aktivera hasOutputParser; bekräfta att den använder {{ $json.data.results[0].content }}.
  4. Credential Required: Anslut era openAiApi-autentiseringsuppgifter i OpenAI Model Parser (används av Resume Data Parser).
  5. Credential Required: Anslut era openAiApi-autentiseringsuppgifter i OpenAI Model Core (används av Talent Insight Analyzer).
  6. Credential Required: Anslut era openAiApi-autentiseringsuppgifter i OpenAI Model Summarizer (används av Profile Summary Builder).
  7. Öppna Summary Output Parser och bekräfta att schemaType är manual med det angivna JSON-schemat för abstractive_summarizer och comprehensive_summarizer.

För Summary Output Parser (en AI-verktygsundernod), lägg till autentiseringsuppgifter i den överordnade Profile Summary Builder via OpenAI Model Summarizer, inte på parsern i sig.

Steg 4: tolka utdata och bygg filer

Konvertera AI-textutdata till JSON, slå ihop resultaten och generera en JSON-fil för lagring på disk.

  1. I Parse Structured Output, behåll JavaScript-koden som tar bort code fences och kör JSON.parse(text).
  2. I Parse Mining Output, behåll samma JavaScript-tolkningslogik för data-mining-utdata.
  3. Ställ in Combine Results så att den slår ihop numberInputs = 3 för att ta emot strukturerad data, mining-insikter och sammanfattningsutdata.
  4. I Build Binary File, behåll funktionen som skriver base64-JSON till items[0].binary.data.data.
  5. I Write File to Disk, ställ in operation till write, fileName till C:\\{{ $('Parse Structured Output').item.json.basics.name }}.json, och dataPropertyName till data.

Parse Structured Output skickar utdata till både Combine Results och Build Binary File parallellt.

⚠️ Vanlig fallgrop: Tolkningskoden i Parse Structured Output och Parse Mining Output kommer att misslyckas om AI-svaret inte är giltig JSON. Håll prompterna strikta och testa med ett enda CV innan ni kör i batch.

Steg 4: konfigurera utdata till Google Sheets

Lägg till eller uppdatera ert Google-kalkylark med den sammanslagna analysdatan.

  1. Öppna Update Sheet Row och ställ in operation till appendOrUpdate.
  2. Välj kalkylarket i documentId (för närvarande LinkedIn Talent Intelligence) och sheetName (för närvarande Sheet1).
  3. Credential Required: Anslut era googleSheetsOAuth2Api-autentiseringsuppgifter i Update Sheet Row.

Steg 5: testa och aktivera ert arbetsflöde

Kör ett manuellt test för att verifiera AI-tolkning, filgenerering och utdata till Google Sheets.

  1. Klicka på Execute Workflow från Manual Run Start.
  2. Bekräfta att Decodo Scrape Call returnerar CV-innehåll och att alla tre AI-grenar körs.
  3. Verifiera att Combine Results tar emot tre indata och att Update Sheet Row skriver till målbladet.
  4. Kontrollera er disk efter JSON-filen som skapats av Write File to Disk.
  5. När allt är validerat, växla arbetsflödet till Active för användning i produktion.
🔒

Lås upp fullständig steg-för-steg-guide

Få den kompletta implementeringsguiden + nedladdningsbar mall

Vanliga fallgropar

  • Decodo-inloggningar kan löpa ut eller kräva specifika behörigheter. Om det uppstår problem, kontrollera först din Decodo-dashboard och nodens val av credentials i n8n.
  • Om du använder Wait-noder eller extern rendering varierar processtiderna. Öka väntetiden om noder längre fram misslyckas på grund av tomma svar.
  • Standardprompter i AI-noder är generiska. Lägg in er tonalitet tidigt, annars kommer du att redigera utdata för alltid.

Vanliga frågor

Hur lång tid tar det att sätta upp den här automatiseringen för CV-insikter?

Cirka en timme om dina konton för Decodo, OpenAI och Google Sheets är klara.

Behöver jag kunna koda för att automatisera CV-insikter?

Nej. Du kopplar främst upp inloggningar och justerar inputfälten (URL, plats, kravprofil).

Är n8n gratis att använda för det här flödet för automatisering av CV-insikter?

Ja. n8n har ett gratis self-hosted-alternativ och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna in kostnader för OpenAI API-användning och din Decodo-plan.

Var kan jag hosta n8n för att köra den här automatiseringen?

Två alternativ: n8n Cloud (hanterat, enklast att sätta upp) eller self-hosting på en VPS. För self-hosting är Hostinger VPS prisvärd och hanterar n8n bra. Self-hosting ger obegränsat antal körningar men kräver grundläggande serverhantering.

Kan jag anpassa det här flödet för automatisering av CV-insikter för matchningspoäng per jobb?

Ja, och det är en av de bästa uppgraderingarna. Behåll Decodo-scrapen som den är, och justera sedan prompterna i LLM-stegen “Talent Insight Analyzer” och “Profile Summary Builder” så att de poängsätter tydligare mot din kravprofil. Många team lägger också till en enkel numerisk matchningspoäng i Function/Code-steget efter att modellens output har parsats. Om du vill ha ett annat outputformat ändrar du det strukturerade schemat i steget “Resume Data Parser” så att Google Sheets får exakt de kolumner du bryr dig om.

Varför misslyckas min Decodo-anslutning i det här flödet?

Oftast beror det på en utgången Decodo API-inloggning eller att community-noden inte är installerad i din n8n-arbetsyta. Dubbelkolla vilka Decodo-credentials som är valda i noden “Decodo Scrape Call”, och bekräfta sedan att ditt konto har åtkomst till målsajterna du scrapar. Om det fungerar för vissa URL:er men inte andra kan du stöta på anti-bot-skydd eller en sidlayout som Decodo inte kan parsa pålitligt.

Hur många kandidatprofiler klarar den här automatiseringen för CV-insikter?

Om du self-hostar n8n finns ingen körningsgräns (det beror på din server och API-begränsningar). På n8n Cloud beror dina månatliga körningar på plan, och den praktiska gränsen kommer oftast från Decodos och OpenAIs throughput när du kör stora batchar.

Är den här automatiseringen för CV-insikter bättre än att använda Zapier eller Make?

Ofta, ja, eftersom det här flödet inte är ett enkelt “kopiera fält A till fält B”. Du kombinerar scraping, AI-bearbetning i flera steg, strukturerad parsing, sammanslagning av output och skriver sedan en korrekt formaterad post till Google Sheets. n8n hanterar branching och mer komplex logik utan att du behöver bygga om allt som en skör kedja av zaps. Det ger också ett self-host-alternativ, vilket är användbart om du screenar många kandidater. Zapier eller Make kan fortfarande fungera om du har låg volym och vill ha enklast möjliga UI, men AI-pipelines i flera steg blir dyra och svårare att felsöka där. Prata med en automationsexpert om du vill ha en snabb rekommendation baserat på er veckovisa kandidatvolym.

När det här väl rullar får varje kandidat samma behandling och ditt team får tillbaka verklig tanketid. Flödet tar hand om det repetitiva, så att du kan fokusera på de samtal som faktiskt spelar roll.

Kontakta oss

Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.

×

Använd mall

Få direkt tillgång till denna n8n-arbetsflödes JSON-fil

Launch login modal Launch register modal