Behöver ert företag hjälp med att implementera AI? Kontakta oss och få prisoffert här →
AI Skolan
januari 22, 2026

Google Gemini + Gmail: anpassningsbara provintervjuer

Rickard Andersson Partner, Nodenordic.se

Träningsintervjuer fallerar oftast på samma ställe. ”Intervjuaren” ställer standardfrågor, ignorerar ditt CV och följer aldrig upp när du ger ett svagt eller otydligt svar.

Jobbsökande känner av det först, helt ärligt. Men karriärcoacher som håller sessioner och rekryterare som hjälper kandidater att förbereda sig kör in i samma vägg. Den här automatiseringen för Gemini-träningsintervjuer ger dig en intervju som faktiskt reagerar på det du säger.

Det här arbetsflödet är backendens ”hjärna” för en enkel röst-sida. Du får se hur det förvandlar ditt CV plus en jobbannons till en realistisk intervju, och sedan behåller kontexten så att nästa fråga hänger ihop.

Så här fungerar automatiseringen

Hela n8n-flödet, från trigger till slutligt resultat:

n8n Workflow Template: Google Gemini + Gmail: anpassningsbara provintervjuer

Problemet: träningsintervjuer anpassar sig inte

Du kan öva svar hela dagen och ändå låsa dig i en riktig intervju eftersom övningen aldrig kändes verklig. De flesta ”AI-intervju”-verktyg ställer generiska frågor och hoppar sedan vidare även om ditt svar var oklart, för långt eller missade kraven i rollen. Det tvingar dig att självkorrigera utan feedback, vilket är svårt när du redan tänker på vad du ska säga härnäst. Och om du jobbar med en coach slösar du sessionstid på uppstart, att repetera kontext och att försöka simulera följdfrågor manuellt. Den mentala belastningen är den luriga delen. Du jonglerar punkter ur CV:t, jobbannonsen och det du redan har sagt.

Det blir snabbt mycket. Här är var det faller isär.

  • Du lägger ungefär 20 minuter på att sätta kontext varje gång, och sedan ignorerar ”intervjun” den ändå.
  • Följdfrågorna blir slumpmässiga, så du kan inte träna på fördjupning eller förtydliganden.
  • Det finns ingen konsekvent konversationshistorik, vilket gör att intervjun känns ryckig.
  • Du hamnar i att öva in memorerade manus i stället för att lära dig tänka i stunden.

Lösningen: en röstintervju-backend som kommer ihåg

Det här n8n-arbetsflödet fungerar som intervjuaren bakom kulisserna. Det startar när din röstintervju-webbsida skickar ditt CV i textform, målrollens jobbeskrivning och ditt senaste svar till en n8n-webhook. n8n kontrollerar om det är början på en konversation eller en fortsättning och tar sedan fram rätt prompt för läget: en inledande fråga när du börjar, eller en följdfråga när du redan har svarat på något. Därefter kombinerar den prompt och kontext och skickar in det i en strukturerad LLM-promptkedja som drivs av Google Gemini. Till sist sätter arbetsflödet ihop en korrekt formaterad svarspayload och skickar tillbaka den till röst-sidan så att nästa fråga kan läsas upp.

Arbetsflödet börjar med en inkommande webhook från din röst-sida. Sedan skickar det din begäran antingen till ett spår för inledande fråga eller till ett spår för följdfråga, baserat på konversationsstatus. Gemini genererar nästa intervjufråga och n8n returnerar den direkt till frontend.

Det du får: automatisering vs. resultat

Exempel: så här ser det ut

Säg att du gör tre träningsintervjuer per vecka. Manuellt kan du lägga ungefär 20 minuter per session på att klistra in ett CV, sammanfatta jobbannonsen och återge vad kandidaten redan tagit upp, alltså runt en timme ren uppstartstid i veckan. Med det här arbetsflödet skickar du in CV och jobbannons en gång (cirka 5 minuter) och sedan är varje fråga/svar-loop bara ”prata och svara” medan n8n hanterar kontexten i bakgrunden. Väntetiden är bara att modellen tänker en stund, inte att du skriver om promptar.

Det du behöver

  • n8n-instans (prova n8n Cloud gratis)
  • Alternativ för self-hosting om du föredrar det (Hostinger fungerar bra)
  • Google Gemini för att generera intervjufrågor och följdfrågor
  • En enkel HTML-röst-sida för att fånga upp tal och spela upp svar
  • Google Gemini API-nyckel (hämta den från Google AI Studio)

Kunskapsnivå: Medel. Du klistrar in en webhook-URL i en webbsida och lägger till en API-inloggning i n8n.

Vill du inte sätta upp detta själv? Prata med en automationsexpert (gratis 15-minuters konsultation).

Så fungerar det

En röst-sida skickar en intervjuhändelse. Arbetsflödet startar när din frontend postar CV-text, jobbeskrivning och användarens senaste svar till n8n:s webhook-URL.

n8n kontrollerar konversationsstatus. En If-nod avgör om detta är första turen eller en följdtur, vilket styr vilken prompt som tas fram.

Rätt prompt byggs ihop och skickas till Gemini. n8n sammanfogar rätt utkast till prompt i en enda LLM-kedja, och sedan genererar Gemini-chatmodellen nästa fråga baserat på ditt CV, jobbannonsen och det som redan har sagts.

Ett korrekt formaterat svar skickas tillbaka till webbläsaren. Arbetsflödet formaterar utdata till en payload som frontend kan läsa och svarar direkt via webhook-svarsnoden.

Du kan enkelt justera prompttexten så att den matchar din bransch och intervjustil utifrån dina behov. Se hela implementationsguiden nedan för alternativ för anpassning.

Steg-för-steg-guide för implementering

Steg 1: konfigurera webhook-triggern

Sätt upp den inkommande endpointen som tar emot jobbdata och konversationshistorik från er applikation.

  1. Lägg till noden Incoming Webhook Trigger och ställ in HTTP MethodPOST.
  2. Ställ in Pathdf27691d-564e-4207-8d9f-26a239f7a410.
  3. Ställ in Response ModeresponseNode så att arbetsflödet svarar via Return Webhook Response.
  4. Skicka en test-POST-body med fält som jobTitle, jobDescription, resumeText och valfritt conversationHistory.

Steg 2: anslut Gemini för AI-generering

Koppla in Gemini-modellen som ska generera intervjufrågor för prompt-kedjan.

  1. Öppna noden Gemini Chat Engine.
  2. Credential Required: Anslut era googlePalmApi-inloggningsuppgifter.
  3. Bekräfta att Gemini Chat Engine är länkad som språkmodellkoppling för LLM Prompt Chain.

Säkerställ att er Google Palm API-nyckel har åtkomst till Gemini-modellen för att undvika autentiseringsfel vid generering.

Steg 3: konfigurera konversationsroutning

Avgör om en öppningsfråga eller en följdfråga ska genereras baserat på konversationshistorik.

  1. Öppna Conversation Check och verifiera att villkoret använder {{ $json.body.conversationHistory }} med operatorn empty för att identifiera nya konversationer.
  2. Bekräfta att true-grenen går till Draft Opening Prompt och att false-grenen går till Draft Followup Prompt.
  3. Säkerställ att båda prompt-noderna går in i Combine Branches så att arbetsflödet fortsätter oavsett gren.

⚠️ Vanlig fallgrop: Om conversationHistory saknas eller är null i er request kommer empty-kontrollen att routa till Draft Opening Prompt enligt design.

Steg 4: bygg promptmallar och generera frågor

Bygg de dynamiska promptarna och skicka dem in i LLM-kedjan för att generera en enda intervjufråga.

  1. I Draft Opening Prompt, ställ in prompt till den fullständiga öppningsmallsträngen som tillhandahålls, som använder {{ $json.body.jobTitle }}, {{ $json.body.jobDescription }} och {{ $json.body.resumeText }}.
  2. I Draft Followup Prompt, ställ in prompt till följdmallsträngen som använder {{ $json.body.jobTitle }}, {{ $json.body.conversationHistory }}, {{ $json.body.lastQuestion }} och {{ $json.body.answer }}.
  3. I LLM Prompt Chain, ställ in Text till {{ $json.prompt }} och behåll Prompt Type inställd på define.

Steg 5: konfigurera svarspayloaden för webhooken

Formatera den genererade frågan och den uppdaterade konversationshistoriken för API-svaret.

  1. I Assemble Response Payload, ställ in newQuestion{{ $('LLM Prompt Chain').item.json.text }}.
  2. Ställ in updatedHistory{{ $('Incoming Webhook Trigger').item.json.body.conversationHistory || '' }}AI: {{ $json.newQuestion }}\nUser: för att lägga till den nya frågan.
  3. I Return Webhook Response, ställ in Respond With till json och Response Body till {{ ({ "question": $json.newQuestion, "conversationHistory": $json.updatedHistory }) }}.

Steg 6: testa och aktivera ert arbetsflöde

Validera flödet från start till mål och slå sedan på det för produktion.

  1. Klicka på Execute Workflow och skicka en testrequest till URL:en för Incoming Webhook Trigger.
  2. Bekräfta att LLM Prompt Chain producerar text och att Return Webhook Response returnerar ett JSON-objekt med question och conversationHistory.
  3. Växla arbetsflödet till Active för att börja hantera live-intervjuförfrågningar.
🔒

Lås upp fullständig steg-för-steg-guide

Få den kompletta implementeringsguiden + nedladdningsbar mall

Vanliga fallgropar

  • Google Gemini-inloggningar kan gå ut eller sakna åtkomst till modellen du valde. Om det skapar fel, kontrollera Gemini API-nyckeln i noden ”Gemini Chat Engine” först.
  • Om du använder Wait-noder eller extern rendering varierar processtiderna. Öka väntetiden om nedströms noder fallerar på tomma svar.
  • Standardpromptar i AI-noder är generiska. Lägg in din tonalitet tidigt, annars kommer du att redigera utdata i all oändlighet.

Vanliga frågor

Hur lång tid tar det att sätta upp den här automatiseringen för Gemini-träningsintervjuer?

Cirka 30 minuter om du redan har en Gemini API-nyckel och röst-sidan redo.

Behöver jag kodningskunskaper för att automatisera Gemini-träningsintervjuer?

Ingen kodning krävs i n8n. Du kopierar en webhook-URL till HTML-röst-sidan och justerar ett par textfält.

Är n8n gratis att använda för det här arbetsflödet för Gemini-träningsintervjuer?

Ja. n8n har ett gratis self-hosted-alternativ och en gratis provperiod på n8n Cloud. Molnplaner börjar på 20 USD/månad för högre volym. Du behöver också räkna in kostnader för användning av Google Gemini API, som vanligtvis är låga för textpromptar i intervjuformat.

Var kan jag hosta n8n för att köra den här automatiseringen?

Två alternativ: n8n Cloud (hanterat, enklast att sätta upp) eller self-hosting på en VPS. För self-hosting är Hostinger VPS prisvärd och hanterar n8n bra. Self-hosting ger dig obegränsade körningar men kräver grundläggande serverhantering.

Kan jag anpassa det här arbetsflödet för Gemini-träningsintervjuer för panelintervjuer?

Ja, men du vill justera noderna ”Draft Opening Prompt” och ”Draft Followup Prompt” så att Gemini roterar mellan olika intervjuarpersonas. Vanliga anpassningar är att lägga till en ”beteendebaserad intervjuare”-röst, tvinga fram en teknisk fråga var tredje–fjärde tur och göra följdfrågorna striktare när ett svar missar viktiga krav.

Varför fallerar min Google Gemini-anslutning i det här arbetsflödet?

Oftast beror det på en ogiltig eller utgången API-nyckel i noden ”Gemini Chat Engine”. Skapa en ny nyckel i Google AI Studio, uppdatera den i n8n och bekräfta att vald modell är tillgänglig för ditt projekt. Om det bara fallerar vid tung testning kan du också slå i rate limits, så sänk takten på anropen eller lägg in korta väntetider mellan turerna.

Hur många intervjuturer klarar den här automatiseringen för Gemini-träningsintervjuer?

På n8n Cloud Starter kan du köra upp till cirka 2 500 workflow-körningar per månad, och varje intervjutur räknas vanligtvis som en körning. Om du self-hostar finns ingen fast körningsgräns, men längre intervjuer kostar mer i Gemini-tokens och beror på serverkapaciteten.

Är den här automatiseringen för Gemini-träningsintervjuer bättre än att använda Zapier eller Make?

Ofta, ja. Det här arbetsflödet bygger på grenlogik (inledande fråga vs. följdfråga) och en promptkedja, vilket n8n hanterar snyggt utan att bli en skör labyrint av zaps och filter. Du har också möjligheten att self-hosta, vilket är viktigt om du planerar att köra många intervjuturer. Zapier eller Make kan fortfarande fungera för väldigt enkla ”ställ en fråga, få ett svar”-demos, men när du bryr dig om kontext och en repeterbar struktur är n8n oftast det lugnare alternativet. Prata med en automationsexpert om du vill ha hjälp att välja.

När detta väl rullar slutar du ”öva på promptar” och börjar öva intervjuer. Sätt upp det, återanvänd det och behåll farten.

Kontakta oss

Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.

×

Använd mall

Få direkt tillgång till denna n8n-arbetsflödes JSON-fil

Launch login modal Launch register modal