Behöver ert företag hjälp med att implementera AI? Kontakta oss och få prisoffert här →
AI Skolan
januari 22, 2026

Gmail + Google Gemini: dokumentsammanfattningar via mejl

Rickard Andersson Partner, Nodenordic.se

Någon släpper en 30-sidig PDF i din inkorg och ber om ”viktigaste punkterna innan dagens slut”. Du skummar, missar detaljer, och sedan börjar följdfrågorna.

Den här typen av workflow för Gemini e-postsammanfattningar träffar marknadschefer och byråledare hela tiden, och även grundare känner av det när de är standardpersonen för ”kan du granska det här?”. Du gör uppladdade PDF:er och briefs till en felfri, lättläst sammanfattning som landar tillbaka i Gmail, plus en länk där folk kan ställa frågor senare.

Nedan ser du exakt vad automatiseringen gör, vad du behöver för att köra den och hur delarna hänger ihop så att du kan lita på resultatet.

Så här fungerar automatiseringen

Här är hela workflowet du kommer att sätta upp:

n8n Workflow Template: Gmail + Google Gemini: dokumentsammanfattningar via mejl

Varför det här spelar roll: flaskhalsar i dokumentgranskning

Manuell dokumentgranskning är lömsk. Det handlar inte bara om lästiden, utan om kontextbytena, omformateringen och ”vänta, var var det där citatet?”-jakten när någon svarar två dagar senare. En enda kundbrief kan leda till tre olika sammanfattningar i Slack, mejl och ett dokument, alla lite inkonsekventa. Och om filen inte är på engelska så bromsar folk antingen, eller klistrar in bitar i slumpmässiga verktyg, vilket är riskfyllt och rörigt. Det är helt ärligt så bra team tappar momentum.

Friktionen byggs på. Här brukar det oftast fallera.

  • Du lägger ungefär en timme per lång PDF bara på att få ut en sammanhängande berättelse åt någon annan.
  • Folk ställer följdfrågor, men originalanteckningarna är utspridda, så du läser om avsnitt du redan ”gjort klart”.
  • Icke-engelska dokument saktar ner allt eftersom översättning blir ett separat miniprojekt.
  • Sammanfattningar går inte att återanvända senare, vilket gör att varje ny kollega ställer samma frågor igen.

Vad du bygger: uppladdning-till-sammanfattning via e-post + sökbar Q&A

Det här workflowet börjar med ett enkelt n8n-formulär där någon laddar upp ett dokument och anger sin e-postadress. Automatiseringen delar upp och bearbetar filen, skickar den till en parsingtjänst (Llama Cloud API) för att extrahera korrekt formaterad text och kontrollerar sedan status tills det parsade resultatet är klart. Därefter kliver Google Gemini-agenter in: en kan översätta innehållet när det inte är på engelska, och en annan analyserar det för att plocka ut innebörd, inte bara textstycken. Resultatet formateras till läsbar HTML, görs om till en fil för referens och mejlas via Gmail. Samtidigt lagrar workflowet det parsade och analyserade innehållet i Pinecone som embeddings, vilket är det som gör den bifogade chatbotlänken användbar senare.

Flödet startar när formuläret skickas in. Det går igenom extrahering och batchning, sedan översättning och analys, och avslutas med två leveranser: en Gmail-sammanfattning plus en Q&A-upplevelse som bygger på samma källdokument.

Det här bygger du

Förväntade resultat

Säg att ditt team granskar 10 PDF:er i veckan (briefs, offerter, research). Manuellt tar till och med en ”snabb genomläsning + sammanställning” ofta runt 45 minuter per styck, så du landar på ungefär 7 timmar per vecka, och då är följdfrågorna inte ens med. Med det här workflowet är den mänskliga tiden främst uppladdningen: cirka 2 minuter per dokument, sedan väntar du på att parsing och Gemini-analys blir klara. Du får fortfarande en stabil Gmail-sammanfattning, men du slutar också att svara på samma frågor om och om igen eftersom folk kan använda chatbotlänken.

Innan du börjar

  • n8n-instans (prova n8n Cloud gratis)
  • Alternativ för egen hosting om du föredrar det (Hostinger fungerar bra)
  • Åtkomst till Google Gemini API för översättnings- och analysagenter.
  • Llama Cloud API för att extrahera text från uppladdade filer.
  • Pinecone-konto för att lagra embeddings för chatbotsök.
  • Gmail-konto för att skicka sammanfattningar via Gmail-noden.

Kunskapsnivå: Mellan. Du kopplar några API:er, konfigurerar inloggningsuppgifter och gör mindre ändringar i prompts och e-postformatering.

Vill du att någon bygger detta åt dig? Prata med en automationsexpert (gratis 15-minuters konsultation).

Steg för steg

En formulärinskickning startar allt. ”Form Intake Trigger” samlar in uppladdade fil(er) och mottagarens e-postadress så att resten kan köras utan handpåläggning.

Dokumentet extraheras i batcher. Workflowet delar upp binärfiler, loopar över items och skickar varje dokument till Llama Cloud via HTTP Request-noder, och kontrollerar sedan parsingstatus tills Markdown-resultatet är tillgängligt.

Gemini gör råtexten användbar. En översättningsagent kontrollerar språk och översätter vid behov, och därefter tar innehållsanalysagenten fram en läsbar sammanfattning och strukturerad nyckelinformation (sånt du kan skanna snabbt och sedan dela).

Två utdata skapas: e-post + återhämtning. Markdown konverteras till HTML, formateras och skickas via Gmail, medan Pinecone lagrar parsat och analyserat innehåll med embeddings så att chatboten kan svara på följdfrågor senare.

Du kan enkelt modifiera analys-prompten för att matcha din tonalitet eller rapportstil utifrån dina behov. Se hela implementationsguiden nedan för alternativ för anpassning.

Steg-för-steg-guide för implementering

Steg 1: konfigurera formulärtriggern

Konfigurera intagsformuläret som tar emot flera filer och mottagarens e-postadress.

  1. Lägg till noden Form Intake Trigger och ställ in Form Title till form which gets multiple files.
  2. Under Form Fields säkerställer ni att filfälten inkluderar file1 och file2, och lägger till ett obligatoriskt textfält med etiketten provide your mail Id.
  3. Verifiera att arbetsflödet startar med Form Intake TriggerSplit Binary Files.

Tips: Se till att e-postfältets etikett är exakt provide your mail Id, eftersom den refereras senare i Dispatch Gmail Email.

Steg 2: dela upp och parsa uppladdade dokument

Dela upp flera uppladdade binärer och skicka varje fil till parsnings-API:et.

  1. I Split Binary Files behåller ni den förifyllda JavaScript Code som den är för att dela upp varje binär till ett eget item.
  2. Konfigurera Document Parsing Request med URL https://api.cloud.llamaindex.ai/api/parsing/upload, Method POST och Content Type multipart-form-data.
  3. I Document Parsing Request lägger ni till headern Authorization med värdet Bearer [CONFIGURE_YOUR_TOKEN] och behåller accept inställt på application/json.
  4. Ställ in body-parametern så att den använder formBinaryData med Input Data Field Name data.
  5. Koppla Document Parsing RequestVerify Parsing StatusStatus Condition Check.
  6. I Status Condition Check säkerställer ni att villkoret använder {{ $json.status }} är lika med SUCCESS.
  7. Koppla “true”-utgången från Status Condition Check till Fetch Markdown Result med URL https://api.cloud.llamaindex.ai/api/parsing/job/{{ $json.id }}/result/markdown.

⚠️ Vanlig fallgrop: Om parsningstoken för API:et saknas eller är ogiltig kommer Verify Parsing Status att loopa utan att nå Fetch Markdown Result.

Steg 3: batcha och aggregera markdown-utdata

Samla alla markdown-utdata i en enda aggregerad datamängd för AI-bearbetning.

  1. Säkerställ att Fetch Markdown Result är kopplad till Iterate Batches.
  2. Från Iterate Batches bekräftar ni att utgång 1 är kopplad till Collect Markdown och att utgång 2 loopar tillbaka till Document Parsing Request.
  3. I Collect Markdown ställer ni in Fields to Aggregate så att markdown ingår.

Tips: Iterate Batches är avgörande för att bearbeta flera uppladdade filer sekventiellt innan aggregering.

Steg 4: konfigurera AI-översättning och innehållsanalys

Översätt eventuell icke-engelsk indata och kör flera analysgrenar parallellt.

  1. Koppla Collect Markdown till Language Translation Agent och ställ in Text till {{ $('Collect Markdown').item.json.markdown }}.
  2. Koppla Gemini Chat Model A som språkmodell för Language Translation Agent och ställ in Model Name till models/gemini-1.5-flash.
  3. Konfigurera Content Analysis Agent med Text inställt på {{ $json.output }} och koppla Gemini Chat Model B som språkmodell med models/gemini-1.5-flash.
  4. Konfigurera Readability Agent med Text {{ $json.output }} och koppla Gemini Chat Model Core som språkmodell.
  5. Konfigurera Extract Key Information med Text {{ $json.output }} och koppla Gemini Chat Model Extract som språkmodell.
  6. Notera den parallella exekveringen: Language Translation Agent skickar utdata både till Content Analysis Agent och Prepare Output File parallellt, och Content Analysis Agent skickar utdata till Convert Markdown to HTML, Readability Agent, Extract Key Information och Prepare Output File parallellt.

Inloggningsuppgifter krävs: Anslut era Google Gemini-inloggningsuppgifter. Lägg till dem i varje Gemini-modellnod (Gemini Chat Model A, Gemini Chat Model B, Gemini Chat Model Core, Gemini Chat Model Extract, Gemini Chat Model QA, Gemini Chat Model Reply).

Steg 5: generera HTML och e-postutskick

Konvertera markdown till HTML, formatera det som text och skicka analysen via e-post.

  1. I Convert Markdown to HTML ställer ni in Mode till markdownToHtml, Markdown till {{ $json.output }} och Destination Key till html.
  2. Behåll den förifyllda JavaScript-koden i Format HTML Text för att konvertera HTML till formaterad oformaterad text.
  3. I Generate Text File ställer ni in Operation till toText och Source Property till textContent.
  4. I Dispatch Gmail Email ställer ni in Send To till {{ $('Form Intake Trigger').item.json['provide your mail Id'] }}, Subject till Analysis of the documents provided och behåller meddelandetexten som konfigurerad.

Inloggningsuppgifter krävs: Anslut era Gmail-inloggningsuppgifter i Dispatch Gmail Email.

Steg 6: indexera dokument i Pinecone Vector Store

Förbered utdata för indexering och skicka dem till Pinecone med embeddings.

  1. I Prepare Output File ställer ni in Operation till toText och Source Property till output.
  2. Konfigurera Pinecone Vector Index med Mode insert och välj ert [YOUR_ID]-index.
  3. Säkerställ att Mistral Embeddings är ansluten till Pinecone Vector Index som embeddings-leverantör.
  4. Bekräfta att Default Document Loader använder Data Type binary och är ansluten via Recursive Text Splitter till Pinecone Vector Index.

Inloggningsuppgifter krävs: Anslut era Pinecone-inloggningsuppgifter i Pinecone Vector Index och era Mistral-inloggningsuppgifter i Mistral Embeddings. För AI-undernoder som Mistral Embeddings lägger ni till inloggningsuppgifter i de överordnade noderna som anropar dem.

Steg 7: konfigurera retrieval QA-chattupplevelsen

Aktivera chattbaserad frågor och svar med de indexerade dokumenten.

  1. Ställ in Chat Message Trigger till Public true för att tillåta externa frågor.
  2. Koppla Chat Message TriggerRetrieval QA ChainResponse Rephrase Agent.
  3. Koppla Gemini Chat Model QA som språkmodell för Retrieval QA Chain.
  4. Koppla Pinecone Vector Index Q till Vector Store Fetcher, och sedan till Retrieval QA Chain som retriever.
  5. Koppla Mistral Embeddings Q till Pinecone Vector Index Q för stöd för embeddings.
  6. Koppla Gemini Chat Model Reply som språkmodell för Response Rephrase Agent med Text inställt på {{ $json.response }}.

Inloggningsuppgifter krävs: Anslut era Pinecone- och Mistral-inloggningsuppgifter för Pinecone Vector Index Q och Mistral Embeddings Q. Lägg till Gemini-inloggningsuppgifter i Gemini Chat Model QA och Gemini Chat Model Reply.

Steg 8: testa och aktivera ert arbetsflöde

Validera dokumentintaget, analyspipelinen och chattens frågor och svar end-to-end innan ni slår på det.

  1. Klicka på Execute Workflow och skicka in Form Intake Trigger med två filer och en giltig e-postadress.
  2. Bekräfta att Status Condition Check når successpåret och att Fetch Markdown Result returnerar markdown-innehåll.
  3. Verifiera att Convert Markdown to HTML skapar ett html-fält och att Dispatch Gmail Email skickar den formaterade analysen.
  4. Öppna chatt-URL:en från Chat Message Trigger och skicka en fråga; bekräfta att Response Rephrase Agent returnerar ett tydligt svar.
  5. När ni är nöjda, växla arbetsflödet till Active för användning i produktion.
🔒

Lås upp fullständig steg-för-steg-guide

Få den kompletta implementeringsguiden + nedladdningsbar mall

Felsökningstips

  • Gmail-inloggningsuppgifter kan gå ut eller kräva specifika behörigheter. Om det skapar fel, kontrollera först n8n Credentials-posten för Gmail och din Google Cloud OAuth consent/scope-konfiguration.
  • Om du använder Wait-liknande polling (statuskontroller) eller extern parsing varierar bearbetningstider. Öka väntetid/poll-intervall om efterföljande noder misslyckas eftersom Markdown-resultatet inte är klart ännu.
  • Standardinstruktionerna i Google Gemini-agentnoderna är generiska. Lägg till din föredragna struktur (punkter, sektioner, ton) tidigt, annars kommer du att skriva om varje sammanfattning.

Snabba svar

Hur lång tid tar det att sätta upp den här automatiseringen för Gemini e-postsammanfattningar?

Cirka en timme om du redan har API-nycklarna.

Krävs kodning för den här automatiseringen för dokumentsammanfattningar?

Nej. Du kopplar konton, klistrar in API-nycklar och justerar ett par prompts och e-postfält.

Är n8n gratis att använda för det här workflowet för Gemini e-postsammanfattningar?

Ja. n8n har ett gratis alternativ för egen hosting och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna in Gemini-användning samt kostnader för Llama Cloud och Pinecone, som beror på hur många sidor du bearbetar.

Var kan jag hosta n8n för att köra den här automatiseringen?

Två alternativ: n8n Cloud (hanterad, enklast att komma igång) eller egen hosting på en VPS. För egen hosting är Hostinger VPS prisvärd och hanterar n8n bra. Egen hosting ger dig obegränsade körningar men kräver grundläggande serveradministration.

Kan jag anpassa det här workflowet för Gemini e-postsammanfattningar för andra användningsfall?

Ja, och det bör du troligen. De flesta team anpassar prompten för Content Analysis Agent (hur ”bra” ser ut), noden Extract Key Information (vilka fält du vill plocka ut) och formateringen i Dispatch Gmail Email (vilka sektioner som visas först). Du kan också byta hur uppladdningen sker: behåll formuläret eller trigga från Google Drive istället med ett Drive-triggerupplägg. Om du vill ha djupare Q&A kan du trimma Retrieval QA Chain och agenten för omformulering av svar så att svaren blir kortare, mer försiktiga eller mer ”säljorienterade”, beroende på var de ska användas.

Varför misslyckas min Gmail-anslutning i det här workflowet?

Oftast handlar det om OAuth-scopes eller en utgången token. Anslut Gmail på nytt i n8n Credentials, bekräfta att Gmail API är aktiverat i Google Cloud och säkerställ att kontot har behörighet att skicka som den Från-adress du valt. Om det bara misslyckas ibland kan även rate limits eller stora bilagor vara orsaken.

Vilken volym kan det här workflowet för Gemini e-postsammanfattningar hantera?

Det skalar till många dokument, men genomströmningen beror mer på extern parsing och modellens latens än på n8n i sig. På n8n Cloud begränsas du främst av planens månatliga körningar, medan egen hosting tar bort körningstak och flyttar begränsningen till din serverstorlek. I praktiken börjar de flesta team med ”några dussin PDF:er per dag” och ökar när de är nöjda med parsingtillförlitlighet och Pinecone-kostnader.

Är den här automatiseringen för Gemini e-postsammanfattningar bättre än att använda Zapier eller Make?

Ofta, ja. Det här workflowet blandar långkörande parsing, polling för status, batchning av filer och AI-bearbetning i flera steg, vilket är där Zapier och Make kan bli klumpiga eller dyra. n8n är också enklare att bygga ut till RAG (Pinecone + retrieval chains) eftersom du kan hålla hela systemet ”sammanfattning + chatbot” på ett ställe. Om du bara behöver ”ladda upp PDF → få en kort sammanfattning via mejl” kan enklare verktyg räcka. När du bryr dig om flerspråkshantering, återanvändbara embeddings och en chattupplevelse för uppföljning passar n8n oftast bättre. Prata med en automationsexpert om du vill ha hjälp att välja.

När detta väl är igång slutar ”kan du sammanfatta det här?” att vara en tidsbomb i din inkorg. Du får tydligare slutsatser, snabbare svar och ett enda ställe att hantera följdfrågor.

Kontakta oss

Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.

×

Använd mall

Få direkt tillgång till denna n8n-arbetsflödes JSON-fil

Launch login modal Launch register modal