Behöver ert företag hjälp med att implementera AI? Kontakta oss och få prisoffert här →
AI Skolan
januari 22, 2026

Google Drive + Gemini: svar från dina senaste dokument

Rickard Andersson Partner, Nodenordic.se

Ditt team ställer samma frågor om och om igen, och du pekar hela tiden på samma dokument. Förutom att dokumentet flyttade. Eller uppdaterades förra veckan. Eller att den ”rätta” versionen ligger begravd i någons Drive.

Ops-ansvariga märker det när policys börjar glida isär. HR fastnar i att förklara förmåner och onboardingsteg på nytt. Och interna supportteam blir till slut som en mänsklig sökmotor. Den här automatiseringen för Drive Gemini-svar bryter den loopen genom att grunda svaren i det som faktiskt finns i din Drive-mapp just nu.

Du får se hur workflowet håller dokument indexerade automatiskt och låter medarbetare ställa en fråga och få ett källhänvisat svar på sekunder (utan att du behöver kurera en intern wiki för hand).

Så fungerar automatiseringen

Hela n8n-workflowet, från trigger till slutlig output:

n8n Workflow Template: Google Drive + Gemini: svar från dina senaste dokument

Problemet: medarbetarnas frågor växer ifrån dina dokument

Google Drive är där kunskap bor, men det är också där kunskap gömmer sig. En ny policydokumentation laddas upp, någon ändrar en processchecklista, en chef släpper in ”final_v7” i en mapp, och plötsligt litar ingen på vad som är aktuellt. Så de frågar i Slack. Eller mejlar. Eller DM:ar den enda personen som ”vet”. Den personen svarar igen, ur minnet. Resultatet blir långsam onboarding, inkonsekventa beslut och ett konstant bakgrundsbrus av avbrott.

Det blir snabbt mycket. Så här fallerar det i riktiga team.

  • Folk slutar söka i Drive eftersom de blivit brända av föråldrade filer för många gånger.
  • Ämnesexperter dras in i samma frågor och svar flera gånger i veckan, vilket dödar fokus.
  • Även när svaret finns är det utspritt över flera dokument, så medarbetare pusslar ihop en ”bästa gissning”.
  • Manuella interna wikis ruttnar i tysthet om ingen passar dem, och ärligt talat har de flesta team inte tid.

Lösningen: en Drive-baserad Q&A-bot som håller sig uppdaterad

Det här workflowet gör en specifik Google Drive-mapp till en levande kunskapsbas och använder sedan Gemini för att svara på frågor enbart utifrån det som finns i filerna. När ett dokument skapas eller uppdateras laddar n8n automatiskt ner det, läser innehållet, delar upp det i mindre segment och skapar ”meningsvektorer” (embeddings) med Gemini. Segmenten indexeras i Pinecone, som är byggt för snabb semantisk sökning. När en medarbetare ställer en fråga via chattgränssnittet hämtar workflowet de mest relevanta segmenten från Pinecone och skickar dem till Gemini för att generera ett tydligt, grundat svar. En liten minnesbuffert gör att samtalet känns naturligt över några följdfrågor.

Workflowet startar med Google Drive-triggers som övervakar en mapp för nya filer och uppdateringar. Därefter skapar Gemini embeddings, Pinecone lagrar dem och chattflödet hämtar tillbaka rätt stycken när någon frågar. Till sist skriver Gemini ett svar baserat på dessa stycken, så att dina svar följer de senaste dokumentändringarna.

Vad du får: automatisering vs. resultat

Exempel: så kan det se ut

Säg att ditt team får 10 rutinfrågor om dagen av typen ”var finns policyn / hur gör jag det här”. Om varje fråga tar cirka 10 minuter att svara på (hitta dokumentet, bekräfta att det är aktuellt, svara) blir det ungefär 100 minuter per dag, eller runt 8 timmar i veckan. Med det här workflowet ställer en medarbetare frågan en gång i chatten och får svar på under en minut. Du lägger fortfarande lite tid på att hålla Drive-mappen strukturerad, men de ständiga avbrotten minskar kraftigt.

Det här behöver du

  • n8n-instans (testa n8n Cloud gratis)
  • Alternativ för egen hosting om du föredrar det (Hostinger fungerar bra)
  • Google Drive för att lagra källdokumenten.
  • Pinecone för att lagra och söka i dokumentens embeddings.
  • Google AI API-nyckel (hämta den i Google AI Studio).

Kunskapsnivå: Medel. Du kopplar konton, väljer en Drive-mapp och klistrar in API-nycklar på ett säkert sätt.

Vill du inte sätta upp detta själv? Prata med en automationsexpert (gratis 15-minuters konsultation).

Så fungerar det

En Drive-fil skapas eller uppdateras. Två Google Drive-triggers bevakar samma mapp, så både nya uppladdningar och ändringar fångas upp.

Dokumentet förbereds för sökning. n8n laddar ner filen, läser in texten och delar upp den i mindre segment så att svar kan hänvisa till exakt relevant avsnitt i stället för hela filen.

Gemini omvandlar text till embeddings och Pinecone indexerar dem. Varje segment blir en vektor med Geminis embedding-modell, och Pinecone lagrar sedan dessa vektorer i ditt valda index (till exempel company-files).

En medarbetare ställer en fråga i chatten. AI-agenten hämtar de bäst matchande segmenten från Pinecone, och därefter genererar Gemini ett slutgiltigt svar baserat på den hämtade kontexten. Ett kort minnesfönster gör att följdfrågor hänger ihop.

Du kan enkelt ändra vilken Drive-mapp som övervakas för att täcka olika avdelningar utifrån behov. Se hela implementeringsguiden nedan för anpassningsalternativ.

Steg-för-steg-guide för implementering

Steg 1: Konfigurera Google Drive-triggers

Ställ in de två Google Drive-triggers som startar ingest-pipelinen när filer skapas eller uppdateras i en specifik mapp.

  1. Öppna Drive File Create Trigger och ställ in Event till fileCreated.
  2. I Drive File Create Trigger ställer ni in Trigger On till specificFolder och väljer er mapp i Folder To Watch (ersätt [YOUR_ID]).
  3. Öppna Drive File Update Trigger och ställ in Event till fileUpdated, med Trigger On satt till specificFolder.
  4. Bekräfta att båda triggers använder polling-intervallet som visas (everyMinute).
  5. Inloggningsuppgifter krävs: Anslut era googleDriveOAuth2Api-inloggningsuppgifter i både Drive File Create Trigger och Drive File Update Trigger.

Tips: Använd en dedikerad Drive-mapp för dokumentindexering för att undvika att ingestera irrelevanta filer.

Steg 2: Koppla hämtning av filer från Google Drive

Konfigurera filnedladdningssteget som tar emot fil-ID:n från båda triggers och hämtar dokumentets binärdata.

  1. Öppna Fetch Drive File och ställ in Operation till download.
  2. Ställ in File ID till {{ $json.id }}.
  3. I Options → File Name ställer ni in värdet till {{ $json.name }}.
  4. Inloggningsuppgifter krävs: Anslut era googleDriveOAuth2Api-inloggningsuppgifter i Fetch Drive File.

Drive File Create Trigger skickar vidare till Fetch Drive File, och Drive File Update Trigger skickar också vidare till Fetch Drive File.

Steg 3: Ställ in dokumentingest och indexering

Konfigurera dokumentladdaren, chunkern, embedding-generatorn och Pinecone-indexskrivaren för att lagra dokumentvektorer.

  1. Öppna Standard Data Loader och ställ in Data Type till binary och Binary Mode till specificField.
  2. Öppna Recursive Text Chunker och ställ in Chunk Overlap till 100.
  3. Öppna Gemini Embedding Generator och ställ in Model Name till models/text-embedding-004.
  4. Öppna Pinecone Index Writer och bekräfta att Mode är insert och att indexet är company-files.
  5. Inloggningsuppgifter krävs: Anslut era googlePalmApi-inloggningsuppgifter i Gemini Embedding Generator.
  6. Inloggningsuppgifter krävs: Anslut era pineconeApi-inloggningsuppgifter i Pinecone Index Writer.

Fetch Drive File skickar vidare till Pinecone Index Writer för indexering.

⚠️ Vanlig fallgrop: Säkerställ att Pinecone-indexnamnet i Pinecone Index Writer matchar indexet för retrieval, annars kommer retrieval att returnera tomma resultat.

Steg 4: Konfigurera retrieval-verktyg och minne för RAG

Ställ in vektor-retrieval-stacken och minnet som agenten använder för att besvara chattfrågor.

  1. Öppna Vector Store Access Tool och bekräfta att Name är company_documents_tool och att Description är Retrieve information from any company documents.
  2. Öppna Pinecone Retrieval Store och säkerställ att indexet är company-files.
  3. Öppna Gemini Embedding Lookup och ställ in Model Name till models/text-embedding-004.
  4. Låt Windowed Buffer Memory vara ansluten till AI Orchestrator för konversationskontext.
  5. Inloggningsuppgifter krävs: Anslut era pineconeApi-inloggningsuppgifter i Pinecone Retrieval Store.
  6. Inloggningsuppgifter krävs: Anslut era googlePalmApi-inloggningsuppgifter i Gemini Embedding Lookup.

Tips: Vector Store Access Tool, Gemini Embedding Lookup och Windowed Buffer Memory är AI-undernoder. Hantera deras inloggningsuppgifter och modellinställningar via deras anslutna överordnade noder (AI Orchestrator och Pinecone Retrieval Store).

Steg 5: Ställ in chattagenten och språkmodellerna

Konfigurera chatt-triggern och agenten som orkestrerar retrieval och generering av svar.

  1. Säkerställ att Chat Message Trigger är ansluten till AI Orchestrator för att ta emot chattinmatningar.
  2. Öppna AI Orchestrator och bekräfta att System Message matchar de angivna instruktionerna för HR-assistenten.
  3. Öppna Gemini Chat Engine och ställ in Model Name till models/gemini-2.0-flash-exp.
  4. Öppna Gemini Chat Engine Retrieval och ställ in Model Name till models/gemini-2.0-flash-exp.
  5. Inloggningsuppgifter krävs: Anslut era googlePalmApi-inloggningsuppgifter i Gemini Chat Engine och Gemini Chat Engine Retrieval.

Chat Message Trigger skickar vidare till AI Orchestrator, som använder Gemini Chat Engine, Vector Store Access Tool och Windowed Buffer Memory för svar.

Steg 6: Testa och aktivera ert arbetsflöde

Kör ett manuellt test för att validera indexering och RAG-svar innan ni aktiverar.

  1. Använd Drive File Create Trigger eller Drive File Update Trigger genom att ladda upp en fil till den övervakade mappen.
  2. Verifiera att Fetch Drive File laddar ner filen och att Pinecone Index Writer infogar vektorer utan problem.
  3. Skicka ett testmeddelande till Chat Message Trigger och bekräfta att AI Orchestrator svarar med hjälp av dokumentinnehållet.
  4. När testet är lyckat, växla arbetsflödet till Active för att aktivera polling i produktion.

⚠️ Vanlig fallgrop: Om svaren säger ”I cannot find the answer in the available resources.” efter indexering, kontrollera att båda Pinecone-noderna använder samma index och att embeddings skapades med models/text-embedding-004.

🔒

Lås upp fullständig steg-för-steg-guide

Få den kompletta implementeringsguiden + nedladdningsbar mall

Vanliga fallgropar

  • Google Drive OAuth-inloggningar kan gå ut eller kräva specifika behörigheter. Om något slutar fungera, kontrollera först skärmen Credentials i n8n samt Google Cloud OAuth consent / scopes.
  • Om du använder Wait-noder eller extern rendering varierar processtiderna. Öka väntetiden om efterföljande noder fallerar på tomma svar.
  • Standardprompter i AI-noder är generiska. Lägg in er tonalitet tidigt, annars kommer du redigera output för alltid.

Vanliga frågor

Hur lång tid tar det att sätta upp den här automatiseringen för Drive Gemini-svar?

Cirka en timme om du redan har Drive och Pinecone redo.

Behöver jag kunna koda för att automatisera Drive Gemini-svar?

Nej. Du kommer mestadels att koppla konton och klistra in API-nycklar. Den enda ”tekniska” delen är att välja rätt Drive-mapp och bekräfta Pinecone-indexnamnet.

Är n8n gratis att använda för det här workflowet för Drive Gemini-svar?

Ja. n8n har ett gratis alternativ för egen hosting och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna med användningskostnader för Gemini och Pinecone, som oftast är måttliga för intern Q&A.

Var kan jag hosta n8n för att köra den här automatiseringen?

Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller egen hosting på en VPS. För egen hosting är Hostinger VPS prisvärt och klarar n8n bra. Egen hosting ger dig obegränsat antal körningar men kräver grundläggande serverhantering.

Kan jag anpassa det här workflowet för Drive Gemini-svar för separata avdelningar?

Ja, men gör det med avsikt. Den enklaste lösningen är att duplicera workflowet och peka varje kopia mot en annan Drive-mapp (HR, Ops, Sales enablement). Du kan också skriva till separata Pinecone-index (till exempel ”hr-files” vs ”ops-files”) genom att ändra Pinecone Vector Store-noderna som används för indexering och retrieval. Många team justerar även AI-agentens instruktioner så att svaren följer avdelningsspecifik tonalitet och regler.

Varför misslyckas min Google Drive-anslutning i det här workflowet?

Oftast beror det på att OAuth-behörigheter i dina Google Drive-credentials har gått ut eller saknas. Återanslut kontot i n8n och bekräfta att workflowet kan komma åt den specifika mapp du valde. Om det bara fallerar för vissa filer kan dokumenttypen vara boven (skannade PDF:er och udda exporter laddas ibland dåligt). Kontrollera också Google API-kvoter om du indexerar många stora filer samtidigt.

Hur många dokument kan den här automatiseringen för Drive Gemini-svar hantera?

Många. I praktiken är begränsningarna din n8n-kapacitet för körningar, storleken på Pinecone-indexet och hur aggressivt du segmenterar och skapar embeddings för dokument.

Är den här automatiseringen för Drive Gemini-svar bättre än att använda Zapier eller Make?

För Q&A i RAG-stil, oftast ja. n8n hanterar förgreningar, loopar och mönster som ”hämta kontext och generera” på ett rent sätt, och du kan köra egen hosting för högre volym utan att betala per ministeg. Zapier och Make är bra för enkel routing, men de blir klumpiga (och dyra) när du lägger till vektordatabaser, segmentering och en agent med minne. Om du vill ha hjälp att välja, prata med en automationsexpert så kvalitetssäkrar vi ditt use case.

När detta väl är igång blir Drive er källa till sanning och Gemini blir gränssnittet. Färre avbrott. Bättre svar. Mycket mindre jagande efter ”det senaste dokumentet”.

Kontakta oss

Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.

×

Använd mall

Få direkt tillgång till denna n8n-arbetsflödes JSON-fil

Få prisoffert redan idag!
Få prisoffert redan idag!

Berätta vad ni behöver hjälp med så hör vi av oss inom en arbetsdag!

Få prisoffert redan idag!
Få prisoffert redan idag!

Berätta vad ni behöver hjälp med så hör vi av oss inom en arbetsdag!

Launch login modal Launch register modal