Ditt team ställer samma frågor om och om igen, och du pekar hela tiden på samma dokument. Förutom att dokumentet flyttade. Eller uppdaterades förra veckan. Eller att den ”rätta” versionen ligger begravd i någons Drive.
Ops-ansvariga märker det när policys börjar glida isär. HR fastnar i att förklara förmåner och onboardingsteg på nytt. Och interna supportteam blir till slut som en mänsklig sökmotor. Den här automatiseringen för Drive Gemini-svar bryter den loopen genom att grunda svaren i det som faktiskt finns i din Drive-mapp just nu.
Du får se hur workflowet håller dokument indexerade automatiskt och låter medarbetare ställa en fråga och få ett källhänvisat svar på sekunder (utan att du behöver kurera en intern wiki för hand).
Så fungerar automatiseringen
Hela n8n-workflowet, från trigger till slutlig output:
n8n Workflow Template: Google Drive + Gemini: svar från dina senaste dokument
flowchart LR
subgraph sg0["Chat Message Flow"]
direction LR
n4@{ icon: "mdi:robot", form: "rounded", label: "AI Orchestrator", pos: "b", h: 48 }
n5@{ icon: "mdi:wrench", form: "rounded", label: "Vector Store Access Tool", pos: "b", h: 48 }
n6@{ icon: "mdi:cube-outline", form: "rounded", label: "Pinecone Retrieval Store", pos: "b", h: 48 }
n7@{ icon: "mdi:vector-polygon", form: "rounded", label: "Gemini Embedding Lookup", pos: "b", h: 48 }
n11@{ icon: "mdi:memory", form: "rounded", label: "Windowed Buffer Memory", pos: "b", h: 48 }
n12@{ icon: "mdi:play-circle", form: "rounded", label: "Chat Message Trigger", pos: "b", h: 48 }
n13@{ icon: "mdi:brain", form: "rounded", label: "Gemini Chat Engine", pos: "b", h: 48 }
n14@{ icon: "mdi:brain", form: "rounded", label: "Gemini Chat Engine Retrieval", pos: "b", h: 48 }
n5 -.-> n4
n11 -.-> n4
n13 -.-> n4
n12 --> n4
n6 -.-> n5
n7 -.-> n6
n14 -.-> n5
end
subgraph sg1["Drive File Update Flow"]
direction LR
n0@{ icon: "mdi:cube-outline", form: "rounded", label: "Pinecone Index Writer", pos: "b", h: 48 }
n1@{ icon: "mdi:vector-polygon", form: "rounded", label: "Gemini Embedding Generator", pos: "b", h: 48 }
n2@{ icon: "mdi:robot", form: "rounded", label: "Standard Data Loader", pos: "b", h: 48 }
n3@{ icon: "mdi:robot", form: "rounded", label: "Recursive Text Chunker", pos: "b", h: 48 }
n8@{ icon: "mdi:cog", form: "rounded", label: "Fetch Drive File", pos: "b", h: 48 }
n9@{ icon: "mdi:play-circle", form: "rounded", label: "Drive File Update Trigger", pos: "b", h: 48 }
n10@{ icon: "mdi:play-circle", form: "rounded", label: "Drive File Create Trigger", pos: "b", h: 48 }
n2 -.-> n0
n1 -.-> n0
n10 --> n8
n9 --> n8
n8 --> n0
n3 -.-> n2
end
%% Styling
classDef trigger fill:#e8f5e9,stroke:#388e3c,stroke-width:2px
classDef ai fill:#e3f2fd,stroke:#1976d2,stroke-width:2px
classDef aiModel fill:#e8eaf6,stroke:#3f51b5,stroke-width:2px
classDef decision fill:#fff8e1,stroke:#f9a825,stroke-width:2px
classDef database fill:#fce4ec,stroke:#c2185b,stroke-width:2px
classDef api fill:#fff3e0,stroke:#e65100,stroke-width:2px
classDef code fill:#f3e5f5,stroke:#7b1fa2,stroke-width:2px
classDef disabled stroke-dasharray: 5 5,opacity: 0.5
class n12,n9,n10 trigger
class n4,n2,n3 ai
class n13,n14 aiModel
class n5 ai
class n11 ai
class n6,n0 ai
class n7,n1 ai
Problemet: medarbetarnas frågor växer ifrån dina dokument
Google Drive är där kunskap bor, men det är också där kunskap gömmer sig. En ny policydokumentation laddas upp, någon ändrar en processchecklista, en chef släpper in ”final_v7” i en mapp, och plötsligt litar ingen på vad som är aktuellt. Så de frågar i Slack. Eller mejlar. Eller DM:ar den enda personen som ”vet”. Den personen svarar igen, ur minnet. Resultatet blir långsam onboarding, inkonsekventa beslut och ett konstant bakgrundsbrus av avbrott.
Det blir snabbt mycket. Så här fallerar det i riktiga team.
- Folk slutar söka i Drive eftersom de blivit brända av föråldrade filer för många gånger.
- Ämnesexperter dras in i samma frågor och svar flera gånger i veckan, vilket dödar fokus.
- Även när svaret finns är det utspritt över flera dokument, så medarbetare pusslar ihop en ”bästa gissning”.
- Manuella interna wikis ruttnar i tysthet om ingen passar dem, och ärligt talat har de flesta team inte tid.
Lösningen: en Drive-baserad Q&A-bot som håller sig uppdaterad
Det här workflowet gör en specifik Google Drive-mapp till en levande kunskapsbas och använder sedan Gemini för att svara på frågor enbart utifrån det som finns i filerna. När ett dokument skapas eller uppdateras laddar n8n automatiskt ner det, läser innehållet, delar upp det i mindre segment och skapar ”meningsvektorer” (embeddings) med Gemini. Segmenten indexeras i Pinecone, som är byggt för snabb semantisk sökning. När en medarbetare ställer en fråga via chattgränssnittet hämtar workflowet de mest relevanta segmenten från Pinecone och skickar dem till Gemini för att generera ett tydligt, grundat svar. En liten minnesbuffert gör att samtalet känns naturligt över några följdfrågor.
Workflowet startar med Google Drive-triggers som övervakar en mapp för nya filer och uppdateringar. Därefter skapar Gemini embeddings, Pinecone lagrar dem och chattflödet hämtar tillbaka rätt stycken när någon frågar. Till sist skriver Gemini ett svar baserat på dessa stycken, så att dina svar följer de senaste dokumentändringarna.
Vad du får: automatisering vs. resultat
| Vad detta workflow automatiserar | Resultat du får |
|---|---|
|
|
Exempel: så kan det se ut
Säg att ditt team får 10 rutinfrågor om dagen av typen ”var finns policyn / hur gör jag det här”. Om varje fråga tar cirka 10 minuter att svara på (hitta dokumentet, bekräfta att det är aktuellt, svara) blir det ungefär 100 minuter per dag, eller runt 8 timmar i veckan. Med det här workflowet ställer en medarbetare frågan en gång i chatten och får svar på under en minut. Du lägger fortfarande lite tid på att hålla Drive-mappen strukturerad, men de ständiga avbrotten minskar kraftigt.
Det här behöver du
- n8n-instans (testa n8n Cloud gratis)
- Alternativ för egen hosting om du föredrar det (Hostinger fungerar bra)
- Google Drive för att lagra källdokumenten.
- Pinecone för att lagra och söka i dokumentens embeddings.
- Google AI API-nyckel (hämta den i Google AI Studio).
Kunskapsnivå: Medel. Du kopplar konton, väljer en Drive-mapp och klistrar in API-nycklar på ett säkert sätt.
Vill du inte sätta upp detta själv? Prata med en automationsexpert (gratis 15-minuters konsultation).
Så fungerar det
En Drive-fil skapas eller uppdateras. Två Google Drive-triggers bevakar samma mapp, så både nya uppladdningar och ändringar fångas upp.
Dokumentet förbereds för sökning. n8n laddar ner filen, läser in texten och delar upp den i mindre segment så att svar kan hänvisa till exakt relevant avsnitt i stället för hela filen.
Gemini omvandlar text till embeddings och Pinecone indexerar dem. Varje segment blir en vektor med Geminis embedding-modell, och Pinecone lagrar sedan dessa vektorer i ditt valda index (till exempel company-files).
En medarbetare ställer en fråga i chatten. AI-agenten hämtar de bäst matchande segmenten från Pinecone, och därefter genererar Gemini ett slutgiltigt svar baserat på den hämtade kontexten. Ett kort minnesfönster gör att följdfrågor hänger ihop.
Du kan enkelt ändra vilken Drive-mapp som övervakas för att täcka olika avdelningar utifrån behov. Se hela implementeringsguiden nedan för anpassningsalternativ.
Steg-för-steg-guide för implementering
Steg 1: Konfigurera Google Drive-triggers
Ställ in de två Google Drive-triggers som startar ingest-pipelinen när filer skapas eller uppdateras i en specifik mapp.
- Öppna Drive File Create Trigger och ställ in Event till
fileCreated. - I Drive File Create Trigger ställer ni in Trigger On till
specificFolderoch väljer er mapp i Folder To Watch (ersätt[YOUR_ID]). - Öppna Drive File Update Trigger och ställ in Event till
fileUpdated, med Trigger On satt tillspecificFolder. - Bekräfta att båda triggers använder polling-intervallet som visas (
everyMinute). - Inloggningsuppgifter krävs: Anslut era googleDriveOAuth2Api-inloggningsuppgifter i både Drive File Create Trigger och Drive File Update Trigger.
Tips: Använd en dedikerad Drive-mapp för dokumentindexering för att undvika att ingestera irrelevanta filer.
Steg 2: Koppla hämtning av filer från Google Drive
Konfigurera filnedladdningssteget som tar emot fil-ID:n från båda triggers och hämtar dokumentets binärdata.
- Öppna Fetch Drive File och ställ in Operation till
download. - Ställ in File ID till
{{ $json.id }}. - I Options → File Name ställer ni in värdet till
{{ $json.name }}. - Inloggningsuppgifter krävs: Anslut era googleDriveOAuth2Api-inloggningsuppgifter i Fetch Drive File.
Drive File Create Trigger skickar vidare till Fetch Drive File, och Drive File Update Trigger skickar också vidare till Fetch Drive File.
Steg 3: Ställ in dokumentingest och indexering
Konfigurera dokumentladdaren, chunkern, embedding-generatorn och Pinecone-indexskrivaren för att lagra dokumentvektorer.
- Öppna Standard Data Loader och ställ in Data Type till
binaryoch Binary Mode tillspecificField. - Öppna Recursive Text Chunker och ställ in Chunk Overlap till
100. - Öppna Gemini Embedding Generator och ställ in Model Name till
models/text-embedding-004. - Öppna Pinecone Index Writer och bekräfta att Mode är
insertoch att indexet ärcompany-files. - Inloggningsuppgifter krävs: Anslut era googlePalmApi-inloggningsuppgifter i Gemini Embedding Generator.
- Inloggningsuppgifter krävs: Anslut era pineconeApi-inloggningsuppgifter i Pinecone Index Writer.
Fetch Drive File skickar vidare till Pinecone Index Writer för indexering.
⚠️ Vanlig fallgrop: Säkerställ att Pinecone-indexnamnet i Pinecone Index Writer matchar indexet för retrieval, annars kommer retrieval att returnera tomma resultat.
Steg 4: Konfigurera retrieval-verktyg och minne för RAG
Ställ in vektor-retrieval-stacken och minnet som agenten använder för att besvara chattfrågor.
- Öppna Vector Store Access Tool och bekräfta att Name är
company_documents_tooloch att Description ärRetrieve information from any company documents. - Öppna Pinecone Retrieval Store och säkerställ att indexet är
company-files. - Öppna Gemini Embedding Lookup och ställ in Model Name till
models/text-embedding-004. - Låt Windowed Buffer Memory vara ansluten till AI Orchestrator för konversationskontext.
- Inloggningsuppgifter krävs: Anslut era pineconeApi-inloggningsuppgifter i Pinecone Retrieval Store.
- Inloggningsuppgifter krävs: Anslut era googlePalmApi-inloggningsuppgifter i Gemini Embedding Lookup.
Tips: Vector Store Access Tool, Gemini Embedding Lookup och Windowed Buffer Memory är AI-undernoder. Hantera deras inloggningsuppgifter och modellinställningar via deras anslutna överordnade noder (AI Orchestrator och Pinecone Retrieval Store).
Steg 5: Ställ in chattagenten och språkmodellerna
Konfigurera chatt-triggern och agenten som orkestrerar retrieval och generering av svar.
- Säkerställ att Chat Message Trigger är ansluten till AI Orchestrator för att ta emot chattinmatningar.
- Öppna AI Orchestrator och bekräfta att System Message matchar de angivna instruktionerna för HR-assistenten.
- Öppna Gemini Chat Engine och ställ in Model Name till
models/gemini-2.0-flash-exp. - Öppna Gemini Chat Engine Retrieval och ställ in Model Name till
models/gemini-2.0-flash-exp. - Inloggningsuppgifter krävs: Anslut era googlePalmApi-inloggningsuppgifter i Gemini Chat Engine och Gemini Chat Engine Retrieval.
Chat Message Trigger skickar vidare till AI Orchestrator, som använder Gemini Chat Engine, Vector Store Access Tool och Windowed Buffer Memory för svar.
Steg 6: Testa och aktivera ert arbetsflöde
Kör ett manuellt test för att validera indexering och RAG-svar innan ni aktiverar.
- Använd Drive File Create Trigger eller Drive File Update Trigger genom att ladda upp en fil till den övervakade mappen.
- Verifiera att Fetch Drive File laddar ner filen och att Pinecone Index Writer infogar vektorer utan problem.
- Skicka ett testmeddelande till Chat Message Trigger och bekräfta att AI Orchestrator svarar med hjälp av dokumentinnehållet.
- När testet är lyckat, växla arbetsflödet till Active för att aktivera polling i produktion.
⚠️ Vanlig fallgrop: Om svaren säger ”I cannot find the answer in the available resources.” efter indexering, kontrollera att båda Pinecone-noderna använder samma index och att embeddings skapades med models/text-embedding-004.
Vanliga fallgropar
- Google Drive OAuth-inloggningar kan gå ut eller kräva specifika behörigheter. Om något slutar fungera, kontrollera först skärmen Credentials i n8n samt Google Cloud OAuth consent / scopes.
- Om du använder Wait-noder eller extern rendering varierar processtiderna. Öka väntetiden om efterföljande noder fallerar på tomma svar.
- Standardprompter i AI-noder är generiska. Lägg in er tonalitet tidigt, annars kommer du redigera output för alltid.
Vanliga frågor
Cirka en timme om du redan har Drive och Pinecone redo.
Nej. Du kommer mestadels att koppla konton och klistra in API-nycklar. Den enda ”tekniska” delen är att välja rätt Drive-mapp och bekräfta Pinecone-indexnamnet.
Ja. n8n har ett gratis alternativ för egen hosting och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna med användningskostnader för Gemini och Pinecone, som oftast är måttliga för intern Q&A.
Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller egen hosting på en VPS. För egen hosting är Hostinger VPS prisvärt och klarar n8n bra. Egen hosting ger dig obegränsat antal körningar men kräver grundläggande serverhantering.
Ja, men gör det med avsikt. Den enklaste lösningen är att duplicera workflowet och peka varje kopia mot en annan Drive-mapp (HR, Ops, Sales enablement). Du kan också skriva till separata Pinecone-index (till exempel ”hr-files” vs ”ops-files”) genom att ändra Pinecone Vector Store-noderna som används för indexering och retrieval. Många team justerar även AI-agentens instruktioner så att svaren följer avdelningsspecifik tonalitet och regler.
Oftast beror det på att OAuth-behörigheter i dina Google Drive-credentials har gått ut eller saknas. Återanslut kontot i n8n och bekräfta att workflowet kan komma åt den specifika mapp du valde. Om det bara fallerar för vissa filer kan dokumenttypen vara boven (skannade PDF:er och udda exporter laddas ibland dåligt). Kontrollera också Google API-kvoter om du indexerar många stora filer samtidigt.
Många. I praktiken är begränsningarna din n8n-kapacitet för körningar, storleken på Pinecone-indexet och hur aggressivt du segmenterar och skapar embeddings för dokument.
För Q&A i RAG-stil, oftast ja. n8n hanterar förgreningar, loopar och mönster som ”hämta kontext och generera” på ett rent sätt, och du kan köra egen hosting för högre volym utan att betala per ministeg. Zapier och Make är bra för enkel routing, men de blir klumpiga (och dyra) när du lägger till vektordatabaser, segmentering och en agent med minne. Om du vill ha hjälp att välja, prata med en automationsexpert så kvalitetssäkrar vi ditt use case.
När detta väl är igång blir Drive er källa till sanning och Gemini blir gränssnittet. Färre avbrott. Bättre svar. Mycket mindre jagande efter ”det senaste dokumentet”.
Kontakta oss
Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.