Du känner igen känslan: svaret finns någonstans i din Google Drive, men för att hitta det måste du skumma fem PDF:er, två Docs och den där presentationen du glömde att du hade. Det är inte svårt. Det tar bara aldrig slut.
Den här konfigurationen för Drive Gemini Q&A slår hårdast mot studenter under tentaveckor. Men det är också en tyst skatt på marknadsförare som plockar budskap från tidigare kampanjer, och på konsulter som hela tiden lägger till “bara en till” kundmapp i Drive. Du får en chatt där du ställer vanliga frågor och får förankrade svar hämtade från dina egna dokument.
Nedan ser du hur automatiseringen indexerar Drive-mappar till en sökbar kunskapsbas och sedan använder Gemini för att svara med kontext, minne och dokumenthämtning.
Så fungerar automatiseringen
Hela n8n-workflowen, från trigger till slutligt resultat:
n8n Workflow Template: Google Drive + Gemini: fråga dokument, få svar
flowchart LR
subgraph sg0["When Executed by Another Workflow Flow"]
direction LR
n8@{ icon: "mdi:vector-polygon", form: "rounded", label: "Embeddings Google Gemini4", pos: "b", h: 48 }
n9@{ icon: "mdi:robot", form: "rounded", label: "Default Data Loader2", pos: "b", h: 48 }
n10["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/postgres.svg' width='40' height='40' /></div><br/>Execute a SQL query"]
n11["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/code.svg' width='40' height='40' /></div><br/>Code in JavaScript"]
n12@{ icon: "mdi:play-circle", form: "rounded", label: "When Executed by Another Wor..", pos: "b", h: 48 }
n13@{ icon: "mdi:swap-vertical", form: "rounded", label: "Loop Over Items", pos: "b", h: 48 }
n14@{ icon: "mdi:cog", form: "rounded", label: "Search files and folders", pos: "b", h: 48 }
n15@{ icon: "mdi:cube-outline", form: "rounded", label: "Insert into Supabase Vectors..", pos: "b", h: 48 }
n16@{ icon: "mdi:cog", form: "rounded", label: "Download File", pos: "b", h: 48 }
n16 --> n15
n13 --> n16
n11 --> n10
n10 --> n14
n9 -.-> n15
n14 --> n13
n8 -.-> n15
n15 --> n13
n12 --> n11
end
subgraph sg1["When chat message received Flow"]
direction LR
n0@{ icon: "mdi:vector-polygon", form: "rounded", label: "Embeddings Google Gemini", pos: "b", h: 48 }
n1@{ icon: "mdi:cube-outline", form: "rounded", label: "Supabase Vector Store", pos: "b", h: 48 }
n2@{ icon: "mdi:memory", form: "rounded", label: "Postgres Chat Memory", pos: "b", h: 48 }
n3@{ icon: "mdi:wrench", form: "rounded", label: "Calculator", pos: "b", h: 48 }
n4@{ icon: "mdi:play-circle", form: "rounded", label: "When chat message received", pos: "b", h: 48 }
n5@{ icon: "mdi:brain", form: "rounded", label: "Google Gemini Chat Model", pos: "b", h: 48 }
n6@{ icon: "mdi:wrench", form: "rounded", label: "Folder all file to vector", pos: "b", h: 48 }
n7@{ icon: "mdi:robot", form: "rounded", label: "Study Agent", pos: "b", h: 48 }
n3 -.-> n7
n2 -.-> n7
n1 -.-> n7
n0 -.-> n1
n5 -.-> n7
n6 -.-> n7
n4 --> n7
end
%% Styling
classDef trigger fill:#e8f5e9,stroke:#388e3c,stroke-width:2px
classDef ai fill:#e3f2fd,stroke:#1976d2,stroke-width:2px
classDef aiModel fill:#e8eaf6,stroke:#3f51b5,stroke-width:2px
classDef decision fill:#fff8e1,stroke:#f9a825,stroke-width:2px
classDef database fill:#fce4ec,stroke:#c2185b,stroke-width:2px
classDef api fill:#fff3e0,stroke:#e65100,stroke-width:2px
classDef code fill:#f3e5f5,stroke:#7b1fa2,stroke-width:2px
classDef disabled stroke-dasharray: 5 5,opacity: 0.5
class n12,n4 trigger
class n9,n7 ai
class n5 aiModel
class n3,n6 ai
class n2 ai
class n15,n1 ai
class n8,n0 ai
class n10 database
class n11 code
classDef customIcon fill:none,stroke:none
class n10,n11 customIcon
Problemet: din kunskap är inlåst i Drive
Google Drive är bra på lagring. Det är sämre på att svara på frågor. Sök fungerar när du minns den exakta frasen, men faller ihop när du bara minns idén, ämnet eller “grejen de sa om prissättning i den där offerten”. Då börjar du öppna filer en efter en, scrolla, köra Ctrl+F och hoppas att rätt stycke sticker ut. Multiplicera det med några mappar och några projekt, så tappar du både verklig tid och fokus – och det är ärligt talat den dyra delen.
Friktionen byggs på. Här är var det brukar falla isär i vardagsarbetet.
- Du läser om samma dokument om och om igen eftersom det inte finns något snabbt sätt att plocka ut bara den relevanta passagen.
- Viktiga detaljer missas när du skummar snabbt, så svaren blir “tillräckligt nära” i stället för korrekta.
- Att dela mappar löser det inte, för åtkomst är inte samma sak som förståelse.
- När du försöker använda en AI-chatt utan hämtning gissar den, vilket betyder att du ändå måste verifiera allt manuellt.
Lösningen: gör Drive-mappar till en pratsam kunskapsbas
Det här workflowet ger dig en konversationsassistent som faktiskt läser från dina Google Drive-filer. När du delar en Google Drive-mapp-länk (eller en Drive-länk i en chatt) hämtar automatiseringen filerna, konverterar dem till ren text och skapar semantiska “fingeravtryck” (embeddings) med Google Geminis embedding-modell. Dessa embeddings lagras i en Supabase Postgres-databas med vektorsökning, så systemet senare kan hämta de mest relevanta passagerna även när din fråga inte matchar exakta formuleringar. Sedan, när du ställer en fråga i chatten, söker agenten i dina indexerade dokument, plockar ut de bästa utdragen och svarar naturligt med Gemini 2.5 Pro samtidigt som den behåller den senaste konversationshistoriken.
Workflowet startar från en chattmeddelande-trigger och routar sedan till en AI-agent som kan anropa verktyg. Ett verktyg indexerar Drive-mappar till Supabase, ett annat hämtar relevanta passager, och en inbyggd kalkylator hanterar matematik utan att spåra ur konversationen. Slutresultatet är ett förankrat svar som håller sig till dina filer, inte generell webbkunnande.
Vad du får: automatisering vs. resultat
| Vad detta workflow automatiserar | Resultat du får |
|---|---|
|
|
Exempel: så här ser det ut i praktiken
Säg att du har en Drive-mapp med 30 studie-PDF:er och föreläsningsanteckningar. Tidigare kanske du öppnade 6 filer och la kanske 10 minuter på varje för att hitta det där enda stycket du behöver – alltså ungefär en timme per frågetung session. Med workflowet: du klistrar in mapp-länken en gång, väntar cirka 2 minuter på indexering och ställer sedan frågor i chatten och får tillbaka relevanta passager direkt. Även om du gör detta tre gånger i veckan är det flera timmar du slutar skänka bort till sökande.
Det här behöver du
- n8n-instans (testa n8n Cloud gratis)
- Self-hosting-alternativ om du föredrar det (Hostinger fungerar bra)
- Google Drive för att hämta och ladda ner dina dokument.
- Google Gemini API för embeddings och chatsvar.
- Supabase (Postgres + pgvector) för att lagra vektorer och köra semantisk sökning.
- Google Drive OAuth2-uppgifter (skapa i Google Cloud Console).
- Gemini API-nyckel (hämta den från Google AI Studio).
Svårighetsnivå: Medel. Du kopplar in autentisering, klistrar in en mapp-URL och bekräftar att några noder pekar på rätt tjänster.
Vill du inte sätta upp detta själv? Prata med en automationsexpert (gratis konsultation i 15 minuter).
Så fungerar det
Ett chattmeddelande sätter igång allt. Workflowet använder en chatt-trigger (ofta ihop med Telegram i upplägg som detta) så att du kan klistra in en Drive-länk och ställa frågor på samma ställe.
Drive-länkar känns igen och förbereds. Ett tolkningssteg extraherar mapp- eller filreferensen, och sedan initierar systemet vektordatabas-delen så att lagring och hämtning är redo för innehållet.
Dokument indexeras i batchar. n8n hämtar Drive-objekten, laddar ner varje fil, konverterar den till text, genererar embeddings med Gemini och lagrar vektorer i Supabase. Den loopar igenom objekten i kontrollerade batchar, vilket håller körningar stabila även när mapparna är stora.
Svar kommer från hämtning, inte gissningar. När du ställer en fråga söker agenten i Supabase efter de mest liknande passagerna, använder Postgres-chattminne för att behålla kontext och svarar via Gemini 2.5 Pro. Om din fråga innehåller beräkningar kan den även anropa kalkylatorverktyget.
Du kan enkelt justera “vad som räknas som en källa” (mappar, filtyper eller hur mycket text som chunkas) så att det passar dina behov. Se hela implementationsguiden nedan för anpassningsalternativ.
Steg-för-steg-guide för implementering
Steg 1: Konfigurera chattriggern
Ställ in ingångspunkterna för både chattinteraktioner i realtid och processen för inmatning via sub-workflow.
- Lägg till och öppna Chat Message Trigger och ställ in Public till
trueså att användare kan skicka meddelanden direkt. - Lägg till och öppna Subworkflow Trigger Start och ställ in Input Source till
jsonExample. - I Subworkflow Trigger Start ställer ni in JSON Example till
{ "Drive_Folder_link": "https://drive.google.com/drive/folders/example" }för att dokumentera förväntat indataformat.
Steg 2: Anslut Google Drive och tolka länkar
Konfigurera åtkomst till Google Drive och konvertera användarens länkar till Drive-ID:n för att lista och ladda ner filer.
- Öppna Parse Drive Link och behåll JavaScript Code som det är för att extrahera mapp- eller fil-ID:n från Drive-URL:er.
- Öppna Retrieve Drive Items och ställ in Resource till
fileFolder. - I Retrieve Drive Items ställer ni in Folder ID till
{{ $('Parse Drive Link').item.json.folderId }}. - Inloggning krävs: Anslut era
googleDriveOAuth2Api-uppgifter till Retrieve Drive Items. - Öppna Download Drive File och ställ in Operation till
download. - I Download Drive File ställer ni in File ID till
{{ $json.id }}och behåller konverteringsalternativet påtext/plain. - Inloggning krävs: Anslut era
googleDriveOAuth2Api-uppgifter till Download Drive File.
Steg 3: Konfigurera initiering av vektordatabas och inmatning
Initiera Postgres-vektortabellen, iterera igenom filer, ladda dokument, skapa embeddings och lagra vektorerna i Supabase.
- Öppna Initialize Vector DB och ställ in Operation till
executeQuerymed den angivna SQL:en som skapar tabellendocumentsoch funktionenmatch_documents. - Inloggning krävs: Anslut era
postgres-uppgifter till Initialize Vector DB. - Öppna Batch Item Iterator och behåll standardinställningarna för att iterera genom Drive-objekt i batchar.
- Öppna Binary Document Loader och ställ in Data Type till
binaryså att nedladdade filer tolkas som dokument. - Öppna Gemini Embedding Generator och säkerställ att den förblir ansluten som embedding-leverantör för Store Vectors in Supabase.
- Inloggning krävs: Anslut era
googlePalmApi-uppgifter till Gemini Embedding Generator. - Öppna Store Vectors in Supabase och ställ in Mode till
insertmed Table Name satt tilldocumentsoch Query Name satt tillmatch_documents. - Inloggning krävs: Anslut era
supabaseApi-uppgifter till Store Vectors in Supabase.
documents vid varje körning. Ta bort raden DROP TABLE om ni behöver bevara befintliga embeddings.Steg 4: Ställ in AI-assistenten och verktyg för hämtning
Konfigurera agenten, språkmodellen, verktygen och minnet så att chatsvaren utnyttjar lagrat studiematerial.
- Öppna Learning Assistant Agent och ställ in Text till
{{ $json.chatInput }}. - I Learning Assistant Agent behåller ni den angivna System Message för att styra studieinteraktioner och hantering av Drive-länkar.
- Öppna Gemini Chat Language Model och ställ in Model Name till
models/gemini-2.5-pro. - Inloggning krävs: Anslut era
googlePalmApi-uppgifter till Gemini Chat Language Model. - Öppna Supabase Vector Retrieval och ställ in Mode till
retrieve-as-toolmed den angivna Tool Description. - Inloggning krävs: Anslut era
supabaseApi-uppgifter till Supabase Vector Retrieval. - Öppna Gemini Embedding Builder och lämna parametrarna som standard så att den levererar embeddings till Supabase Vector Retrieval.
- Inloggning krävs: Anslut era
googlePalmApi-uppgifter till Gemini Embedding Builder. - Öppna Postgres Conversation Memory och ställ in Session Key till
{{ $json.sessionId }}med Session ID Type satt tillcustomKeyoch Context Window Length satt till10. - Inloggning krävs: Anslut era
postgres-uppgifter till Postgres Conversation Memory. - Öppna Run Sub-Workflow Config Req och behåll mappningen för Drive_Folder_link satt till
{{ /*n8n-auto-generated-fromAI-override*/ $fromAI('Drive_Folder_link', ``, 'string') }}. - Behåll Math Utility Tool ansluten för löpande beräkningar i svaren.
Steg 5: Bekräfta exekveringsflöde och loopning
Verifiera att inmatningskedjan och chattflödet är kopplade exakt enligt avsikt.
- Bekräfta att inmatningsvägen körs i denna ordning: Subworkflow Trigger Start → Parse Drive Link → Initialize Vector DB → Retrieve Drive Items → Batch Item Iterator → Download Drive File → Store Vectors in Supabase → tillbaka till Batch Item Iterator för nästa objekt.
- Bekräfta att chattvägen körs: Chat Message Trigger → Learning Assistant Agent.
- Verifiera att Binary Document Loader är ansluten till Store Vectors in Supabase via dokumentindatan.
Steg 6: Testa och aktivera ert workflow
Kör end-to-end-tester för både inmatning och chatt, och aktivera sedan workflowet för produktion.
- Klicka på Execute Workflow i Subworkflow Trigger Start och skicka in en riktig Drive-mapplänk för att verifiera att objekt hämtas och att vektorer lagras i Supabase.
- Trigga Chat Message Trigger manuellt med en fråga om ert material och bekräfta att Learning Assistant Agent svarar med relevant innehåll.
- En lyckad körning ska visa dokument som har infogats av Store Vectors in Supabase och ett chattsvar som hänvisar till lagrade data.
- Växla workflowet till Active för att börja hantera live-chattmeddelanden och Drive-inmatning i produktion.
Vanliga fallgropar
- Google Drive-autentisering kan löpa ut eller kräva specifika behörigheter. Om något slutar fungera, kontrollera först Drive-nodens OAuth-status i n8n-uppgifterna och bekräfta sedan att mappen är delad med det anslutna kontot.
- Om du använder Wait-noder eller extern rendering varierar processtider. Öka väntetiden om noder längre ner misslyckas på tomma svar.
- Standardprompter i AI-noder är generiska. Lägg in din tonalitet tidigt, annars kommer du att redigera output i all evighet.
Vanliga frågor
Cirka 15 minuter om dina uppgifter är redo.
Nej. Du kopplar främst konton och klistrar in nycklar. Den enda “kod”-delen finns redan med för att tolka Drive-länkar.
Ja. n8n har ett gratis self-hosted-alternativ och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna in användning av Gemini API (ofta bara några dollar i månaden om du inte indexerar enorma bibliotek).
Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller self-hosting på en VPS. För self-hosting är Hostinger VPS prisvärd och klarar n8n bra. Self-hosting ger obegränsat antal körningar men kräver grundläggande serverhantering.
Ja, men du byter ingångspunkt. Ersätt Chat Message Trigger med en Slack-trigger och skicka sedan meddelandetexten in i Learning Assistant Agent på samma sätt. Vanliga justeringar är att begränsa indexering till godkända mappar, ändra chunk-storleken som används innan embedding, och justera antalet träffar som hämtas så att svaren citerar färre eller fler passager.
Oftast handlar det om OAuth. Anslut Google Drive OAuth2-uppgiften på nytt i n8n och säkerställ att det anslutna Google-kontot faktiskt kan öppna mappen du indexerar. Kontrollera också att ditt Google Cloud-projekt har Drive API aktiverat, eftersom det är lätt att missa efter att man har skapat uppgifter. Om fel bara uppstår för vissa filer kan dokumenttypen vara boven (skannade PDF:er och märkliga exporter ger ibland tom text). Håll också koll på rate limits när du indexerar stora mappar direkt efter varandra.
Många, så länge din databas och dina API-gränser hänger med. På n8n Cloud Starter begränsas du av månadsvisa körningar, så stora bibliotek kan driva dig mot en högre plan. Om du self-hostar finns ingen körningsgräns, och skalning handlar mest om serverstorlek och hur snabbt du vill att indexeringen ska bli klar. I praktiken börjar de flesta små team med några hundra dokument och skalar upp när de är nöjda med svarskvaliteten.
För det här upplägget har n8n några fördelar: mer komplex logik med obegränsad branching utan extra kostnad, ett self-hosting-alternativ för obegränsat antal körningar och inbyggda komponenter för agent + vektorhämtning som är klumpiga (eller dyra) att återskapa någon annanstans. Zapier eller Make kan fungera om du bara behöver “ladda upp fil → sammanfatta → skicka meddelande”. Men när du vill ha semantisk sökning, minne och en agent som kan anropa verktyg märker du begränsningarna snabbt. Om du är osäker kan du prata med en automationsexpert och beskriva din volym och dina dokumenttyper.
När detta väl rullar slutar Drive vara ett arkivskåp och börjar fungera som en sökbar hjärna. Sätt upp det en gång och använd sedan tiden du får tillbaka till arbete som faktiskt tar dig framåt.
Kontakta oss
Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.