Behöver ert företag hjälp med att implementera AI? Kontakta oss och få prisoffert här →
AI Skolan
januari 22, 2026

Google Drive + Gemini: fråga dokument, få svar

Rickard Andersson Partner, Nodenordic.se

Du känner igen känslan: svaret finns någonstans i din Google Drive, men för att hitta det måste du skumma fem PDF:er, två Docs och den där presentationen du glömde att du hade. Det är inte svårt. Det tar bara aldrig slut.

Den här konfigurationen för Drive Gemini Q&A slår hårdast mot studenter under tentaveckor. Men det är också en tyst skatt på marknadsförare som plockar budskap från tidigare kampanjer, och på konsulter som hela tiden lägger till “bara en till” kundmapp i Drive. Du får en chatt där du ställer vanliga frågor och får förankrade svar hämtade från dina egna dokument.

Nedan ser du hur automatiseringen indexerar Drive-mappar till en sökbar kunskapsbas och sedan använder Gemini för att svara med kontext, minne och dokumenthämtning.

Så fungerar automatiseringen

Hela n8n-workflowen, från trigger till slutligt resultat:

n8n Workflow Template: Google Drive + Gemini: fråga dokument, få svar

Problemet: din kunskap är inlåst i Drive

Google Drive är bra på lagring. Det är sämre på att svara på frågor. Sök fungerar när du minns den exakta frasen, men faller ihop när du bara minns idén, ämnet eller “grejen de sa om prissättning i den där offerten”. Då börjar du öppna filer en efter en, scrolla, köra Ctrl+F och hoppas att rätt stycke sticker ut. Multiplicera det med några mappar och några projekt, så tappar du både verklig tid och fokus – och det är ärligt talat den dyra delen.

Friktionen byggs på. Här är var det brukar falla isär i vardagsarbetet.

  • Du läser om samma dokument om och om igen eftersom det inte finns något snabbt sätt att plocka ut bara den relevanta passagen.
  • Viktiga detaljer missas när du skummar snabbt, så svaren blir “tillräckligt nära” i stället för korrekta.
  • Att dela mappar löser det inte, för åtkomst är inte samma sak som förståelse.
  • När du försöker använda en AI-chatt utan hämtning gissar den, vilket betyder att du ändå måste verifiera allt manuellt.

Lösningen: gör Drive-mappar till en pratsam kunskapsbas

Det här workflowet ger dig en konversationsassistent som faktiskt läser från dina Google Drive-filer. När du delar en Google Drive-mapp-länk (eller en Drive-länk i en chatt) hämtar automatiseringen filerna, konverterar dem till ren text och skapar semantiska “fingeravtryck” (embeddings) med Google Geminis embedding-modell. Dessa embeddings lagras i en Supabase Postgres-databas med vektorsökning, så systemet senare kan hämta de mest relevanta passagerna även när din fråga inte matchar exakta formuleringar. Sedan, när du ställer en fråga i chatten, söker agenten i dina indexerade dokument, plockar ut de bästa utdragen och svarar naturligt med Gemini 2.5 Pro samtidigt som den behåller den senaste konversationshistoriken.

Workflowet startar från en chattmeddelande-trigger och routar sedan till en AI-agent som kan anropa verktyg. Ett verktyg indexerar Drive-mappar till Supabase, ett annat hämtar relevanta passager, och en inbyggd kalkylator hanterar matematik utan att spåra ur konversationen. Slutresultatet är ett förankrat svar som håller sig till dina filer, inte generell webbkunnande.

Vad du får: automatisering vs. resultat

Exempel: så här ser det ut i praktiken

Säg att du har en Drive-mapp med 30 studie-PDF:er och föreläsningsanteckningar. Tidigare kanske du öppnade 6 filer och la kanske 10 minuter på varje för att hitta det där enda stycket du behöver – alltså ungefär en timme per frågetung session. Med workflowet: du klistrar in mapp-länken en gång, väntar cirka 2 minuter på indexering och ställer sedan frågor i chatten och får tillbaka relevanta passager direkt. Även om du gör detta tre gånger i veckan är det flera timmar du slutar skänka bort till sökande.

Det här behöver du

  • n8n-instans (testa n8n Cloud gratis)
  • Self-hosting-alternativ om du föredrar det (Hostinger fungerar bra)
  • Google Drive för att hämta och ladda ner dina dokument.
  • Google Gemini API för embeddings och chatsvar.
  • Supabase (Postgres + pgvector) för att lagra vektorer och köra semantisk sökning.
  • Google Drive OAuth2-uppgifter (skapa i Google Cloud Console).
  • Gemini API-nyckel (hämta den från Google AI Studio).

Svårighetsnivå: Medel. Du kopplar in autentisering, klistrar in en mapp-URL och bekräftar att några noder pekar på rätt tjänster.

Vill du inte sätta upp detta själv? Prata med en automationsexpert (gratis konsultation i 15 minuter).

Så fungerar det

Ett chattmeddelande sätter igång allt. Workflowet använder en chatt-trigger (ofta ihop med Telegram i upplägg som detta) så att du kan klistra in en Drive-länk och ställa frågor på samma ställe.

Drive-länkar känns igen och förbereds. Ett tolkningssteg extraherar mapp- eller filreferensen, och sedan initierar systemet vektordatabas-delen så att lagring och hämtning är redo för innehållet.

Dokument indexeras i batchar. n8n hämtar Drive-objekten, laddar ner varje fil, konverterar den till text, genererar embeddings med Gemini och lagrar vektorer i Supabase. Den loopar igenom objekten i kontrollerade batchar, vilket håller körningar stabila även när mapparna är stora.

Svar kommer från hämtning, inte gissningar. När du ställer en fråga söker agenten i Supabase efter de mest liknande passagerna, använder Postgres-chattminne för att behålla kontext och svarar via Gemini 2.5 Pro. Om din fråga innehåller beräkningar kan den även anropa kalkylatorverktyget.

Du kan enkelt justera “vad som räknas som en källa” (mappar, filtyper eller hur mycket text som chunkas) så att det passar dina behov. Se hela implementationsguiden nedan för anpassningsalternativ.

Steg-för-steg-guide för implementering

Steg 1: Konfigurera chattriggern

Ställ in ingångspunkterna för både chattinteraktioner i realtid och processen för inmatning via sub-workflow.

  1. Lägg till och öppna Chat Message Trigger och ställ in Public till true så att användare kan skicka meddelanden direkt.
  2. Lägg till och öppna Subworkflow Trigger Start och ställ in Input Source till jsonExample.
  3. I Subworkflow Trigger Start ställer ni in JSON Example till { "Drive_Folder_link": "https://drive.google.com/drive/folders/example" } för att dokumentera förväntat indataformat.

Ni kan köra Subworkflow Trigger Start manuellt med en riktig Drive-URL för att validera inmatningen innan ni aktiverar chattupplevelsen.

Steg 2: Anslut Google Drive och tolka länkar

Konfigurera åtkomst till Google Drive och konvertera användarens länkar till Drive-ID:n för att lista och ladda ner filer.

  1. Öppna Parse Drive Link och behåll JavaScript Code som det är för att extrahera mapp- eller fil-ID:n från Drive-URL:er.
  2. Öppna Retrieve Drive Items och ställ in Resource till fileFolder.
  3. I Retrieve Drive Items ställer ni in Folder ID till {{ $('Parse Drive Link').item.json.folderId }}.
  4. Inloggning krävs: Anslut era googleDriveOAuth2Api-uppgifter till Retrieve Drive Items.
  5. Öppna Download Drive File och ställ in Operation till download.
  6. I Download Drive File ställer ni in File ID till {{ $json.id }} och behåller konverteringsalternativet på text/plain.
  7. Inloggning krävs: Anslut era googleDriveOAuth2Api-uppgifter till Download Drive File.

⚠️ Vanlig fallgrop: Om Drive-länken pekar på en fil i stället för en mapp behöver ni säkerställa att filen är åtkomlig för det anslutna Google-kontot, annars kommer listningen att ge tomma resultat.

Steg 3: Konfigurera initiering av vektordatabas och inmatning

Initiera Postgres-vektortabellen, iterera igenom filer, ladda dokument, skapa embeddings och lagra vektorerna i Supabase.

  1. Öppna Initialize Vector DB och ställ in Operation till executeQuery med den angivna SQL:en som skapar tabellen documents och funktionen match_documents.
  2. Inloggning krävs: Anslut era postgres-uppgifter till Initialize Vector DB.
  3. Öppna Batch Item Iterator och behåll standardinställningarna för att iterera genom Drive-objekt i batchar.
  4. Öppna Binary Document Loader och ställ in Data Type till binary så att nedladdade filer tolkas som dokument.
  5. Öppna Gemini Embedding Generator och säkerställ att den förblir ansluten som embedding-leverantör för Store Vectors in Supabase.
  6. Inloggning krävs: Anslut era googlePalmApi-uppgifter till Gemini Embedding Generator.
  7. Öppna Store Vectors in Supabase och ställ in Mode till insert med Table Name satt till documents och Query Name satt till match_documents.
  8. Inloggning krävs: Anslut era supabaseApi-uppgifter till Store Vectors in Supabase.

⚠️ Vanlig fallgrop: SQL:en i Initialize Vector DB tar bort tabellen documents vid varje körning. Ta bort raden DROP TABLE om ni behöver bevara befintliga embeddings.

Steg 4: Ställ in AI-assistenten och verktyg för hämtning

Konfigurera agenten, språkmodellen, verktygen och minnet så att chatsvaren utnyttjar lagrat studiematerial.

  1. Öppna Learning Assistant Agent och ställ in Text till {{ $json.chatInput }}.
  2. I Learning Assistant Agent behåller ni den angivna System Message för att styra studieinteraktioner och hantering av Drive-länkar.
  3. Öppna Gemini Chat Language Model och ställ in Model Name till models/gemini-2.5-pro.
  4. Inloggning krävs: Anslut era googlePalmApi-uppgifter till Gemini Chat Language Model.
  5. Öppna Supabase Vector Retrieval och ställ in Mode till retrieve-as-tool med den angivna Tool Description.
  6. Inloggning krävs: Anslut era supabaseApi-uppgifter till Supabase Vector Retrieval.
  7. Öppna Gemini Embedding Builder och lämna parametrarna som standard så att den levererar embeddings till Supabase Vector Retrieval.
  8. Inloggning krävs: Anslut era googlePalmApi-uppgifter till Gemini Embedding Builder.
  9. Öppna Postgres Conversation Memory och ställ in Session Key till {{ $json.sessionId }} med Session ID Type satt till customKey och Context Window Length satt till 10.
  10. Inloggning krävs: Anslut era postgres-uppgifter till Postgres Conversation Memory.
  11. Öppna Run Sub-Workflow Config Req och behåll mappningen för Drive_Folder_link satt till {{ /*n8n-auto-generated-fromAI-override*/ $fromAI('Drive_Folder_link', ``, 'string') }}.
  12. Behåll Math Utility Tool ansluten för löpande beräkningar i svaren.

Säkerställ att alla AI-verktygsnoder är anslutna till Learning Assistant Agent som visat, så att agenten kan anropa hämtning, minne och workflow-verktyg under chatten.

Steg 5: Bekräfta exekveringsflöde och loopning

Verifiera att inmatningskedjan och chattflödet är kopplade exakt enligt avsikt.

  1. Bekräfta att inmatningsvägen körs i denna ordning: Subworkflow Trigger StartParse Drive LinkInitialize Vector DBRetrieve Drive ItemsBatch Item IteratorDownload Drive FileStore Vectors in Supabase → tillbaka till Batch Item Iterator för nästa objekt.
  2. Bekräfta att chattvägen körs: Chat Message TriggerLearning Assistant Agent.
  3. Verifiera att Binary Document Loader är ansluten till Store Vectors in Supabase via dokumentindatan.

Steg 6: Testa och aktivera ert workflow

Kör end-to-end-tester för både inmatning och chatt, och aktivera sedan workflowet för produktion.

  1. Klicka på Execute Workflow i Subworkflow Trigger Start och skicka in en riktig Drive-mapplänk för att verifiera att objekt hämtas och att vektorer lagras i Supabase.
  2. Trigga Chat Message Trigger manuellt med en fråga om ert material och bekräfta att Learning Assistant Agent svarar med relevant innehåll.
  3. En lyckad körning ska visa dokument som har infogats av Store Vectors in Supabase och ett chattsvar som hänvisar till lagrade data.
  4. Växla workflowet till Active för att börja hantera live-chattmeddelanden och Drive-inmatning i produktion.
🔒

Lås upp fullständig steg-för-steg-guide

Få den kompletta implementeringsguiden + nedladdningsbar mall

Vanliga fallgropar

  • Google Drive-autentisering kan löpa ut eller kräva specifika behörigheter. Om något slutar fungera, kontrollera först Drive-nodens OAuth-status i n8n-uppgifterna och bekräfta sedan att mappen är delad med det anslutna kontot.
  • Om du använder Wait-noder eller extern rendering varierar processtider. Öka väntetiden om noder längre ner misslyckas på tomma svar.
  • Standardprompter i AI-noder är generiska. Lägg in din tonalitet tidigt, annars kommer du att redigera output i all evighet.

Vanliga frågor

Hur lång tid tar det att sätta upp den här Drive Gemini Q&A-automatiseringen?

Cirka 15 minuter om dina uppgifter är redo.

Behöver jag kunna koda för att automatisera Drive Gemini Q&A?

Nej. Du kopplar främst konton och klistrar in nycklar. Den enda “kod”-delen finns redan med för att tolka Drive-länkar.

Är n8n gratis att använda för det här Drive Gemini Q&A-workflowet?

Ja. n8n har ett gratis self-hosted-alternativ och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna in användning av Gemini API (ofta bara några dollar i månaden om du inte indexerar enorma bibliotek).

Var kan jag hosta n8n för att köra den här automatiseringen?

Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller self-hosting på en VPS. För self-hosting är Hostinger VPS prisvärd och klarar n8n bra. Self-hosting ger obegränsat antal körningar men kräver grundläggande serverhantering.

Kan jag anpassa det här Drive Gemini Q&A-workflowet för Slack i stället för chatt/Telegram?

Ja, men du byter ingångspunkt. Ersätt Chat Message Trigger med en Slack-trigger och skicka sedan meddelandetexten in i Learning Assistant Agent på samma sätt. Vanliga justeringar är att begränsa indexering till godkända mappar, ändra chunk-storleken som används innan embedding, och justera antalet träffar som hämtas så att svaren citerar färre eller fler passager.

Varför misslyckas min Google Drive-anslutning i det här workflowet?

Oftast handlar det om OAuth. Anslut Google Drive OAuth2-uppgiften på nytt i n8n och säkerställ att det anslutna Google-kontot faktiskt kan öppna mappen du indexerar. Kontrollera också att ditt Google Cloud-projekt har Drive API aktiverat, eftersom det är lätt att missa efter att man har skapat uppgifter. Om fel bara uppstår för vissa filer kan dokumenttypen vara boven (skannade PDF:er och märkliga exporter ger ibland tom text). Håll också koll på rate limits när du indexerar stora mappar direkt efter varandra.

Hur många dokument klarar den här Drive Gemini Q&A-automatiseringen?

Många, så länge din databas och dina API-gränser hänger med. På n8n Cloud Starter begränsas du av månadsvisa körningar, så stora bibliotek kan driva dig mot en högre plan. Om du self-hostar finns ingen körningsgräns, och skalning handlar mest om serverstorlek och hur snabbt du vill att indexeringen ska bli klar. I praktiken börjar de flesta små team med några hundra dokument och skalar upp när de är nöjda med svarskvaliteten.

Är den här Drive Gemini Q&A-automatiseringen bättre än att använda Zapier eller Make?

För det här upplägget har n8n några fördelar: mer komplex logik med obegränsad branching utan extra kostnad, ett self-hosting-alternativ för obegränsat antal körningar och inbyggda komponenter för agent + vektorhämtning som är klumpiga (eller dyra) att återskapa någon annanstans. Zapier eller Make kan fungera om du bara behöver “ladda upp fil → sammanfatta → skicka meddelande”. Men när du vill ha semantisk sökning, minne och en agent som kan anropa verktyg märker du begränsningarna snabbt. Om du är osäker kan du prata med en automationsexpert och beskriva din volym och dina dokumenttyper.

När detta väl rullar slutar Drive vara ett arkivskåp och börjar fungera som en sökbar hjärna. Sätt upp det en gång och använd sedan tiden du får tillbaka till arbete som faktiskt tar dig framåt.

Kontakta oss

Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.

×

Använd mall

Få direkt tillgång till denna n8n-arbetsflödes JSON-fil

Få prisoffert redan idag!
Få prisoffert redan idag!

Berätta vad ni behöver hjälp med så hör vi av oss inom en arbetsdag!

Få prisoffert redan idag!
Få prisoffert redan idag!

Berätta vad ni behöver hjälp med så hör vi av oss inom en arbetsdag!

Launch login modal Launch register modal