Behöver ert företag hjälp med att implementera AI? Kontakta oss och få prisoffert här →
AI Skolan
januari 22, 2026

Google Drive + Pinecone: snabba svar från pdf:er

Rickard Andersson Partner, Nodenordic.se

Dina supportdokument finns. Problemet är att ingen hittar rätt stycke när de behöver det, så samma ”snabba fråga” hamnar i någons inkorg igen. Och igen.

Det är här automatisering med Drive PDF answers snabbt lönar sig. IT-supportansvariga känner av avbrottskostnaden varje dag, men driftchefer och kundteam på byråer dras också in när kunder eller medarbetare frågar ”var finns den där dokumentationen?” och ingen vill leta.

Det här arbetsflödet gör PDF:erna som redan ligger i Google Drive till en sökbar kunskapshjärna med Pinecone och svarar sedan på frågor via en chattlik AI-agent. Du får se vad som automatiseras, vad du behöver för att köra det och var team oftast går fel.

Så fungerar automatiseringen

Se hur detta löser problemet:

n8n Workflow Template: Google Drive + Pinecone: snabba svar från pdf:er

Utmaningen: support-PDF:er som ingen kan använda när det gäller

PDF-dokumentation låter organiserat tills du faktiskt behöver ett svar. Någon laddar upp ”VPN Reset Guide.pdf”, sedan laddar någon annan upp ”VPN Reset Guide (final).pdf”, och plötsligt har teamet tre versioner som inte stämmer överens. När en riktig fråga kommer in läser folk inte dokument. De frågar en människa. Det drar bort dina bästa felsökare från riktigt arbete, skapar inkonsekventa svar och gör ”snabb hjälp” till ett konstant dropp av avbrott som ärligt talat förstör fokus.

Det blir snabbt mycket. Här är var det brister i den dagliga driften.

  • Att söka i Google Drive-mappar slukar tid, särskilt när filnamn inte är konsekventa.
  • Folk återanvänder gamla instruktioner från minnet, så vägledningen glider och misstag upprepas.
  • Nyanställda ställer samma onboardingfrågor eftersom ”rätt PDF” är svår att hitta.
  • Din seniora supportperson blir standard-sökmotorn, vilket är dyrt och svårt att skala.

Lösningen: autoindexera Drive-PDF:er och svara direkt på frågor

Det här n8n-arbetsflödet körs i två ihopkopplade delar: en håller din kunskapsbas uppdaterad, den andra svarar på frågor i samma stund de ställs. Först bevakar det en specifik Google Drive-mapp efter nyligen uppladdade (eller uppdaterade) support-PDF:er. När en fil dyker upp laddar arbetsflödet ner den, extraherar texten, städar upp formateringen (tar bort märkliga radbrytningar och skräptecken) och delar sedan upp innehållet i mindre chunkar som är lättare att söka i. Dessa chunkar omvandlas till embeddings med en chattmodell (Google Gemini-embeddings i mallen) och lagras i Pinecone så att systemet senare kan hämta de bäst matchande avsnitten på några sekunder.

När någon ställer en fråga i chatten genererar det andra arbetsflödet en embedding för frågan, söker i Pinecone efter de mest relevanta chunkarna och bygger en tydlig prompt som innehåller både frågan och stödjande utdrag. Sedan svarar en AI-agent (via OpenRouter/Gemini i den här uppsättningen) med ett klart, steg-för-steg-svar som är förankrat i era egna dokument.

Vad som förändras: före vs. efter

Praktisk effekt i verkligheten

Säg att ditt interna team ställer 20 rutinfrågor per dag i Slack och att varje svar tar cirka 6 minuter när du väl hittat rätt PDF och skrivit ett svar. Det är ungefär 2 timmar per dag i kontextbyten. Med den här lösningen frågar medarbetaren i chatten, Pinecone hämtar de bästa utdragen och agenten svarar på under en minut. Även om du fortfarande granskar några svar sparar du vanligtvis runt 90 minuter per dag.

Krav

  • n8n-instans (prova n8n Cloud gratis)
  • Alternativ för egen hosting om du föredrar det (Hostinger fungerar bra)
  • Google Drive för att lagra och övervaka dina PDF:er
  • Pinecone för att lagra embeddings för snabb sökning
  • OpenRouter- eller Google Gemini-API-nyckel (hämta den från din sida för OpenRouter- eller Google Cloud/Gemini-uppgifter)

Kunskapsnivå: Medel. Du kopplar konton, klistrar in API-nycklar och rimlighetskontrollerar prompts och datamappning.

Behöver du hjälp att implementera detta? Prata med en automationsexpert (gratis 15-minuters konsultation).

Flödet i arbetsflödet

En ny PDF landar i Google Drive. Arbetsflödet bevakar en mapp och triggar så fort en fil skapas, så din kunskapsbas inte hänger på att någon kommer ihåg att ”uppdatera wikin”.

PDF-texten extraheras och struktureras. n8n laddar ner filen, plockar ut texten och ett Code-steg normaliserar formateringen (radbrytningar, extra mellanslag, udda tecken) så att sökresultaten blir läsbara.

Innehållet chunkas och indexeras i Pinecone. Arbetsflödet delar upp lång text i mindre segment, skapar embeddings med Gemini och lagrar allt i Pinecone för likhetssökning senare.

En chattfråga hämtar kontext och genererar ett svar. När chatt-triggen tar emot en fråga returnerar Pinecone de närmast matchande chunkarna, ytterligare ett Code-steg bygger en kontextprompt och AI-agenten svarar med genomförbara steg.

Du kan enkelt justera chunkstorleken och antalet hämtade utdrag för att matcha er dokumentstil och era krav på träffsäkerhet. Se den fullständiga implementationsguiden nedan för anpassningsalternativ.

Steg-för-steg-guide för implementering

Steg 1: Konfigurera triggertypen

Konfigurera Google Drive-triggern som upptäcker nya filer i en specifik mapp.

  1. Lägg till noden Watch Drive for New Files och ställ in EventfileCreated.
  2. Ställ in Trigger OnspecificFolder.
  3. Välj mappen i Folder to Watch och ersätt [YOUR_ID] med er Google Drive-mapp-ID.
  4. Autentiseringsuppgifter krävs: Anslut era googleDriveOAuth2Api-autentiseringsuppgifter.
⚠️ Vanlig fallgrop: Om mapp-ID:t är ogiltigt eller ni använder en genväg, kommer triggern inte att köras. Använd det faktiska mapp-ID:t från Drive-URL:en.

Steg 2: Anslut Google Drive och hämta filinnehåll

Ladda ner den nya filen som upptäcktes av triggern.

  1. Lägg till noden Fetch Drive File och ställ in Operationdownload.
  2. Ställ in File ID till uttrycket {{ $json.id }}.
  3. Autentiseringsuppgifter krävs: Anslut era googleDriveOAuth2Api-autentiseringsuppgifter.
  4. Koppla Watch Drive for New FilesFetch Drive File för att matcha körflödet.

Steg 3: Extrahera, normalisera och förbered dokumentchunkar

Extrahera PDF-text, rensa den och förbered den för embedding och lagring.

  1. Lägg till noden Extract PDF Text och ställ in Operationpdf.
  2. Lägg till Normalize PDF Text och klistra in den tillhandahållna JavaScript-koden från workflowet för att rensa texten.
  3. Lägg till Chunk Document Text och ställ in Chunk Size3000 och Chunk Overlap300.
  4. Lägg till Load Document Payload för att paketera chunkar för vektorlagring.
  5. Koppla Fetch Drive FileExtract PDF TextNormalize PDF Text.

Steg 4: Lagra dokument i Pinecone med embeddings

Skapa embeddings och lagra dokumentchunkar i Pinecone för återhämtning.

  1. Lägg till Create Doc Embeddings och ställ in Model Namemodels/text-embedding-004.
  2. Lägg till Store Document in Pinecone och ställ in Modeinsert.
  3. Välj ert Pinecone-index i Pinecone Index och ersätt [YOUR_ID] med ert indexnamn.
  4. Autentiseringsuppgifter krävs: Anslut era googlePalmApi-autentiseringsuppgifter för Create Doc Embeddings.
  5. Autentiseringsuppgifter krävs: Anslut era pineconeApi-autentiseringsuppgifter för Store Document in Pinecone.
Create Doc Embeddings är en AI-under-nod. Säkerställ att autentiseringsuppgifter läggs till i Create Doc Embeddings och att den kopplas till Store Document in Pinecone som embedding-källa.

Steg 5: Konfigurera chathämtning och byggande av prompt

Konfigurera chattriggern, hämta relevanta dokument och bygg kontextprompten.

  1. Lägg till Incoming Chat Trigger för att ta emot användarfrågor.
  2. Lägg till Create Query Embeddings med Model Name inställt på models/text-embedding-004.
  3. Lägg till Fetch Relevant Pinecone Docs och ställ in Modeload och Prompt{{ $json.chatInput }}.
  4. Lägg till Build Context Prompt och klistra in den tillhandahållna JavaScript-koden för att sammanställa de 3 bästa dokumenten i prompten.
  5. Autentiseringsuppgifter krävs: Anslut era googlePalmApi-autentiseringsuppgifter för Create Query Embeddings.
  6. Autentiseringsuppgifter krävs: Anslut era pineconeApi-autentiseringsuppgifter för Fetch Relevant Pinecone Docs.
Create Query Embeddings är en AI-under-nod. Säkerställ att autentiseringsuppgifter läggs till i Create Query Embeddings och att den kopplas till Fetch Relevant Pinecone Docs som embedding-källa.

Steg 6: Konfigurera AI-agenten för svar

Skicka den byggda prompten till agenten och anslut OpenRouter-modellen.

  1. Lägg till Conversational Agent och ställ in Text{{ $json.prompt }}.
  2. Granska System Message i Conversational Agent och anpassa vid behov.
  3. Lägg till OpenRouter Chat Gateway och ställ in Modelgoogle/gemini-2.0-flash-exp:free.
  4. Koppla Build Context PromptConversational Agent.
  5. Autentiseringsuppgifter krävs: Anslut era openRouterApi-autentiseringsuppgifter för OpenRouter Chat Gateway.
OpenRouter Chat Gateway är ansluten som språkmodell för Conversational Agent — säkerställ att autentiseringsuppgifter läggs till i OpenRouter Chat Gateway, inte i själva agenten.

Steg 7: Testa och aktivera ert workflow

Validera både ingest- och chattsvarsflöden innan ni slår på workflowet.

  1. Kör Watch Drive for New Files manuellt med en test-PDF som läggs till i målmappen.
  2. Bekräfta att Extract PDF Text och Normalize PDF Text ger rensad text som output.
  3. Kontrollera Store Document in Pinecone för att säkerställa att vektorer infogas korrekt.
  4. Skicka en testfråga till Incoming Chat Trigger och verifiera att Conversational Agent returnerar ett svar som använder kontext.
  5. När det fungerar, slå om workflowet till Active för kontinuerlig synkning och frågor och svar.
🔒

Lås upp fullständig steg-för-steg-guide

Få den kompletta implementeringsguiden + nedladdningsbar mall

Se upp för

  • Google Drive-inloggningar kan löpa ut eller kräva specifika behörigheter. Om något slutar fungera, kontrollera först anslutningsstatusen för n8n-uppgifterna och mappens åtkomst-/delningsinställningar.
  • Om du använder Wait-noder eller extern rendering varierar processtiderna. Öka väntetiden om efterföljande noder fallerar på tomma svar.
  • Standardprompter i AI-noder är generiska. Lägg in er tonalitet tidigt, annars kommer du att redigera utdata för alltid.

Vanliga frågor

Hur snabbt kan jag implementera den här Drive PDF answers-automatiseringen?

Vanligtvis runt en timme om dina konton och API-nycklar är klara.

Kan icke-tekniska team implementera Drive PDF answers?

Ja, men någon bör vara bekväm med att koppla uppgifter och testa prompter. Det finns ingen traditionell kodning, men du vill ändå göra en noggrann genomgång av uppsättningen för att undvika röriga svar.

Är n8n gratis att använda för det här Drive PDF answers-arbetsflödet?

Ja. n8n har ett gratis alternativ för egen hosting och en gratis provperiod på n8n Cloud. Molnplaner börjar på 20 USD/månad för högre volym. Du behöver också räkna med användning av OpenRouter- eller Gemini-API samt Pinecone-kostnader för lagring och frågor.

Var kan jag hosta n8n för att köra den här automatiseringen?

Två alternativ: n8n Cloud (hanterad, enklaste uppsättningen) eller egen hosting på en VPS. För egen hosting är Hostinger VPS prisvärd och hanterar n8n bra. Egen hosting ger obegränsade körningar men kräver grundläggande serveradministration.

Hur anpassar jag Drive PDF answers-lösningen till mina specifika utmaningar?

Det kan du. De flesta anpassningar sker i de två Code-noderna (”Normalize PDF Text” och ”Build Context Prompt”) och i inställningarna för text-splittern (”Chunk Document Text”). Team justerar ofta chunkstorlek för långa policydokument, ändrar hur många Pinecone-resultat som hämtas för mer kontext och skärper prompten så att agenten bara svarar utifrån hämtade avsnitt.

Varför misslyckas min Google Drive-anslutning i det här arbetsflödet?

Oftast beror det på att behörigheterna på Google-kontot har löpt ut eller återkallats. Återanslut Google Drive-uppgiften i n8n och bekräfta att det bevakade mapp-ID:t fortfarande är åtkomligt. Om du använder en delad enhet, dubbelkolla att du kopplade rätt Drive-scope och att filen faktiskt skapas i den övervakade mappen, inte flyttas dit i efterhand.

Vilken kapacitet har den här Drive PDF answers-lösningen?

På en typisk n8n Cloud Starter-plan kan du hantera några tusen körningar per månad, vilket räcker för många interna team. Om du kör egen hosting finns ingen gräns för körningar, men din server och Pinecone-gränser blir flaskhalsen. I praktiken skalar inläsningen med dokumentstorlek (antal chunkar) och Q&A skalar med hur många frågor du besvarar per dag. Om dina dokument är stora och ändras konstant, budgetera för fler embeddings och mer lagring.

Är den här Drive PDF answers-automatiseringen bättre än att använda Zapier eller Make?

Ofta, ja. Den här uppsättningen bygger på chunkning av dokument, embeddings, vektorsökning och promptlogik, vilket blir klumpigt (och dyrt) i enklare automationsverktyg. n8n ger dig också möjlighet till egen hosting, så du inte betalar per ministeg när du skalar. Zapier eller Make kan fortfarande fungera för enkla flöden som ”skicka fil någonstans”, men RAG-liknande supportsvar är där n8n känns mer naturligt. Om du är osäker, prata med en automationsexpert så stresstestar vi ditt use case.

När dina Drive-PDF:er kan svara på frågor vid begäran slutar support vara ett konstant avbrott. Sätt upp det en gång, håll dokumenten aktuella och låt arbetsflödet hantera det repetitiva.

Kontakta oss

Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.

×

Använd mall

Få direkt tillgång till denna n8n-arbetsflödes JSON-fil

Launch login modal Launch register modal