Behöver ert företag hjälp med att implementera AI? Kontakta oss och få prisoffert här →
AI Skolan
januari 22, 2026

Google Drive till Supabase: en levande kunskapsbas

Rickard Andersson Partner, Nodenordic.se

Er ”kunskapsbank” är förmodligen en mapp. Kanske tre. Och varje gång någon frågar ”var finns senaste versionen?” tappar du ännu en del av dagen på att leta, gissa och skicka länkar igen.

Det är här Drive Supabase automation snabbt lönar sig. Marketing Ops tröttnar på att svara på samma kampanjfrågor om och om igen. People Ops och kundnära konsulter märker direkt när policys, prissättning och processdokument glider isär. Ärligt talat är den största kostnaden förtroende: folk slutar lita på dokumentationen.

Det här flödet gör om Google Drive-filer till felfria, sökbara poster i Supabase och gör dem sedan användbara för frågor och svar senare. Du får se hur inläsningen fungerar, vad som lagras och vad du behöver se upp med när du anpassar det för ditt team.

Så fungerar automatiseringen

Här är hela arbetsflödet du kommer att sätta upp:

n8n Workflow Template: Google Drive till Supabase: en levande kunskapsbas

Varför detta spelar roll: Drive-dokument blir snabbt ”osökbara”

Google Drive är bra för lagring, men en tuff plats att driva verksamhet från. Filerna blir fler, namn återanvänds och ”final_final_v3”-problemet försvinner aldrig riktigt. När någon behöver ett svar pingar de antingen den enda personen som ”vet var det ligger” eller skummar en PDF och hoppas att de inte missade nyckelraden. Visst, det slösar tid, men den större frågan är avdrift: dokumentet du hittar är inte alltid dokumentet du ska lita på.

Det summeras snabbt. Här är var det fallerar i vardagen:

  • Folk slösar cirka 10 minuter per fråga på att söka, öppna och skanna filer.
  • Dubbletter och ”uppdaterade” versioner ligger sida vid sida, så team citerar gamla policys eller priser.
  • Kalkylblad är användbara, men Drive-sök förstår inte rader, filter eller innebörd.
  • Manuell kurering skalar aldrig, så kunskapsbanken blir långsamt ”frivillig läsning”.

Vad du bygger: Google Drive → Supabase för kunskapsinläsning

Det här flödet bevakar en Google Drive-mapp efter nya filer (och kan utökas för att även hantera uppdateringar). När en fil dyker upp hämtar det korrekt formaterad metadata som fil-ID, namn, typ och Drive-länk, och kontrollerar sedan i Supabase om filen redan har processats. Om det är en dubblett tar det först bort det äldre extraherade innehållet på ett säkert sätt, så att du inte får motstridiga versioner i sökresultat. Därefter routar det efter filtyp: PDF, DOC/DOCX, TXT och RTF konverteras till text, delas upp i läsbara sektioner och embedas för vektorsök. Kalkylblad och CSV-liknande data extraheras till strukturerade rader för senare uppslag.

Flödet startar med en Google Drive-trigger och itererar igenom inkommande filer i batcher. Sedan validerar det format, hanterar dubbletter, extraherar innehåll och skriver allt till Supabase-tabeller (documents, document_rows, metadata och logs). Till sist kan det avisera dig via Gmail när dubbletter eller fel inträffar, så att du inte felsöker i det tysta.

Vad du bygger

Förväntade resultat

Säg att teamet laddar upp cirka 20 dokument i veckan (policys, playbooks, kundbriefar) och att varje dokument triggar 2–3 ”kan du peka mig till …?”-frågor. Om varje fråga kostar cirka 10 minuter av sökande och fram-och-tillbaka blir det ungefär 6–10 timmar uppmärksamhet som brinner varje vecka. Med det här flödet sker inläsningen automatiskt efter uppladdning och innehållet lagras i Supabase redo för sök och chatt, så den mänskliga tiden sjunker till nära noll förutom enstaka undantag. Du väntar fortfarande på bearbetning, men du gör inte jobbet.

Innan du börjar

  • n8n-instans (testa n8n Cloud gratis)
  • Självhostningsalternativ om du föredrar det (Hostinger fungerar bra)
  • Google Drive för att övervaka en mapp efter nya/uppdaterade filer.
  • Supabase för att lagra dokument, rader, metadata och loggar.
  • OpenAI API-nyckel (hämta den från din OpenAI API-dashboard)

Svårighetsgrad: Medel. Du kopplar konton, skapar några Supabase-tabeller/funktioner och testar med ett par riktiga filer.

Vill du att någon bygger detta åt dig? Prata med en automatiseringsexpert (gratis 15-minuters konsultation).

Steg för steg

En fil hamnar i Google Drive. Flödet triggas när en fil skapas i Drive (och det finns en valfri trigger för uppdaterade filer om du kopplar in den igen). Filer processas i batcher, så en upptagen mapp inte överbelastar din uppsättning.

Metadata normaliseras och kontrolleras. n8n plockar ut fil-ID, filnamn, MIME-typ och visningslänk och validerar sedan att formatet stöds. Därefter frågar det Supabase om fil-ID:t redan har lästs in.

Dubbletter hanteras innan ny data skrivs. Om filen redan har processats raderar flödet det tidigare extraherade innehållet (textchunkar i documents och/eller rader i document_rows) så att sökresultaten inte blandar versioner. Det kan också logga dubbletten och skicka en Gmail-avisering om du vill ha insyn.

Innehåll extraheras, delas upp och lagras. Textbaserade filer (PDF, DOC/DOCX, RTF, TXT) laddas ner från Drive, konverteras till ren text, delas upp i chunkar, embedas med OpenAI och läggs in i ett Supabase-vektorlager. Tabellära filer (XLSX/CSV/Sheets-liknande data) extraheras till strukturerade rader och läggs in i Supabase för senare filtrering och visning.

Du kan enkelt ändra vilken Drive-mapp som övervakas och var posterna hamnar i Supabase utifrån dina behov. Se den fullständiga implementationsguiden nedan för anpassningsalternativ.

Steg-för-steg-guide för implementering

Steg 1: konfigurera Google Drive-triggers

Konfigurera Drive-baserade triggers så att arbetsflödet startar när nya eller uppdaterade filer kommer in, och håll chattens ingångspunkt redo för frågehantering.

  1. Öppna New File Trigger och konfigurera inställningarna för Drive-filhändelser som krävs för att ta in nya filer.
  2. Öppna File Update Trigger och konfigurera inställningarna för Drive-filhändelser för uppdateringar av befintliga filer.
  3. Öppna Chat Message Trigger för att bekräfta att chatt-endpointen är aktiverad för användning längre fram med Map Chat Fields.

Credential Required: Anslut era Google Drive-inloggningsuppgifter i New File Trigger och File Update Trigger innan ni testar.

Steg 2: anslut hämtning från Google Drive och batch-styrning

Definiera hur varje triggerhändelse batchas, valideras och kopplas ihop med pipelinen för att hämta filer från Drive.

  1. I Batch Iterator ställer ni in batchstorlek och iterationsinställningar för att styra genomströmningen från triggers.
  2. I Assign File Identifier mappar ni fält från triggern till en konsekvent filidentifierare som senare används av Validate Incoming File.
  3. I Validate Incoming File definierar ni villkorslogiken som används för att tillåta eller avvisa inkommande filer innan dubblettkontrollen.
  4. Öppna Retrieve Drive File och bekräfta att den hämtar hela filinnehållet som krävs av Route by File Type.

Credential Required: Anslut era Google Drive-inloggningsuppgifter i Retrieve Drive File.

Steg 3: konfigurera filparsning och routning

Routa varje fil till rätt parser och säkerställ att innehållet skickas vidare till aggregering och indexering vid behov.

  1. I Route by File Type konfigurerar ni switch-regler för att styra filer till Parse PDF Content, Parse TXT Content, Parse CSV Data, Parse XLSX Data, Parse RTF Text och Parse DOC Content.
  2. Bekräfta att Parse CSV Data skickar output till både Combine Records och Insert Data Rows parallellt.
  3. Bekräfta att Parse XLSX Data skickar output till både Combine Records och Insert Data Rows parallellt.
  4. Gå igenom varje extractFromFile-nod (sex totalt) för att säkerställa att rätt parserinställningar är aktiverade för varje format.

⚠️ Vanlig fallgrop: Om Route by File Type inte matchar filändelsen kommer filen inte att nå en parser eller indexerare längre fram.

Steg 4: konfigurera summering och vektorindexering

Summera strukturerade poster, skapa embeddings och indexera innehåll i Supabase för hämtning.

  1. I Combine Records aggregerar ni parsad data till en struktur som passar för Generate Summary.
  2. I Generate Summary konfigurerar ni summeringsutdata för indexering längre fram och för schemaskrivning.
  3. Generate Summary skickar output till både Supabase Vector Index och Assign Schema Fields parallellt – bekräfta att båda vägarna är anslutna.
  4. I Assign Schema Fields mappar ni dokumentets metadatafält som krävs av Write Document Schema.
  5. Öppna Supabase Vector Index och anslut OpenAI Embedding Builder, Default Document Loader och Character Text Chunker för chunking och embedding innan indexering.

Credential Required: Anslut era Supabase-inloggningsuppgifter i Supabase Vector Index och Write Document Schema.

Credential Required: Anslut era OpenAI-inloggningsuppgifter på föräldranoden Supabase Vector Index för OpenAI Embedding Builder.

Steg 5: konfigurera dubbletthantering och datalagring

Identifiera dubblettfiler, rensa gamla poster och spara filmetadata och rader i Postgres och Supabase.

  1. I Duplicate Lookup konfigurerar ni SQL-frågan som används för att upptäcka befintliga filidentifierare.
  2. I Duplicate Branch Check definierar ni true/false-vägarna för dubbletthantering och innehållsuppdatering.
  3. Använd Inspect File Identifier och Remove Previous Document för att hitta och radera tidigare poster innan ni tar in filen igen.
  4. I Purge Old Data Rows konfigurerar ni Supabase-logiken för delete innan Insert File Metadata körs.
  5. Konfigurera Insert File Metadata, Insert Data Rows och Write Document Schema för att spara filposter och parsad data.

Credential Required: Anslut era Postgres-inloggningsuppgifter i Duplicate Lookup, Insert File Metadata, Insert Data Rows och Write Document Schema.

Credential Required: Anslut era Supabase-inloggningsuppgifter i Remove Previous Document och Purge Old Data Rows.

Steg 6: konfigurera kunskapsagenten och verktyg för hämtning

Aktivera chattagenten så att den kan besvara frågor med hjälp av vektorindexet och verktyg för hämtning från Postgres.

  1. I Map Chat Fields mappar ni fälten i chatpayloaden som behövs av Knowledge Agent.
  2. Öppna Knowledge Agent och bekräfta att anslutningen till språkmodellen från OpenAI Chat Engine är kopplad.
  3. Koppla verktygen Retrieve Document List, Fetch Document Rows och Fetch Full Document Text till Knowledge Agent.
  4. Koppla minnet Postgres Conversation Memory till Knowledge Agent för kontinuitet i konversationen.
  5. I Supabase Vector Index 2 bekräftar ni att OpenAI Embedding Builder 2 är ansluten för hämtning vid chatttillfället.

Credential Required: Anslut era OpenAI-inloggningsuppgifter i OpenAI Chat Engine för språkmodellen.

Credential Required: Lägg till era Postgres-inloggningsuppgifter på föräldranoden Knowledge Agent för Retrieve Document List, Fetch Document Rows, Fetch Full Document Text och Postgres Conversation Memory.

Credential Required: Anslut era Supabase- och OpenAI-inloggningsuppgifter på föräldranoden Supabase Vector Index 2 för OpenAI Embedding Builder 2.

Steg 7: konfigurera notifieringar och felloggning

Logga fel och dubbletter och notifiera sedan intressenter via e-post.

  1. I Assign Error Category mappar ni feldetaljer för loggning i Record Error Log.
  2. Konfigurera Record Error Log så att den lagrar feldata i Supabase innan Error Email Alert skickas.
  3. Konfigurera Store Duplicate Log och verifiera att den triggar Duplicate Email Alert när Duplicate Branch Check identifierar dubbletter.

Credential Required: Anslut era Supabase-inloggningsuppgifter i Record Error Log och Store Duplicate Log.

Credential Required: Anslut era Gmail-inloggningsuppgifter i Error Email Alert och Duplicate Email Alert.

Steg 8: testa och aktivera ert arbetsflöde

Kör kontrollerade tester för att validera inläsning, indexering och chathämtning innan ni slår på arbetsflödet.

  1. Kör New File Trigger manuellt med en exempelfil och bekräfta att den passerar Batch Iterator, Retrieve Drive File och rätt parsernod.
  2. Verifiera att Generate Summary skickar output till både Supabase Vector Index och Assign Schema Fields parallellt.
  3. Kontrollera tabeller i Supabase och Postgres för att bekräfta att poster skrevs av Write Document Schema, Insert File Metadata och Insert Data Rows.
  4. Skicka ett testmeddelande i chatten till Chat Message Trigger och bekräfta att Knowledge Agent svarar med hjälp av indexerat innehåll.
  5. När testerna lyckas, växla arbetsflödet till Active i n8n för att aktivera kontinuerlig inläsning.
🔒

Lås upp fullständig steg-för-steg-guide

Få den kompletta implementeringsguiden + nedladdningsbar mall

Felsökningstips

  • Google Drive-inloggningar kan löpa ut eller sakna mappåtkomst. Om filer inte triggar: kontrollera Google OAuth-kopplingen i n8n och bekräfta att rätt mapp-ID övervakas.
  • Om du läser in stora PDF:er eller många filer samtidigt varierar bearbetningstiderna. Öka batchstorleken försiktigt och lägg till/förläng väntetider om nedströmsnoder ibland kör innan innehållsextraktionen är klar.
  • OpenAI-embeddings och sammanfattningar beror på prompts och chunkning. Om resultatet känns generiskt eller rörigt: justera chunkstorlek/överlapp och lägg in en varumärkes- eller företagsspecifik sammanfattningsprompt tidigt.

Snabba svar

Hur lång tid tar det att sätta upp den här Drive Supabase-automatiseringen?

Räkna med cirka 60–90 minuter om Supabase-tabellerna är klara.

Krävs kodning för att automatisera inläsning till kunskapsbanken?

Nej. Du kan köra det genom att koppla konton och redigera några fält i n8n. Den enda ”kodlika” delen är att kopiera en Supabase-funktion för vektorsök, och du kan använda den medföljande snutten som den är.

Är n8n gratis att använda för det här Drive Supabase-automatiseringsflödet?

Ja. n8n har ett gratis självhostat alternativ och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna med kostnader för OpenAI API (embeddings kostar oftast ören per dokument, beroende på storlek).

Var kan jag hosta n8n för att köra den här automatiseringen?

Två alternativ: n8n Cloud (hanterat, enklast uppsättning) eller självhostning på en VPS. För självhostning är Hostinger VPS prisvärd och hanterar n8n bra. Självhostning ger dig obegränsade körningar men kräver grundläggande serverhantering.

Kan jag anpassa det här Drive Supabase-automatiseringsflödet för andra use case?

Ja, och det bör du förmodligen. Du kan peka Google Drive-triggern mot specifika mappar (HR, Sales, Ops) och sedan justera logiken ”Route by File Type” för att stödja fler format. Vanliga justeringar är att ändra chunkstorlek i text-splittern, byta embedding-modell i OpenAI-embedding-noden och skriva extra metadatafält (avdelning, konfidentialitetsnivå) till Supabase-tabellen documents.

Varför misslyckas min Google Drive-anslutning i det här flödet?

Oftast är det ett OAuth-behörighetsproblem eller att mappen inte är delad med det anslutna Google-kontot. Återanslut Google Drive i n8n och bekräfta sedan att triggern övervakar rätt mapp och att filhändelser faktiskt triggas på den Drive-platsen. Om nedladdningar misslyckas mitt i körningen: kontrollera även filstorlek och rate limits.

Vilken volym kan det här Drive Supabase-automatiseringsflödet hantera?

På en typisk n8n Cloud-plan klarar du dig fint för små team (hundratals till några tusen filinläsningar per månad). Om du självhostar finns ingen körningsgräns, så genomströmningen beror främst på din server och hur tunga filerna är. Stora PDF:er och stora kalkylblad tar längre tid eftersom extraktion och embeddings är den långsamma delen. Om du förväntar dig toppar (som att migrera ett helt Drive), kör i batcher och schemalägg inläsning utanför kontorstid.

Är den här Drive Supabase-automatiseringen bättre än att använda Zapier eller Make?

För det här use caset: oftast ja. Du behöver förgrening efter filtyp, dubbletthantering och dokument-chunkning/embeddings, vilket n8n hanterar utan att tvinga dig till massor av separata zaps/scenarier. Självhostning är också en stor grej när du börjar bearbeta många filer. Zapier eller Make kan fortfarande fungera för enklare flöden av typen ”uppladdning → databasrad”, men de blir dyra och klumpiga när du lägger till AI och vektorsök. Vill du ha en snabb rekommendation utifrån din volym och dina verktyg: Prata med en automatiseringsexpert.

När detta väl rullar slutar Drive vara en labyrint och blir en pipeline. Er kunskapsbank hålls aktuell eftersom uppdateringar inte hänger på att någon kommer ihåg att ”gå och fixa wikin”.

Kontakta oss

Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.

×

Använd mall

Få direkt tillgång till denna n8n-arbetsflödes JSON-fil

Launch login modal Launch register modal