Behöver ert företag hjälp med att implementera AI? Kontakta oss och få prisoffert här →
AI Skolan
januari 22, 2026

Google Drive + OpenAI: hitta bilder snabbt

Rickard Andersson Partner, Nodenordic.se

Ditt team har filen. Du kan bara inte hitta den. Den ligger begravd i Google Drive med ett namn som ”IMG_4829” och fem nästan identiska varianter i samma mapp.

Marknadschefer känner igen det här när de har bråttom att plocka fram ”rätt” produktbild till en kampanj. Innehållsskapare stöter på det mitt i redigeringen. Och ops-teamet dras in när någon laddar upp ett foto som redan finns. Den här automatiseringen för Drive image search städar upp genom att göra bilder sökbara utifrån vad som faktiskt finns i dem.

Du sätter upp ett n8n-flöde som laddar ner bilder från Google Drive, genererar nyckelord och beskrivningar med OpenAI och lagrar metadatan i ett vektorindex så att du kan söka på intention i stället för filnamn.

Så fungerar den här automatiseringen

Här är hela arbetsflödet som du kommer att sätta upp:

n8n Workflow Template: Google Drive + OpenAI: hitta bilder snabbt

Varför det här spelar roll: att hitta bilder ska inte kännas som en skattjakt

De flesta team har inget ”bildbibliotek”. De har en Drive-mapp som har vuxit okontrollerat över tid. Filnamn kommer från mobiler, designers exporterar med egna namngivningsregler och ingen lägger in konsekventa beskrivningar. Så när du behöver ”en glad kund som håller produkten utomhus” börjar du skrolla. Sedan skrollar du mer. Någon ger upp, tar fel tillgång eller laddar upp en ny version som skapar ännu mer röra. Det är inte bara förlorad tid. Det är tappat momentum, försenade godkännanden och sämre kreativ kvalitet eftersom ni nöjer er med det som går att hitta snabbt.

Det blir snabbt mycket. Här är var det faller isär i verkligheten.

  • Sökning på filnamn misslyckas eftersom filnamnet sällan beskriver bildinnehållet.
  • Team slösar cirka 10 minuter på att leta per begäran, och det händer flera gånger per dag.
  • Dubbletter smyger sig in eftersom folk laddar upp på nytt det de inte hittar, vilket gör nästa sökning ännu långsammare.
  • Äldre tillgångar blir i praktiken ”försvunna”, så ni fortsätter betala för att återskapa foton ni redan äger.

Det du bygger: Google Drive-bilder omvandlade till sökbar metadata

Det här flödet hämtar en bild från Google Drive och skapar ett kompakt ”dokument” som beskriver den på enkel engelska. Det bygger inte på att människor taggar något. Först laddar flödet ner filen, sedan bearbetar det bilden för att hämta färgdetaljer och skalar den till en konsekvent storlek för analys. Därefter genererar en vision-kapabel OpenAI-modell en kort beskrivning plus semantiska nyckelord (de ord du faktiskt skulle söka på). De AI-insikterna slås ihop med filens befintliga metadata, konverteras sedan till en embedding och läggs in i ett vektorindex i minnet. Därifrån kan du fråga vektorlagret som en kunskapsbas och få tillbaka de mest relevanta bildreferenserna baserat på innebörd, inte exakta ord.

Flödet startar med en manuell körning (bra för test) och laddar ner en Drive-bild. OpenAI genererar nyckelord och en beskrivning medan n8n också fångar färginformation. Till sist kombineras allt till ett enda embedding-dokument och lagras så att framtida sökningar snabbt ger rätt bild.

Det du bygger

Förväntade resultat

Säg att ditt team hämtar bilder från Drive ungefär 15 gånger i veckan för annonser, mejl och sociala medier. Manuell ”snabbsökning” tar ofta 10 minuter, så ni bränner ungefär 2 till 3 timmar i veckan bara på att leta. Med det här flödet är inläsning av en ny bild i stort sett hands-off: cirka en minut att köra (eller köra i batch), sedan en kort väntan medan OpenAI genererar nyckelord och embedding lagras. Därefter tar frågor sekunder, eftersom du söker på innebörd, inte filnamn.

Innan du börjar

  • n8n-instans (prova n8n Cloud gratis)
  • Alternativ för egen hosting om du föredrar det (Hostinger fungerar bra)
  • Google Drive för att lagra och ladda ner bildfiler.
  • OpenAI för att generera vision-nyckelord och embeddings.
  • OpenAI API-nyckel (hämta den i din OpenAI-dashboard).

Svårighetsgrad: Medel. Du kopplar Google- och OpenAI-konton och justerar sedan ett par noder för att matcha var dina bilder ligger.

Vill du att någon bygger detta åt dig? Prata med en automationsexpert (gratis 15-minuters konsultation).

Steg för steg

En fil väljs och hämtas från Google Drive. I den här mallen startas det med en Manual Run Trigger så att du kan testa säkert, och sedan hämtar noden ”Drive File Download” bilden.

Bilden standardiseras och analyseras. n8n skalar bildstorleken (så att efterföljande analys blir konsekvent) och extraherar färgdetaljer, som blir en del av metadatan du senare kan söka i.

OpenAI skapar taggar baserade på innebörd. En vision-kapabel modell tittar på bilden och returnerar en kort beskrivning plus semantiska nyckelord, den typen du skriver när du inte minns filnamnet.

Allt slås ihop och lagras för återhämtning. Flödet slår ihop de visuella insikterna, förbereder ett ”embedding-dokument” och lägger in det i ett vektorindex i minnet så att likhetssökningar returnerar rätt bildreferenser.

Du kan enkelt ändra valet av Drive-mapp för att köra batch på hela mappar i stället för enskilda filer, beroende på behov. Se hela implementationsguiden nedan för anpassningsalternativ.

Steg-för-steg-implementeringsguide

Steg 1: konfigurera triggern för manuell körning

Starta arbetsflödet med en manuell trigger så att ni kan testa bildbearbetning och embeddings vid behov.

  1. Lägg till Manual Run Trigger som arbetsflödets startpunkt.
  2. Koppla Manual Run Trigger till Drive File Download enligt exekveringsflödet.

Steg 2: anslut Google Drive

Ladda ner källbilden från Google Drive så att den kan analyseras och bäddas in.

  1. Lägg till Drive File Download och ställ in Operationdownload.
  2. Ställ in File till Drive-filens ID (exempel: [YOUR_ID]).
  3. Referens krävs: anslut era googleDriveOAuth2Api-credentials.

Steg 3: bearbeta bilden parallellt

Dela upp arbetsflödet för att extrahera färgdetaljer och ändra bildstorleken parallellt innan ni genererar nyckelord.

  1. Koppla Drive File Download parallellt till både Extract Color Details och Scale Image Size.
  2. I Extract Color Details, ställ in Operationinformation.
  3. I Scale Image Size, ställ in Operationresize, Width till 512, Height till 512 och Resize Option till onlyIfLarger.
  4. Koppla Scale Image Size till Generate Image Keywords.
  5. I Generate Image Keywords, ställ in Resourceimage, Input Typebase64, Operationanalyze och Modelgpt-4o.
  6. Ställ in Text till Extract all possible semantic keywords which describe the image. Be comprehensive and be sure to identify subjects (if applicable) such as biological and non-biological objects, lightning, mood, tone, color, special effects, camera and/or techniques used if known. Respond with a comma-separated list.
  7. Referens krävs: anslut era openAiApi-credentials.

Drive File Download skickar utdata parallellt till både Extract Color Details och Scale Image Size.

Steg 4: slå ihop insikter och förbered data för embedding

Kombinera färgdata och nyckelord och strukturera sedan ett dokument för embedding och vektorinfogning.

  1. Koppla Extract Color Details och Generate Image Keywords till Merge Image Insights.
  2. I Merge Image Insights, ställ in Modecombine och Combination ModemergeByPosition.
  3. Koppla Merge Image Insights till Prepare Embedding Document.
  4. I Prepare Embedding Document, lägg till ett data-fält med värdet =## keywords\n\n{{ $json.content }}\n\n## color information:\n\n{{ JSON.stringify($json["Channel Statistics"]) }}.
  5. I Prepare Embedding Document, lägg till ett metadata-objekt med värdet ={ "format": "{{ $json.format }}", "backgroundColor": "{{ $json["Background Color"] }}", "source": "{{ $binary.data.fileName }}" }.
  6. Koppla Prepare Embedding Document till In-Memory Vector Indexmain-utgången.

Steg 5: konfigurera embeddings och vektorindexering

Konvertera det förberedda dokumentet till embeddings, dela upp text för indexering och infoga vektorer i minnet.

  1. Koppla Recursive Text Splitter till Standard Data Loader via ai_textSplitter-kopplingen.
  2. I Standard Data Loader, ställ in metadatavärden till ={{ $('Prepare Embedding Document').item.json.metadata.source }}, ={{ $('Prepare Embedding Document').item.json.metadata.format }} och ={{ $('Prepare Embedding Document').item.json.metadata.backgroundColor }}.
  3. Koppla Standard Data Loader till In-Memory Vector Index via ai_document-kopplingen.
  4. Ställ in In-Memory Vector Index till Mode insert och Memory Key till image_embeddings.
  5. Koppla OpenAI Embeddings Insert till In-Memory Vector Index via ai_embedding-kopplingen.
  6. Referens krävs: anslut era openAiApi-credentials för OpenAI Embeddings Insert.

OpenAI-embeddings används för vektorinfogning; säkerställ att credentials är applicerade på OpenAI Embeddings Insert.

Steg 6: konfigurera likhetssökning

Sök i vektorindexet efter liknande bilder med hjälp av en textprompt.

  1. Koppla OpenAI Embeddings Search till Image Similarity Lookup via ai_embedding-kopplingen.
  2. I Image Similarity Lookup, ställ in Mode till load, Prompt till student having fun och Memory Key till image_embeddings.
  3. Referens krävs: anslut era openAiApi-credentials för OpenAI Embeddings Search.

OpenAI-embeddings används för sökning; säkerställ att credentials är applicerade på OpenAI Embeddings Search.

Steg 7: testa och aktivera ert arbetsflöde

Validera att bildbearbetning, embeddings och likhetsuppslag fungerar end-to-end.

  1. Klicka på Execute Workflow och kör Manual Run Trigger för att testa flödet.
  2. Bekräfta att Drive File Download returnerar binär bilddata och att Generate Image Keywords matar ut en kommaseparerad lista med nyckelord.
  3. Verifiera att Prepare Embedding Document skapar fälten data och metadata, och att In-Memory Vector Index visar infogade embeddings under image_embeddings.
  4. Kontrollera att Image Similarity Lookup returnerar matchande resultat för prompten.
  5. När ni är nöjda, aktivera arbetsflödet så att det är redo för produktionsanvändning.
🔒

Lås upp fullständig steg-för-steg-guide

Få den kompletta implementeringsguiden + nedladdningsbar mall

Felsökningstips

  • Google Drive-inloggningar kan löpa ut eller kräva specifika behörigheter. Om det skapar fel, kontrollera Google-kopplingen i n8n under Credentials först.
  • Om du använder Wait-noder eller extern rendering varierar behandlingstider. Öka väntetiden om efterföljande noder misslyckas på grund av tomma svar.
  • Standardprompter i AI-noder är generiska. Lägg in er tonalitet tidigt, annars kommer du redigera utdata för alltid.

Snabba svar

Hur lång tid tar det att sätta upp den här automatiseringen för Drive image search?

Cirka 30 minuter om dina Google Drive- och OpenAI-konton är redo.

Krävs kodning för den här Drive image search?

Nej. Du kopplar främst konton och justerar vilka Drive-filer du läser in.

Är n8n gratis att använda för det här arbetsflödet för Drive image search?

Ja. n8n har ett gratis alternativ för egen hosting och en gratis provperiod i n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver även räkna med OpenAI API-kostnader för vision och embeddings, vilket för de flesta små bibliotek brukar landa på några dollar i månaden.

Var kan jag hosta n8n för att köra den här automatiseringen?

Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller egen hosting på en VPS. För egen hosting är Hostinger VPS prisvärd och hanterar n8n bra. Egen hosting ger obegränsat antal körningar men kräver grundläggande serveradministration.

Kan jag anpassa det här arbetsflödet för Drive image search för andra användningsfall?

Ja, och det bör du. Du kan byta ut noden ”Drive File Download” mot en mappbaserad väljare för att läsa in i batch, och du kan justera ”Generate Image Keywords” så att den returnerar ditt föredragna taggformat (produkt-SKU, kampanjnamn, plats, säsong). Om du växer ur det inbyggda ”In-Memory Vector Index” ersätter du det med en persistent vektordatabas men behåller samma struktur för ”Prepare Embedding Document”.

Varför misslyckas min Google Drive-anslutning i det här flödet?

Oftast beror det på utgångna OAuth-inloggningar eller saknade Drive-behörigheter på det anslutna Google-kontot. Anslut Google Drive på nytt i n8n och bekräfta sedan att filen är åtkomlig för det kontot (delade enheter kan vara knepiga). Om det bara misslyckas för vissa filer beror det ofta på att flödet försöker ladda ner en filtyp som ditt steg ”Edit Image” inte kan tolka, så filtrera på bild-MIME-typer först.

Vilken volym kan det här arbetsflödet för Drive image search hantera?

Om du kör egen hosting finns ingen körningsgräns (det beror främst på din server och OpenAI:s rate limits). I n8n Cloud beror volymen på din plans månadsvisa körningar, och de flesta team börjar bekvämt på Starter. I praktiken är det här flödet bäst att köra i batch (för initial indexering) och sedan på nya uppladdningar framåt.

Är den här automatiseringen för Drive image search bättre än att använda Zapier eller Make?

Ofta, ja. Det här flödet flyttar inte bara data från A till B; det gör flerledsbehandling (bildförberedelse, AI-vision-utdata, sammanslagning, embeddings och likhetssökning). n8n hanterar förgrening och rikare logik utan att tvinga in dig i dyr task-prissättning för varje litet steg. Du får också en realistisk väg för egen hosting om du indexerar många bilder. Zapier eller Make kan fortfarande vara bra för enkla flöden som ”ny fil → skicka notis”. För semantisk sökning och embeddings brukar n8n passa bättre. Prata med en automationsexpert om du är osäker på vad som passar.

När dina bilder blir sökbara på innebörd slutar Google Drive vara en skräplåda. Flödet sköter den repetitiva taggningen så att du bara kan hitta rätt kreativa material och gå vidare.

Kontakta oss

Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.

×

Använd mall

Få direkt tillgång till denna n8n-arbetsflödes JSON-fil

Launch login modal Launch register modal