Ditt team har filen. Du kan bara inte hitta den. Den ligger begravd i Google Drive med ett namn som ”IMG_4829” och fem nästan identiska varianter i samma mapp.
Marknadschefer känner igen det här när de har bråttom att plocka fram ”rätt” produktbild till en kampanj. Innehållsskapare stöter på det mitt i redigeringen. Och ops-teamet dras in när någon laddar upp ett foto som redan finns. Den här automatiseringen för Drive image search städar upp genom att göra bilder sökbara utifrån vad som faktiskt finns i dem.
Du sätter upp ett n8n-flöde som laddar ner bilder från Google Drive, genererar nyckelord och beskrivningar med OpenAI och lagrar metadatan i ett vektorindex så att du kan söka på intention i stället för filnamn.
Så fungerar den här automatiseringen
Här är hela arbetsflödet som du kommer att sätta upp:
n8n Workflow Template: Google Drive + OpenAI: hitta bilder snabbt
flowchart LR
subgraph sg0["When clicking "Test workflow" Flow"]
direction LR
n0@{ icon: "mdi:play-circle", form: "rounded", label: "When clicking 'Test workflow'", pos: "b", h: 48 }
n1@{ icon: "mdi:cog", form: "rounded", label: "Google Drive", pos: "b", h: 48 }
n2@{ icon: "mdi:cog", form: "rounded", label: "Get Color Information", pos: "b", h: 48 }
n3@{ icon: "mdi:cog", form: "rounded", label: "Resize Image", pos: "b", h: 48 }
n4@{ icon: "mdi:robot", form: "rounded", label: "Default Data Loader", pos: "b", h: 48 }
n5@{ icon: "mdi:robot", form: "rounded", label: "Recursive Character Text Spl..", pos: "b", h: 48 }
n6["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/merge.svg' width='40' height='40' /></div><br/>Combine Image Analysis"]
n7@{ icon: "mdi:swap-vertical", form: "rounded", label: "Document for Embedding", pos: "b", h: 48 }
n9@{ icon: "mdi:memory", form: "rounded", label: "In-Memory Vector Store", pos: "b", h: 48 }
n10@{ icon: "mdi:vector-polygon", form: "rounded", label: "Embeddings OpenAI", pos: "b", h: 48 }
n12@{ icon: "mdi:robot", form: "rounded", label: "Get Image Keywords", pos: "b", h: 48 }
n1 --> n2
n1 --> n3
n3 --> n12
n10 -.-> n9
n12 --> n6
n4 -.-> n9
n2 --> n6
n6 --> n7
n7 --> n9
n0 --> n1
n5 -.-> n4
end
subgraph sg1["Embeddings OpenAI1 Flow"]
direction LR
n8@{ icon: "mdi:vector-polygon", form: "rounded", label: "Embeddings OpenAI1", pos: "b", h: 48 }
n11@{ icon: "mdi:memory", form: "rounded", label: "Search for Image", pos: "b", h: 48 }
n8 -.-> n11
end
%% Styling
classDef trigger fill:#e8f5e9,stroke:#388e3c,stroke-width:2px
classDef ai fill:#e3f2fd,stroke:#1976d2,stroke-width:2px
classDef aiModel fill:#e8eaf6,stroke:#3f51b5,stroke-width:2px
classDef decision fill:#fff8e1,stroke:#f9a825,stroke-width:2px
classDef database fill:#fce4ec,stroke:#c2185b,stroke-width:2px
classDef api fill:#fff3e0,stroke:#e65100,stroke-width:2px
classDef code fill:#f3e5f5,stroke:#7b1fa2,stroke-width:2px
classDef disabled stroke-dasharray: 5 5,opacity: 0.5
class n0 trigger
class n4,n5,n12 ai
class n9,n11 ai
class n10,n8 ai
classDef customIcon fill:none,stroke:none
class n6 customIcon
Varför det här spelar roll: att hitta bilder ska inte kännas som en skattjakt
De flesta team har inget ”bildbibliotek”. De har en Drive-mapp som har vuxit okontrollerat över tid. Filnamn kommer från mobiler, designers exporterar med egna namngivningsregler och ingen lägger in konsekventa beskrivningar. Så när du behöver ”en glad kund som håller produkten utomhus” börjar du skrolla. Sedan skrollar du mer. Någon ger upp, tar fel tillgång eller laddar upp en ny version som skapar ännu mer röra. Det är inte bara förlorad tid. Det är tappat momentum, försenade godkännanden och sämre kreativ kvalitet eftersom ni nöjer er med det som går att hitta snabbt.
Det blir snabbt mycket. Här är var det faller isär i verkligheten.
- Sökning på filnamn misslyckas eftersom filnamnet sällan beskriver bildinnehållet.
- Team slösar cirka 10 minuter på att leta per begäran, och det händer flera gånger per dag.
- Dubbletter smyger sig in eftersom folk laddar upp på nytt det de inte hittar, vilket gör nästa sökning ännu långsammare.
- Äldre tillgångar blir i praktiken ”försvunna”, så ni fortsätter betala för att återskapa foton ni redan äger.
Det du bygger: Google Drive-bilder omvandlade till sökbar metadata
Det här flödet hämtar en bild från Google Drive och skapar ett kompakt ”dokument” som beskriver den på enkel engelska. Det bygger inte på att människor taggar något. Först laddar flödet ner filen, sedan bearbetar det bilden för att hämta färgdetaljer och skalar den till en konsekvent storlek för analys. Därefter genererar en vision-kapabel OpenAI-modell en kort beskrivning plus semantiska nyckelord (de ord du faktiskt skulle söka på). De AI-insikterna slås ihop med filens befintliga metadata, konverteras sedan till en embedding och läggs in i ett vektorindex i minnet. Därifrån kan du fråga vektorlagret som en kunskapsbas och få tillbaka de mest relevanta bildreferenserna baserat på innebörd, inte exakta ord.
Flödet startar med en manuell körning (bra för test) och laddar ner en Drive-bild. OpenAI genererar nyckelord och en beskrivning medan n8n också fångar färginformation. Till sist kombineras allt till ett enda embedding-dokument och lagras så att framtida sökningar snabbt ger rätt bild.
Det du bygger
| Det som automatiseras | Det du uppnår |
|---|---|
|
|
Förväntade resultat
Säg att ditt team hämtar bilder från Drive ungefär 15 gånger i veckan för annonser, mejl och sociala medier. Manuell ”snabbsökning” tar ofta 10 minuter, så ni bränner ungefär 2 till 3 timmar i veckan bara på att leta. Med det här flödet är inläsning av en ny bild i stort sett hands-off: cirka en minut att köra (eller köra i batch), sedan en kort väntan medan OpenAI genererar nyckelord och embedding lagras. Därefter tar frågor sekunder, eftersom du söker på innebörd, inte filnamn.
Innan du börjar
- n8n-instans (prova n8n Cloud gratis)
- Alternativ för egen hosting om du föredrar det (Hostinger fungerar bra)
- Google Drive för att lagra och ladda ner bildfiler.
- OpenAI för att generera vision-nyckelord och embeddings.
- OpenAI API-nyckel (hämta den i din OpenAI-dashboard).
Svårighetsgrad: Medel. Du kopplar Google- och OpenAI-konton och justerar sedan ett par noder för att matcha var dina bilder ligger.
Vill du att någon bygger detta åt dig? Prata med en automationsexpert (gratis 15-minuters konsultation).
Steg för steg
En fil väljs och hämtas från Google Drive. I den här mallen startas det med en Manual Run Trigger så att du kan testa säkert, och sedan hämtar noden ”Drive File Download” bilden.
Bilden standardiseras och analyseras. n8n skalar bildstorleken (så att efterföljande analys blir konsekvent) och extraherar färgdetaljer, som blir en del av metadatan du senare kan söka i.
OpenAI skapar taggar baserade på innebörd. En vision-kapabel modell tittar på bilden och returnerar en kort beskrivning plus semantiska nyckelord, den typen du skriver när du inte minns filnamnet.
Allt slås ihop och lagras för återhämtning. Flödet slår ihop de visuella insikterna, förbereder ett ”embedding-dokument” och lägger in det i ett vektorindex i minnet så att likhetssökningar returnerar rätt bildreferenser.
Du kan enkelt ändra valet av Drive-mapp för att köra batch på hela mappar i stället för enskilda filer, beroende på behov. Se hela implementationsguiden nedan för anpassningsalternativ.
Steg-för-steg-implementeringsguide
Steg 1: konfigurera triggern för manuell körning
Starta arbetsflödet med en manuell trigger så att ni kan testa bildbearbetning och embeddings vid behov.
- Lägg till Manual Run Trigger som arbetsflödets startpunkt.
- Koppla Manual Run Trigger till Drive File Download enligt exekveringsflödet.
Steg 2: anslut Google Drive
Ladda ner källbilden från Google Drive så att den kan analyseras och bäddas in.
- Lägg till Drive File Download och ställ in Operation på
download. - Ställ in File till Drive-filens ID (exempel:
[YOUR_ID]). - Referens krävs: anslut era googleDriveOAuth2Api-credentials.
Steg 3: bearbeta bilden parallellt
Dela upp arbetsflödet för att extrahera färgdetaljer och ändra bildstorleken parallellt innan ni genererar nyckelord.
- Koppla Drive File Download parallellt till både Extract Color Details och Scale Image Size.
- I Extract Color Details, ställ in Operation på
information. - I Scale Image Size, ställ in Operation på
resize, Width till512, Height till512och Resize Option tillonlyIfLarger. - Koppla Scale Image Size till Generate Image Keywords.
- I Generate Image Keywords, ställ in Resource på
image, Input Type påbase64, Operation påanalyzeoch Model pågpt-4o. - Ställ in Text till
Extract all possible semantic keywords which describe the image. Be comprehensive and be sure to identify subjects (if applicable) such as biological and non-biological objects, lightning, mood, tone, color, special effects, camera and/or techniques used if known. Respond with a comma-separated list. - Referens krävs: anslut era openAiApi-credentials.
Drive File Download skickar utdata parallellt till både Extract Color Details och Scale Image Size.
Steg 4: slå ihop insikter och förbered data för embedding
Kombinera färgdata och nyckelord och strukturera sedan ett dokument för embedding och vektorinfogning.
- Koppla Extract Color Details och Generate Image Keywords till Merge Image Insights.
- I Merge Image Insights, ställ in Mode på
combineoch Combination Mode påmergeByPosition. - Koppla Merge Image Insights till Prepare Embedding Document.
- I Prepare Embedding Document, lägg till ett data-fält med värdet
=## keywords\n\n{{ $json.content }}\n\n## color information:\n\n{{ JSON.stringify($json["Channel Statistics"]) }}. - I Prepare Embedding Document, lägg till ett metadata-objekt med värdet
={ "format": "{{ $json.format }}", "backgroundColor": "{{ $json["Background Color"] }}", "source": "{{ $binary.data.fileName }}" }. - Koppla Prepare Embedding Document till In-Memory Vector Index på main-utgången.
Steg 5: konfigurera embeddings och vektorindexering
Konvertera det förberedda dokumentet till embeddings, dela upp text för indexering och infoga vektorer i minnet.
- Koppla Recursive Text Splitter till Standard Data Loader via ai_textSplitter-kopplingen.
- I Standard Data Loader, ställ in metadatavärden till
={{ $('Prepare Embedding Document').item.json.metadata.source }},={{ $('Prepare Embedding Document').item.json.metadata.format }}och={{ $('Prepare Embedding Document').item.json.metadata.backgroundColor }}. - Koppla Standard Data Loader till In-Memory Vector Index via ai_document-kopplingen.
- Ställ in In-Memory Vector Index till Mode
insertoch Memory Key tillimage_embeddings. - Koppla OpenAI Embeddings Insert till In-Memory Vector Index via ai_embedding-kopplingen.
- Referens krävs: anslut era openAiApi-credentials för OpenAI Embeddings Insert.
OpenAI-embeddings används för vektorinfogning; säkerställ att credentials är applicerade på OpenAI Embeddings Insert.
Steg 6: konfigurera likhetssökning
Sök i vektorindexet efter liknande bilder med hjälp av en textprompt.
- Koppla OpenAI Embeddings Search till Image Similarity Lookup via ai_embedding-kopplingen.
- I Image Similarity Lookup, ställ in Mode till
load, Prompt tillstudent having funoch Memory Key tillimage_embeddings. - Referens krävs: anslut era openAiApi-credentials för OpenAI Embeddings Search.
OpenAI-embeddings används för sökning; säkerställ att credentials är applicerade på OpenAI Embeddings Search.
Steg 7: testa och aktivera ert arbetsflöde
Validera att bildbearbetning, embeddings och likhetsuppslag fungerar end-to-end.
- Klicka på Execute Workflow och kör Manual Run Trigger för att testa flödet.
- Bekräfta att Drive File Download returnerar binär bilddata och att Generate Image Keywords matar ut en kommaseparerad lista med nyckelord.
- Verifiera att Prepare Embedding Document skapar fälten data och metadata, och att In-Memory Vector Index visar infogade embeddings under
image_embeddings. - Kontrollera att Image Similarity Lookup returnerar matchande resultat för prompten.
- När ni är nöjda, aktivera arbetsflödet så att det är redo för produktionsanvändning.
Felsökningstips
- Google Drive-inloggningar kan löpa ut eller kräva specifika behörigheter. Om det skapar fel, kontrollera Google-kopplingen i n8n under Credentials först.
- Om du använder Wait-noder eller extern rendering varierar behandlingstider. Öka väntetiden om efterföljande noder misslyckas på grund av tomma svar.
- Standardprompter i AI-noder är generiska. Lägg in er tonalitet tidigt, annars kommer du redigera utdata för alltid.
Snabba svar
Cirka 30 minuter om dina Google Drive- och OpenAI-konton är redo.
Nej. Du kopplar främst konton och justerar vilka Drive-filer du läser in.
Ja. n8n har ett gratis alternativ för egen hosting och en gratis provperiod i n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver även räkna med OpenAI API-kostnader för vision och embeddings, vilket för de flesta små bibliotek brukar landa på några dollar i månaden.
Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller egen hosting på en VPS. För egen hosting är Hostinger VPS prisvärd och hanterar n8n bra. Egen hosting ger obegränsat antal körningar men kräver grundläggande serveradministration.
Ja, och det bör du. Du kan byta ut noden ”Drive File Download” mot en mappbaserad väljare för att läsa in i batch, och du kan justera ”Generate Image Keywords” så att den returnerar ditt föredragna taggformat (produkt-SKU, kampanjnamn, plats, säsong). Om du växer ur det inbyggda ”In-Memory Vector Index” ersätter du det med en persistent vektordatabas men behåller samma struktur för ”Prepare Embedding Document”.
Oftast beror det på utgångna OAuth-inloggningar eller saknade Drive-behörigheter på det anslutna Google-kontot. Anslut Google Drive på nytt i n8n och bekräfta sedan att filen är åtkomlig för det kontot (delade enheter kan vara knepiga). Om det bara misslyckas för vissa filer beror det ofta på att flödet försöker ladda ner en filtyp som ditt steg ”Edit Image” inte kan tolka, så filtrera på bild-MIME-typer först.
Om du kör egen hosting finns ingen körningsgräns (det beror främst på din server och OpenAI:s rate limits). I n8n Cloud beror volymen på din plans månadsvisa körningar, och de flesta team börjar bekvämt på Starter. I praktiken är det här flödet bäst att köra i batch (för initial indexering) och sedan på nya uppladdningar framåt.
Ofta, ja. Det här flödet flyttar inte bara data från A till B; det gör flerledsbehandling (bildförberedelse, AI-vision-utdata, sammanslagning, embeddings och likhetssökning). n8n hanterar förgrening och rikare logik utan att tvinga in dig i dyr task-prissättning för varje litet steg. Du får också en realistisk väg för egen hosting om du indexerar många bilder. Zapier eller Make kan fortfarande vara bra för enkla flöden som ”ny fil → skicka notis”. För semantisk sökning och embeddings brukar n8n passa bättre. Prata med en automationsexpert om du är osäker på vad som passar.
När dina bilder blir sökbara på innebörd slutar Google Drive vara en skräplåda. Flödet sköter den repetitiva taggningen så att du bara kan hitta rätt kreativa material och gå vidare.
Kontakta oss
Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.