Du ställer en researchfråga, och sen försvinner en timme i flik-kaos. Hälften av “svaren” du hittar är ytliga, går inte att spåra eller är i tysthet inaktuella, och du måste ändå sy ihop allt till något du faktiskt kan skicka vidare.
Det här är den sortens röra som bromsar marknadsansvariga som skriver påståendetunga sidor, produktchefer som tar fram beslutsunderlag och analytiker som bara vill ha ett rakt svar med källor. En Drive GPT-researchautomation ger dig en strukturerad, källbelagd sammanfattning utan skattjakt.
Det här arbetsflödet gör om en fråga till ett källförankrat svar genom att söka i Google Drive plus externa källor (nyheter och akademiskt), och sedan använda GPT-4 Turbo för att skriva slutresultatet. Du får se vad det löser, vad du behöver och hur du anpassar det till din teams verklighet.
Så fungerar automationen
Se hur detta löser problemet:
n8n Workflow Template: Google Drive + GPT-4 Turbo: svar med källor
flowchart LR
subgraph sg0["🚀 Advanced RAG Form Flow"]
direction LR
n0["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/form.svg' width='40' height='40' /></div><br/>🚀 Advanced RAG Form"]
n1["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/code.svg' width='40' height='40' /></div><br/>🔍 Query Preprocessor"]
n2@{ icon: "mdi:swap-horizontal", form: "rounded", label: "🔄 Search Router", pos: "b", h: 48 }
n5["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/httprequest.dark.svg' width='40' height='40' /></div><br/>🎓 Academic Papers Search"]
n6["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/httprequest.dark.svg' width='40' height='40' /></div><br/>📰 News Search API"]
n7["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/code.svg' width='40' height='40' /></div><br/>📊 Data Aggregator"]
n8["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/code.svg' width='40' height='40' /></div><br/>🧠 Context Builder"]
n9["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/openAi.dark.svg' width='40' height='40' /></div><br/>🤖 Advanced LLM Processor"]
n10["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/code.svg' width='40' height='40' /></div><br/>✨ Response Enhancer"]
n11["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/webhook.dark.svg' width='40' height='40' /></div><br/>📤 Webhook Response"]
n2 --> n5
n2 --> n6
n7 --> n8
n6 --> n7
n8 --> n9
n10 --> n11
n0 --> n1
n1 --> n2
n5 --> n7
n9 --> n10
end
subgraph sg1["Flow 2"]
direction LR
n4@{ icon: "mdi:cog", form: "rounded", label: "🌐 Enhanced Web Search", pos: "b", h: 48 }
end
subgraph sg2["Flow 3"]
direction LR
n3@{ icon: "mdi:cog", form: "rounded", label: "🏢 Internal Knowledge Search", pos: "b", h: 48 }
end
%% Styling
classDef trigger fill:#e8f5e9,stroke:#388e3c,stroke-width:2px
classDef ai fill:#e3f2fd,stroke:#1976d2,stroke-width:2px
classDef aiModel fill:#e8eaf6,stroke:#3f51b5,stroke-width:2px
classDef decision fill:#fff8e1,stroke:#f9a825,stroke-width:2px
classDef database fill:#fce4ec,stroke:#c2185b,stroke-width:2px
classDef api fill:#fff3e0,stroke:#e65100,stroke-width:2px
classDef code fill:#f3e5f5,stroke:#7b1fa2,stroke-width:2px
classDef disabled stroke-dasharray: 5 5,opacity: 0.5
class n0 trigger
class n2 decision
class n5,n6,n11 api
class n1,n7,n8,n10 code
classDef customIcon fill:none,stroke:none
class n0,n1,n5,n6,n7,n8,n9,n10,n11 customIcon
Utmaningen: pålitliga svar utan flik-kaos
Det mesta “researcharbetet” är inte research. Det är letande. Du hoppar mellan interna dokument, ett par sökmotorer, ett nyhetsresultat som kanske ligger bakom betalvägg och ett akademiskt abstract som inte stämmer med rubrikens påstående. Sedan försöker du sammanfatta snabbt, vilket är exakt när osäkra formuleringar smyger sig in. Även om du är noggrann måste du fortfarande klistra in källor i ett dokument, formatera ett svar och besvara samma fråga igen nästa vecka när någon ny frågar.
Det eskalerar snabbt. Här är var det fallerar i riktiga team.
- Du kan inte tryggt citera intern kunskap eftersom ingen minns var det “slutgiltiga” dokumentet ligger i Google Drive.
- Externa källor blandas med åsikter, så den slutliga sammanfattningen låter övertygande men är inte faktiskt verifierbar.
- Formatering av research blir en egen uppgift, vilket gör att personen som gör jobbet lägger tid på puts istället för validering.
- När frågan ändras lite börjar du om från början eftersom det saknas konsekvent intag och en repeterbar process.
Lösningen: en pipeline för källbelagda svar från flera källor
Det här arbetsflödet ger dig en repeterbar väg från fråga till källbaserat svar. Det börjar med ett enkelt intagsformulär där du fångar frågan och några preferenser som omfattning (interna dokument, webben, akademiskt, nyheter), språk och svarsstil. Flödet rensar upp frågan så att sökningarna håller fokus, och skickar den sedan till rätt källor. Google Drive används för intern kunskap, medan separata uppslag hämtar vetenskapliga artiklar och nyhetsresultat. Allt aggregeras och kvalitetspoängsätts, och därefter genererar GPT-4 Turbo ett svar som är förankrat i det hämtade sammanhanget. Till sist putsas utdata till ett tydligt format och returneras direkt via webhook (och kan även anpassas för leverans via e-post eller Slack).
Arbetsflödet startar när du skickar in en fråga i RAG-intagsformuläret. Därifrån söker det i Google Drive och externa källor parallellt, slår ihop fynden och bygger ett “kontextpaket” till GPT-4 Turbo. Svaret kommer tillbaka som en läsbar sammanfattning med referenser du kan spåra.
Vad som förändras: före vs. efter
| Detta elimineras | Effekt du kommer att se |
|---|---|
|
|
Effekt i verkligheten
Säg att du producerar ett “källbelagt svar” per dag för en landningssida, ett sales enablement-dokument eller ett ledningsunderlag. Före: cirka 20 minuter i Google Drive, 20 minuter webbsökning, 20 minuter att skumma artiklar/nyheter, plus 20 minuter att skriva och städa upp länkar. Det är ungefär 1,5 timme per dag. Med det här arbetsflödet tar intaget kanske 2 minuter, hämtning och generering blir oftast klart på cirka 10 minuter, och du lägger ytterligare 5 minuter på att rimlighetskontrollera källhänvisningarna. Du får tillbaka nära en timme per dag, och resultatet blir mer konsekvent.
Krav
- n8n-instans (testa n8n Cloud gratis)
- Alternativ för self-hosting om du föredrar det (Hostinger fungerar bra)
- Google Drive för hämtning av interna dokument.
- OpenAI (GPT-4 Turbo) för att generera källförankrade svar.
- OpenAI API-nyckel (hämta den i din OpenAI API-dashboard).
Kunskapsnivå: Mellan. Du kopplar konton, lägger till credentials och justerar några fält som scopes och output-stil.
Behöver du hjälp att implementera detta? Prata med en automationsexpert (gratis 15-minuters konsultation).
Arbetsflödets steg
Formulärintag drar igång. Du skickar in en fråga och väljer omfattning (interna dokument, akademiskt, nyheter, webben) samt svarsstil och språk.
Frågan struktureras upp. Ett kort bearbetningssteg tar bort fluff och normaliserar frågan, så att dina sökningar ger färre resultat som “typ” hänger ihop.
Sökning sker parallellt över källor. Routern avgör vilka uppslag som ska köras, hämtar relevant intern kontext från Google Drive och extern kontext via HTTP-förfrågningar (artiklar och nyheter). Resultaten slås ihop till ett paket, med en kvalitetspass som hindrar skräp från att förorena det slutliga svaret.
GPT-4 Turbo skriver svaret, sedan putsas det. Modellen genererar ett kontextmedvetet svar som är förankrat i den hämtade texten, och en sista formateringspass gör det lätt att läsa. Flödet returnerar utdata via webhook-svar, vilket betyder att du kan koppla in det i ett webbformulär, ett internt verktyg eller en kundportal.
Du kan enkelt justera sökomfattningen till att bara omfatta Google Drive för interna svar, eller bredda den till att inkludera nyheter vid snabbrörliga ämnen. Se hela implementeringsguiden nedan för anpassningsalternativ.
Steg-för-steg-guide för implementering
Steg 1: konfigurera formulärtriggern
Sätt upp intake-formuläret som startar forskningspipelinen och fångar användarkrav.
- Lägg till noden 🚀 RAG Intake Form som din trigger.
- Ställ in Form Title på
🧠 Enterprise RAG Assistant. - Ställ in Form Description på
Advanced RAG system for intelligent research and content generation. - Konfigurera formulärfälten så att de inkluderar query, search_scope, response_style, language, output_format, user_email och priority_level (som i nodinställningarna).
Steg 2: konfigurera frågebearbetning och routning
Rensa och validera användarinmatningen och routa sedan förfrågan till forskningskällor.
- Koppla 🚀 RAG Intake Form till 🔎 Query Cleanser.
- I 🔎 Query Cleanser behåller ni den befintliga JavaScript-koden för att validera längden på query och generera fält som
cleaned_queryochsearch_strategy. - Koppla 🔎 Query Cleanser till 🔁 Scope Router.
- I 🔁 Scope Router ställer ni in villkoret Left Value till
{{ $json.search_scope }}och Right Value tillcompany_internal(String equals).
Körflöde: 🔁 Scope Router skickar ut data parallellt till både 🎓 Scholarly Papers Lookup och 📰 News Feed Lookup.
⚠️ Vanlig fallgrop: Det nuvarande villkoret kontrollerar company_internal, men noden routar bara till de akademiska- och nyhetsgrenarna. Justera villkoret eller lägg till kopplingar om ni vill att grenar för interna dokument eller webbsökning ska köras.
Steg 3: konfigurera forskningsdatakällor
Sätt upp uppslagningarna för akademiska källor och nyheter som matar forskningsaggregatorn.
- I 🎓 Scholarly Papers Lookup ställer ni in URL på
https://api.crossref.org/worksoch aktiverar Send Query. - Ställ in query-parametrar i 🎓 Scholarly Papers Lookup: query till
{{ $json.cleaned_query }}, rows till10, sort tillrelevanceoch order tilldesc. - I 📰 News Feed Lookup ställer ni in URL på
https://newsapi.org/v2/everything, aktiverar Send Query och behåller Authentication somheaderAuth. - Ställ in query-parametrar i 📰 News Feed Lookup: q till
{{ $json.cleaned_query }}, sortBy tillrelevancy, pageSize till10och language till{{ $json.language === 'italian' ? 'it' : 'en' }}.
Inloggningsuppgifter krävs: Anslut era HTTP Header Auth-inloggningsuppgifter i 📰 News Feed Lookup för att skicka med er NewsAPI-nyckel.
Steg 4: aggregera resultat och skapa kontext
Slå ihop de parallella resultaten till en enda datamängd och bygg prompt-konteksten för LLM:en.
- Koppla både 🎓 Scholarly Papers Lookup och 📰 News Feed Lookup till 📊 Results Aggregator.
- Behåll den befintliga JavaScript-koden i 📊 Results Aggregator för att slå ihop källor, beräkna
quality_scoreoch begränsa till de 15 bästa resultaten. - Koppla 📊 Results Aggregator till 🧠 Context Composer.
- I 🧠 Context Composer behåller ni den tillhandahållna koden för att bygga strukturerad kontext samt system-/användarmeddelanden för LLM:en.
Om ni planerar att använda interna sökningar eller webbsökningar, lägg till kopplingar från Utility: Internal Docs Search och Utility: Web Search Plus till 📊 Results Aggregator.
⚠️ Vanlig fallgrop: Utility: Internal Docs Search och Utility: Web Search Plus är för närvarande inte anslutna. Utan kopplingar kommer deras resultat inte att inkluderas i 📊 Results Aggregator.
Steg 5: konfigurera LLM-svaret och formatering av utdata
Generera AI-svaret från den förberedda kontexten och formatera slutlig utdata.
- Koppla 🧠 Context Composer till 🤖 LLM Response Engine.
- I 🤖 LLM Response Engine ställer ni in Model på
gpt-4-turbo-preview, Temperature på0.3, Top P på0.9och Max Tokens på2048. - Koppla 🤖 LLM Response Engine till ✨ Output Polisher.
- Behåll koden i ✨ Output Polisher för att bygga
formatted_responsei HTML, JSON eller Markdown baserat påoutput_format.
Inloggningsuppgifter krävs: Anslut era OpenAI-inloggningsuppgifter i 🤖 LLM Response Engine.
Steg 6: konfigurera webhook-svar
Returnera det polerade resultatet till den ursprungliga beställaren.
- Koppla ✨ Output Polisher till 📤 Webhook Reply.
- Ställ in Respond With till
allIncomingDatai 📤 Webhook Reply.
Steg 7: testa och aktivera ert workflow
Validera hela pipelinen och aktivera den för produktionsanvändning.
- Klicka på Execute Workflow och skicka formuläret i 🚀 RAG Intake Form med en exempelquery.
- Bekräfta att 📊 Results Aggregator returnerar en sammanslagen
sources-array och ett icke-nollvärde förtotal_results. - Kontrollera att 🤖 LLM Response Engine returnerar ett svar och att ✨ Output Polisher skapar
formatted_response. - Verifiera att 📤 Webhook Reply returnerar det formaterade svaret till formulärinsändningen.
- När allt fungerar, slå på workflowet till Active för produktionsanvändning.
Se upp för
- Google Drive-credentials kan löpa ut eller kräva specifika behörigheter. Om det skapar fel, kontrollera först det anslutna Google-kontot och dess Drive-åtkomst i n8n-credentials.
- Om du använder externa källor som nyhets- och akademi-API:er varierar svarstiderna. Höj eventuella väntetider eller timeout-inställningar om aggregatorn får tomma svar under perioder med hög belastning.
- Standardprompter i AI-noder är generiska. Lägg in er tonalitet och regler för källhänvisningar tidigt, annars kommer du fortsätta skriva om slutresultatet manuellt.
Vanliga frågor
Cirka 20 minuter om dina konton redan är anslutna.
Ja, men du vill ha någon som är bekväm med API-nycklar och behörigheter. Ingen kodning krävs, men lite noggrann setup sparar huvudvärk senare.
Ja. n8n har ett gratis self-hosted-alternativ och en gratis testperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna in OpenAI API-kostnader, som beror på hur långa dina prompter och svar är.
Två alternativ: n8n Cloud (hanterat, enklast setup) eller self-hosting på en VPS. För self-hosting är Hostinger VPS prisvärt och hanterar n8n bra. Self-hosting ger dig obegränsade körningar men kräver grundläggande serveradministration.
Du kan ändra vad som söks igenom genom att redigera routinglogiken i scope-routern och sedan aktivera eller inaktivera sökvägarna för Google Drive-sökning, nyhetsuppslag eller akademiskt uppslag. Vanliga anpassningar är att begränsa resultat till en specifik Drive-mapp, tvinga “kortfattad” output för Slack och lägga till en striktare källregel så att varje nyckelpåstående innehåller en källlänk.
Oftast handlar det om utgångna OAuth-credentials eller att det anslutna Google-kontot saknar behörighet till mapparna du söker i. Anslut Google Drive igen i n8n och bekräfta sedan att Drive-noden pekar på rätt delad enhet eller mapp. Om du söker i Team Drives kan behörigheter vara knepiga, så dubbelkolla åtkomsten på Google-sidan också.
På n8n Cloud beror kapaciteten på planens exekveringsgränser, och vid self-hosting beror det mest på din server. I praktiken kör team detta för dussintals frågor per dag utan att tänka på det, så länge externa API:er inte rate-limit:ar dig.
Ofta, ja, eftersom det här flödet vinner på att kunna förgrena, slå ihop resultat och göra flerstegsprocessning utan att betala extra för varje väg. n8n gör också self-hosting realistiskt, vilket spelar roll om ditt team ställer många frågor. Zapier eller Make kan fortfarande fungera bra för en lättviktig version (en källa in, ett svar ut), men de blir klumpiga när du behöver “sök här om det inte är en nyhetsfråga, och sök då även där.” Om du är osäker: välj verktyget som ditt team faktiskt kommer att förvalta. Prata med en automationsexpert så mappar vi det till ditt use case.
När detta är på plats slutar teamet “researcha” samma sak på fem olika sätt. Arbetsflödet sköter repetitiv hämtning och formatering, så att du kan fokusera på att fatta beslutet.
Kontakta oss
Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.