Du öppnar ”bara några flikar” för att researcha ett ämne, och plötsligt är det 28 flikar, tre halvfärdiga dokument och en sjunkande känsla av att du fortfarande inte kan hänvisa till något med säkerhet.
Det här drabbar marknadsförare som bygger thought leadership hårdast, men konsulter som skriver kundunderlag och grundare som validerar idéer känner av det också. Med den här automatiseringen för Jina Gemini research gör du en fråga till ett strukturerat, källbelagt underlag utan att fastna i copy-paste-träsket.
Nedan ser du hur flödet fungerar, vad du behöver, vilka resultat du kan förvänta dig och de vanligaste misstagen som gör att ”AI-research” känns opålitlig.
Så fungerar automatiseringen
Hela n8n-flödet, från trigger till slutresultat:
n8n Workflow Template: Jina ai + Google Gemini: refererade rapporter snabbt
flowchart LR
subgraph sg0["When chat message received Flow"]
direction LR
n0["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/jinaAi.dark.svg' width='40' height='40' /></div><br/>Search web"]
n1@{ icon: "mdi:play-circle", form: "rounded", label: "When chat message received", pos: "b", h: 48 }
n2@{ icon: "mdi:swap-vertical", form: "rounded", label: "Loop Over Items", pos: "b", h: 48 }
n3["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/code.svg' width='40' height='40' /></div><br/>Code"]
n4["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/jinaAi.dark.svg' width='40' height='40' /></div><br/>Read URL content"]
n5@{ icon: "mdi:cog", form: "rounded", label: "Wait", pos: "b", h: 48 }
n6@{ icon: "mdi:robot", form: "rounded", label: "Structured Output", pos: "b", h: 48 }
n7["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/code.svg' width='40' height='40' /></div><br/>Transform"]
n8@{ icon: "mdi:robot", form: "rounded", label: "Summarizer Agent", pos: "b", h: 48 }
n9@{ icon: "mdi:brain", form: "rounded", label: "Summarizer Model", pos: "b", h: 48 }
n10@{ icon: "mdi:brain", form: "rounded", label: "Generator Model", pos: "b", h: 48 }
n11@{ icon: "mdi:robot", form: "rounded", label: "Generator Agent", pos: "b", h: 48 }
n12@{ icon: "mdi:robot", form: "rounded", label: "Evaluator Chain", pos: "b", h: 48 }
n13@{ icon: "mdi:brain", form: "rounded", label: "Evaluator Model", pos: "b", h: 48 }
n3 --> n2
n5 --> n2
n7 --> n11
n0 --> n3
n13 -.-> n12
n11 --> n12
n10 -.-> n11
n2 --> n7
n2 --> n4
n4 --> n8
n8 --> n5
n9 -.-> n8
n6 -.-> n8
n1 --> n0
end
%% Styling
classDef trigger fill:#e8f5e9,stroke:#388e3c,stroke-width:2px
classDef ai fill:#e3f2fd,stroke:#1976d2,stroke-width:2px
classDef aiModel fill:#e8eaf6,stroke:#3f51b5,stroke-width:2px
classDef decision fill:#fff8e1,stroke:#f9a825,stroke-width:2px
classDef database fill:#fce4ec,stroke:#c2185b,stroke-width:2px
classDef api fill:#fff3e0,stroke:#e65100,stroke-width:2px
classDef code fill:#f3e5f5,stroke:#7b1fa2,stroke-width:2px
classDef disabled stroke-dasharray: 5 5,opacity: 0.5
class n1 trigger
class n6,n8,n11,n12 ai
class n9,n10,n13 aiModel
class n3,n7 code
classDef customIcon fill:none,stroke:none
class n0,n3,n4,n7 customIcon
Problemet: research blir flikkaos (och svaga källhänvisningar)
Manuell research är långsam av en tråkig anledning. Jobbet är inte bara ”att läsa”. Det handlar om att söka, öppna resultat, skumma för att hitta den enda paragrafen som spelar roll och sedan försöka spåra var påståendet kom ifrån senare. Du landar i röriga anteckningar, saknade länkar och ett underlag som låter självsäkert men inte kan styrka det. Än värre: du tappar tråden i ursprungsfrågan eftersom du är upptagen med att hantera processen i stället för att tänka.
Det eskalerar snabbt. Så här faller det isär i verkligheten.
- Du läser fem källor, men bara två hamnar i utkastet eftersom resten är svåra att sammanfatta på ett strukturerat sätt.
- Länkar klistras in i ett dokument utan kontext, så att verifiera ett påstående senare kräver en ny runda sökningar.
- Du slösar runt 2 timmar på att hoppa mellan flikar, anteckningar och ett utkast som aldrig känns ”klart”.
- När du lämnar underlaget till någon annan kan de inte avgöra vad som är evidens kontra åsikt.
Lösningen: från en fråga till ett polerat, källbelagt underlag
Det här flödet gör din researchfråga till en repeterbar monteringslina. Du skickar en enda fråga via en n8n-chattrigger, och Jina AI söker på webben efter relevanta källor. Flödet loopar sedan igenom toppresultaten, läser innehållet på varje sida och låter en Google Gemini-agent sammanfatta det som är viktigt i relation till din fråga. Sammanfattningarna samlas i ett strukturerat ”kunskapspaket”, och därefter skriver en dedikerad Gemini-”generator”-agent en full rapport med avsnitt som sammanfattning, introduktion, diskussion och slutsats. Till sist granskar en utvärderingsagent utkastet för tydlighet, källtäckning och korrekt formaterad markdown, så att du får något du faktiskt kan dela.
Flödet startar med din fråga, samlar in och sammanfattar cirka 10 källor och avslutas med att producera ett färdigt researchunderlag med källhänvisningar i texten. Ett inbyggt Wait-steg bromsar anropen lite, vilket gör körningar med många källor stabila när API:er blir kinkiga.
Det du får: automatisering kontra resultat
| Vad detta flöde automatiserar | Resultat du får |
|---|---|
|
|
Exempel: så här ser det ut
Säg att du behöver ett researchat underlag i veckan för en kampanj. Manuellt kan granskning av 10 källor på cirka 15 minuter per källa plus att skriva och lägga till källhänvisningar enkelt ta runt 4 timmar. Med det här flödet skickar du frågan i ett chattmeddelande (kanske 2 minuter), och låter sedan flödet bearbeta 10 URL:er med en kort väntan mellan varje och generera rapporten, vilket ofta är klart på cirka 20 minuter. Du granskar fortfarande, såklart, men du granskar ett utkast i stället för att bygga allt från grunden.
Det här behöver du
- n8n-instans (prova n8n Cloud gratis)
- Alternativ för self-hosting om du föredrar det (Hostinger funkar bra)
- Jina AI för webbsökning och sidskrapning
- Google Gemini för att sammanfatta, skriva och utvärdera
- Jina AI API-nyckel (hämta den från din Jina AI-dashboard)
Kunskapsnivå: Medel. Du kopplar API-nycklar, testkör och justerar prompter utan att röra tung kod.
Vill du inte sätta upp detta själv? Prata med en automationsspecialist (gratis 15-minuters konsultation).
Så fungerar det
Du skickar en researchfråga i ett chattmeddelande. Flödet startar vid chattriggern och behandlar ditt meddelande som ”single source of truth” för ämne och avgränsning.
Jina AI hittar källor och hämtar råinnehållet. Först kör den en webbsökning, sedan itererar den genom resultaten och läser innehållet på varje sida så att AI:n inte gissar utifrån en rubrik.
Gemini sammanfattar varje källa i kontext. En sammanfattningsagent läser den skrapade texten plus din ursprungliga fråga och skapar en kort, användbar sammanfattning. Det finns också en kort väntan mellan poster för att minska fel från rate limits vid körningar med många källor.
Rapporten skrivs, och granskas sedan för kvalitet. När alla sammanfattningar har aggregerats skriver en generator-agent ett strukturerat underlag med källhänvisningar, och en granskningskedja kontrollerar källtäckning, logiskt flöde och korrekt formaterad markdown-utdata.
Du kan enkelt ändra antal källor (till exempel 5 i stället för 10) för att matcha din budget och dina krav på djup. Se hela implementationsguiden nedan för anpassningsalternativ.
Steg-för-steg-guide för implementering
Steg 1: Konfigurera chatt-triggern
Starta arbetsflödet genom att fånga användarens researchfrågor från chattinmatningen.
- Lägg till noden Incoming Chat Trigger och behåll standardinställningarna.
- Verifiera att webhooken är aktiv genom att kontrollera den genererade webhook-URL:en i noden Incoming Chat Trigger.
AI trends in healthcare för att bekräfta att chatInput fylls i.Steg 2: Anslut Jina AI för webbsökning och innehållshämtning
Sätt upp datakällan som hittar källor och hämtar sidinnehåll.
- Öppna Web Search Fetch och ställ in Operation på
search. - Ställ in Search Query på
={{ $json.chatInput }}. - Inloggningsuppgifter krävs: Anslut era jinaAiApi-inloggningsuppgifter i Web Search Fetch.
- Öppna Retrieve URL Content och ställ in URL på
={{ $json.url }}. - Inloggningsuppgifter krävs: Anslut era jinaAiApi-inloggningsuppgifter i Retrieve URL Content.
Steg 3: Sätt upp post-iteration och throttling
Förbered och iterera genom sökresultat och tempo-sätt sedan anropen för att undvika rate limits.
- Öppna Custom Script och låt Language vara inställt på
python. - Klistra in det tillhandahållna URL-extraktionsskriptet i Python Code för att få ut en lista med
{ "url": "..." }-objekt. - Använd Iterate Records för att bearbeta URL:er i batchar; behåll standardalternativen om ni inte behöver ett specifikt batch-beteende.
- Ställ in Delay Interval till Amount
1för att throttla anropen. - Iterate Records skickar utdata parallellt till både Aggregate Results och Retrieve URL Content.
Steg 4: Konfigurera sammanfattning med AI
Sammanfatta varje källa och säkerställ ett strukturerat utdataformat.
- Öppna Summary Agent och ställ in Text till den tillhandahållna prompten med uttryck som
{{ $json.url }}och{{ $('Incoming Chat Trigger').item.json.chatInput }}. - Aktivera hasOutputParser i Summary Agent.
- Öppna Structured Parser och bekräfta att JSON Schema Example är inställt på
{ "source_url": "...", "summarized_content": "..." }. - Inloggningsuppgifter krävs: Anslut era googlePalmApi-inloggningsuppgifter i Summary Model.
- Säkerställ att Summary Model är kopplad som språkmodell för Summary Agent; lägg till inloggningsuppgifter i Summary Model (inte i agenten).
- Säkerställ att Structured Parser är ansluten som output parser för Summary Agent; inga inloggningsuppgifter krävs för parsern.
Steg 5: Aggregera sammanfattningar och generera researchrapporten
Samla sammanfattningar till en enda payload och generera den fullständiga researchrapporten.
- Öppna Aggregate Results och låt Language vara inställt på
python. - Använd det tillhandahållna aggregeringsskriptet i Python Code för att få ut ett enda item med
{"output": [...]}. - Öppna Report Agent och bekräfta att den långa research-prompten ligger i Text, inklusive uttryck som
{{ $json.output[0].source_url }}och{{ $json.output[0].summarized_content }}. - Inloggningsuppgifter krävs: Anslut era googlePalmApi-inloggningsuppgifter i Report Model.
- Säkerställ att Report Model är ansluten som språkmodell för Report Agent; lägg till inloggningsuppgifter i Report Model (inte i agenten).
Steg 6: Lägg till granskning av källhänvisningar och förfining
Verifiera källhänvisningar och finslipa den slutliga rapportutmatningen.
- Öppna Review Chain och behåll hela prompten för verifiering av källhänvisningar i Text.
- Inloggningsuppgifter krävs: Anslut era googlePalmApi-inloggningsuppgifter i Review Model.
- Säkerställ att Review Model är ansluten som språkmodell för Review Chain; lägg till inloggningsuppgifter i Review Model (inte i chainen).
Steg 7: Testa och aktivera ert arbetsflöde
Kör ett fullständigt test och verifiera att en finslipad rapport returneras med källhänvisningar.
- Klicka på Execute Workflow och skicka en chattinmatning till Incoming Chat Trigger.
- Bekräfta att Web Search Fetch returnerar URL:er, att Retrieve URL Content hämtar innehåll och att Summary Agent matar ut strukturerade sammanfattningar.
- Kontrollera att Aggregate Results sammanställer sammanfattningar och att Report Agent producerar en komplett rapport med källhänvisningar.
- Verifiera att Review Chain matar ut den förfinade slutrapporten, sammanfattning av källhänvisningar och förbättringslogg.
- Växla arbetsflödet till Active för användning i produktion.
Vanliga fallgropar
- Jina AI-credentials kan löpa ut eller kräva specifika behörigheter. Om något slutar fungera, kontrollera först status för din Jina AI API-nyckel i Jina-dashboarden.
- Om du använder Wait-noder eller extern rendering varierar processtiderna. Öka väntetiden om noder längre fram misslyckas på grund av tomma svar.
- Standardprompter i AI-noder är generiska. Lägg in ditt varumärkes ton tidigt, annars kommer du redigera utdata i all evighet.
Vanliga frågor
Cirka 30 minuter om du redan har dina API-nycklar.
Nej. Du klistrar mest in API-nycklar och justerar prompter. Den enda ”tekniska” delen är att testköra och bekräfta utdataformatet.
Ja. n8n har ett gratis self-hosted-alternativ och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna in kostnader för användning av Jina AI och Google Gemini API, som beror på hur många källor du bearbetar per rapport.
Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller self-hosting på en VPS. För self-hosting är Hostinger VPS prisvärd och hanterar n8n bra. Self-hosting ger dig obegränsade körningar men kräver grundläggande serverhantering.
Ja, men du bör ändra det i loop-inställningarna, inte bara i prompten. Justera loopen ”Split in Batches” så att den bara bearbetar de första 5 URL:erna, och behåll resten av flödet oförändrat. Många team anpassar också generator-prompten för att matcha sitt format (en-sides brief, bara punktlistor eller ton som ett ”kundmemo”). Om du behöver spara utdata någonstans kan du lägga till ett steg för Google Docs, Google Drive eller Google Sheets efter granskningsnoden.
Oftast beror det på en ogiltig eller utgången Jina AI API-nyckel. Skapa en ny nyckel i din Jina-dashboard och uppdatera sedan credentials i Jina-noderna som används för sökning och innehämtning. Om det fortfarande misslyckas, kontrollera om du slår i rate limits när du kör flera rapporter efter varandra och öka Wait-tiden något.
Väldigt många, så länge din n8n-plan och dina API-kvoter hänger med.
Ofta ja, eftersom det här flödet bygger på looping, väntetider, aggregering och AI-utvärdering i flera steg, vilket är där Zapier och Make kan bli klumpiga eller dyra. n8n hanterar branching och batchbearbetning snyggt, så att du kan skrapa och sammanfatta flera källor i en körning utan att bygga ett spaghettimonster. Self-hosting förändrar också kalkylen om du kör många rapporter. Med det sagt: om du bara behöver ett enkelt flöde för ”skicka prompt till AI och mejla resultatet” kan Zapier gå snabbare att sätta upp. Om du vill ha en second opinion på avvägningarna, prata med en automationsspecialist.
Ärligt talat är den största vinsten förtroende. När ditt underlag visar sina källor och är tydligt skrivet lägger du mindre tid på att försvara det och mer tid på att använda det.
Kontakta oss
Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.