Behöver ert företag hjälp med att implementera AI? Kontakta oss och få prisoffert här →
AI Skolan
januari 22, 2026

Bright data + Google gemini: chatbot med livesök

Rickard Andersson Partner, Nodenordic.se

Ditt team ställer en ”snabb fråga” i chatten, och plötsligt jonglerar du 12 flikar, kopierar länkar och försöker få ihop helheten innan tråden dör ut. Sedan frågar någon efter källor. Och nu dubbelkollar du allt eftersom det första svaret redan var inaktuellt.

Här blir en Bright Data-chatbot en praktisk fördel. Marknadsanalytiker får snabbare ögonblicksbilder av konkurrenter. Produktchefer slipper gissa kring trender. Och datafolk som lever i Slack får äntligen svar som kommer med källhänvisningar.

Det här flödet gör om en chattfråga till live-sökresultat, kör dem genom Google Gemini och skickar tillbaka ett strukturerat svar (med källor) till din chattapp. Nedan ser du hur det fungerar, vad du behöver och vad du ska se upp med.

Så här fungerar automatiseringen

Hela n8n-flödet, från trigger till slutlig output:

n8n Workflow Template: Bright data + Google gemini: chatbot med livesök

Problemet: chattsvar är inaktuella (eller inte verifierbara)

De flesta chattbaserade ”AI-hjälpare” är bra tills du frågar efter något tidskänsligt. En prisändring. En konkurrentlansering. En ny policyuppdatering. De svarar självsäkert, men svaret kan bygga på gammal träningsdata eller sakna den exakta detalj du behöver. Så du gör det manuella: söker på Google eller Bing, öppnar träffar, skummar, kopierar citat och skriver sedan om allt till ett Slack-meddelande som låter sammanhängande. Det är inte svårt arbete. Det är dränerande arbete, och det stjäl tiden du tänkte lägga på att faktiskt bestämma vad du ska göra med informationen.

Friktionen växer. Här är var det faller isär i verkliga team:

  • Folk slutar ställa bra frågor eftersom research känns som ett måste, så beslut tas med ”tillräckligt bra” information.
  • Du tappar 30 minuter på att jaga källor varje gång någon säger: ”Var kommer det där ifrån?”
  • Svar driver runt mellan trådar och kanaler, vilket gör att nästa person upprepar samma research i morgon.
  • Generiska chatbottar kan låta rätt men ha fel, och det är ärligt talat värre än ”jag vet inte”.

Lösningen: livesök + Gemini-svar, direkt i chatten

Det här n8n-flödet kopplar ihop tre delar till en loop: din chattinput, Bright Datas livesökmotorer och Google Geminis förmåga att sammanfatta och förklara. En användare ställer en fråga via chatttriggern. Flödet tilldelar söktermen, startar en livesökning via Bright Datas MCP Search Engines-verktyg (Google, Bing och Yandex ingår) och väntar på att jobbet ska bli klart. När resultaten finns tillgängliga skickar Conversation Orchestrator både frågan och den färska sökoutputen till Gemini. Till sist skickar flödet ett svar tillbaka via en webhook till din chattapp, så att svaret landar där konversationen började.

Flödet börjar med ett chattmeddelande, inte ett formulär. Sedan använder det Bright Data för att hämta vad webben säger just nu. Gemini omvandlar det till ett läsbart, källbaserat svar som du kan dela direkt, utan att skriva om det för hand.

Det du får: automatisering vs. resultat

Exempel: så här ser det ut

Säg att ditt team får 10 researchfrågor i veckan i Slack (priskontroller, konkurrentuppdateringar, snabba marknadsfakta). Manuellt är det lätt att lägga cirka 20 minuter per fråga på att söka, öppna träffar och skriva om ett strukturerat svar, vilket blir ungefär 3 timmar i veckan. Med det här flödet ställer du frågan en gång, väntar cirka 2 minuter på sökuppgiften och Gemini-svaret, och sedan är du klar. Det är närmare 20 minuter total ”hands-on”-tid för hela veckan, inte en eftermiddag.

Det här behöver du

  • n8n-instans (testa n8n Cloud gratis)
  • Alternativ för self-hosting om du föredrar det (Hostinger fungerar bra)
  • Bright Data för åtkomst till livesökmotorer.
  • Google Gemini för att generera det slutliga, konversationsanpassade svaret.
  • API-token för Bright Data Web Unlocker (kopiera den från dina Bright Data-zoninställningar).

Kunskapsnivå: Medel. Du kopplar in autentiseringsuppgifter, installerar MCP-server/nod på self-hostad n8n och justerar en webhook-destination.

Vill du inte sätta upp detta själv? Prata med en automationsspecialist (gratis 15-minuters konsultation).

Så fungerar det

En chattfråga startar allt. Chat Input Trigger fångar vad användaren frågade, och skickar det vidare till Conversation Orchestrator så att flödet behåller konversationens ”tråd”.

Söktermen formas. Ett enkelt steg, ”Assign Search Term”, rensar upp frågan så att den fungerar bra som en sökförfrågan, särskilt när användare skriver mer informellt eller lägger till extra kontext.

Bright Data kör livesökningar. Flödet hämtar MCP-verktygslistan och använder sedan Bright Data Search Runner plus sökverktyg (Google, Bing, Yandex) för att hämta aktuella resultat. Det är den här delen som ersätter manuell surfning.

Gemini skriver svaret och flödet skickar tillbaka det. Gemini får originalfrågan plus live-resultaten och genererar sedan ett läsbart svar. Webhook Response Dispatch skickar svaret tillbaka till din chattapp (Slack är ett vanligt mål), så att teamet ser ett färdigt svar med källor på samma ställe som de frågade.

Du kan enkelt ändra vilka sökmotorer som används och vart svaret skickas utifrån dina behov. Se den fullständiga implementationsguiden nedan för anpassningsalternativ.

Steg-för-steg-guide för implementering

Steg 1: konfigurera chatttriggern

Skapa ingången för chatten som startar AI-konversationsflödet.

  1. Lägg till och öppna Chat Input Trigger.
  2. Behåll standardinställningarna för Options eftersom den redan är konfigurerad för chattinmatning.
  3. Koppla Chat Input Trigger till Conversation Orchestrator.

Steg 2: anslut MCP-tjänster

Konfigurera MCP-åtkomst för att hämta och köra listan med sökverktyg.

  1. Öppna Retrieve MCP Tool List och anslut autentiseringsuppgifter. Credential Required: Anslut era mcpClientApi-autentiseringsuppgifter.
  2. Öppna Bright Data Search Runner och anslut autentiseringsuppgifter. Credential Required: Anslut era mcpClientApi-autentiseringsuppgifter.
  3. I Bright Data Search Runner ställer ni Tool Name till ={{ $('Retrieve MCP Tool List').item.json.tools[0].name }}.
  4. Ställ in Operation till executeTool.
  5. Ställ in Tool Parameters till ={ "query": "{{ $json.search_query }}", "engine": "google" } .
  6. Koppla Manual Execution StartRetrieve MCP Tool ListAssign Search TermBright Data Search Runner.

Använd Manual Execution Start för att validera MCP-anslutning och verktygskörning innan ni aktiverar chattflödet.

Steg 3: konfigurera tilldelning av sökterm

Definiera sökfrågan som används av MCP-körningsvägen.

  1. Öppna Assign Search Term.
  2. Lägg till en tilldelning för search_query med typen string och värdet Bright Data.
  3. Bekräfta att utdata flödar in i Bright Data Search Runner.

Steg 4: konfigurera AI-orkestreraren och minne

Anslut LLM och minne till agenten som orkestrerar verktygsanvändning och svar.

  1. Öppna Conversation Orchestrator och granska System Message för att säkerställa att den instruerar verktygsanvändning och webhook-notifiering.
  2. Öppna Gemini Chat Engine och ställ in Model Name till models/gemini-2.0-flash-exp.
  3. Credential Required: Anslut era googlePalmApi-autentiseringsuppgifter i Gemini Chat Engine.
  4. Koppla Gemini Chat Engine till Conversation Orchestrator som språkmodell.
  5. Koppla Session Memory Buffer till Conversation Orchestrator som minne.

Session Memory Buffer är en AI-undernod; lägg till autentiseringsuppgifter på föräldranoden vid behov, inte på själva minnesnoden.

Steg 5: konfigurera sökverktyg och webhook-utdata

Koppla MCP-sökverktygen och webhook-utskick till agenten för sökförstärkning i realtid.

  1. Öppna Google Search Tool och ställ in Tool Name till search_engine, Operation till executeTool och Tool Parameters till ={ "query": "{{ $json.chatInput }}", "engine": "google" }. Credential Required: Anslut era mcpClientApi-autentiseringsuppgifter.
  2. Öppna Bing Search Tool och ställ in Tool Parameters till ={ "query": "{{ $json.chatInput }}", "engine": "bing" } . Credential Required: Anslut era mcpClientApi-autentiseringsuppgifter.
  3. Öppna Yandex Search Tool och ställ in Tool Parameters till ={ "query": "{{ $json.chatInput }}", "engine": "yandex" }. Credential Required: Anslut era mcpClientApi-autentiseringsuppgifter.
  4. Öppna MCP Tools Catalog och anslut autentiseringsuppgifter. Credential Required: Anslut era mcpClientApi-autentiseringsuppgifter.
  5. Öppna Webhook Response Dispatch och ställ in URL till [CONFIGURE_YOUR_WEBHOOK_URL], Method till POST och aktivera Send Body.
  6. Verifiera att alla verktyg (Google Search Tool, Bing Search Tool, Yandex Search Tool, MCP Tools Catalog, Webhook Response Dispatch) är anslutna till Conversation Orchestrator som AI-verktyg.

⚠️ Vanlig fallgrop: Webhook Response Dispatch är en AI-verktygsundernod; konfigurera autentisering och autentiseringsuppgifter på föräldranoden om er webhook kräver det.

Steg 6: testa och aktivera ert arbetsflöde

Validera både den manuella MCP-vägen och den chattdrivna AI-vägen innan ni går live.

  1. Klicka på Execute WorkflowManual Execution Start för att bekräfta att Retrieve MCP Tool List, Assign Search Term och Bright Data Search Runner körs utan problem.
  2. Öppna chattgränssnittet för Chat Input Trigger och skicka en exempel-fråga för att trigga Conversation Orchestrator.
  3. Bekräfta att sökverktygen används och att svaret returneras i chatten.
  4. Verifiera att webhook-endpointen tar emot chat_response-payloaden från Webhook Response Dispatch.
  5. Växla arbetsflödet till Active för att aktivera användning i produktion.
🔒

Lås upp fullständig steg-för-steg-guide

Få den kompletta implementeringsguiden + nedladdningsbar mall

Vanliga fallgropar

  • Bright Data-uppgifter kan gå ut eller kräva specifika behörigheter. Om saker slutar fungera, kontrollera först din Bright Data-zontoken och miljövariablerna i MCP-serveruppsättningen.
  • Om du använder Wait-noder eller extern rendering varierar processtiderna. Öka väntetiden om efterföljande noder misslyckas på grund av tomma svar.
  • Standardprompter i AI-noder är generiska. Lägg in er tonalitet tidigt, annars kommer du redigera output för alltid.

Vanliga frågor

Hur lång tid tar det att sätta upp den här Bright Data-chatbot-automatiseringen?

Räkna med ungefär en timme om dina Bright Data- och Gemini-nycklar är klara.

Behöver jag kodkunskaper för att automatisera Bright Data-chatbot-svar?

Nej. Du kommer främst att koppla konton och klistra in tokens i rätt fält för autentiseringsuppgifter.

Är n8n gratis att använda för det här Bright Data-chatbot-flödet?

Ja. n8n har ett gratis alternativ för self-hosting och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna med Bright Data-användning samt Gemini API-kostnader.

Var kan jag hosta n8n för att köra den här automatiseringen?

Två alternativ: n8n Cloud (hanterat, enklast setup) eller self-hosting på en VPS. För self-hosting är Hostinger VPS prisvärd och hanterar n8n bra. Self-hosting ger dig obegränsade körningar men kräver grundläggande serverhantering.

Kan jag anpassa det här Bright Data-chatbot-flödet för Slack-svar i stället för en webhook?

Ja, men det beror på hur du vill att Slack ska bete sig. Flödet använder just nu ett verktyg för Webhook Response Dispatch för att skicka tillbaka meddelandet, så du kan byta ut det mot en Slack-nod (eller peka webhooken mot en Slack Incoming Webhook-URL). Många team anpassar också vilka motorer som körs genom att justera valet för Google Search Tool, Bing Search Tool och Yandex Search Tool. Om du vill spara konversationshistorik, lägg till en databasnod efter att svaret har genererats.

Varför misslyckas min Bright Data-anslutning i det här flödet?

Oftast handlar det om ett API-token-problem i MCP-serverns miljövariabler, inte om flödeslogiken i sig. Bekräfta att din Bright Data Web Unlocker-token är aktuell och se sedan till att MCP Client (STDIO)-uppgifterna i n8n pekar mot rätt lokala serverprocess. Om det fungerar en gång och sedan börjar fallera, kontrollera rate limits och kontobehörigheter i Bright Data.

Hur många chattfrågor kan den här Bright Data-chatbot-automatiseringen hantera?

Om du self-hostar n8n finns ingen hård gräns för antal körningar; det beror främst på din server och dina Bright Data-/Gemini-kvoter.

Är den här Bright Data-chatbot-automatiseringen bättre än att använda Zapier eller Make?

För det här användningsfallet, ja i de flesta fall. Zapier och Make kan vara bra för enkla ”trigger → åtgärd”-flöden, men det här flödet bygger på en agent, sessionsminne och MCP-verktyg, vilket är svårare att modellera snyggt i de flesta no-code-byggare. n8n låter dig också self-hosta, så du betalar inte per uppgift när volymen växer. Avvägningen är setup: MCP kräver lite mer omsorg än en typisk connector. Prata med en automationsspecialist om du vill ha hjälp att välja.

När det här väl rullar slutar live-research vara en separat uppgift du ”tar tag i senare”. Du frågar i chatten, du får tillbaka ett källbelagt svar och du går vidare.

Kontakta oss

Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.

×

Använd mall

Få direkt tillgång till denna n8n-arbetsflödes JSON-fil

Launch login modal Launch register modal