Behöver ert företag hjälp med att implementera AI? Kontakta oss och få prisoffert här →
AI Skolan
januari 22, 2026

Bright Data + Google Sheets: research i en cell

Rickard Andersson Partner, Nodenordic.se

Manuell webbresearch i ett kalkylark är en särskild sorts frustration. Du öppnar tio flikar, kopierar några rader, klistrar in dem igen och inser sedan att nästa rad behöver samma sak … och så gör du allt en gång till.

Det här är den typen av röra som bromsar marknadsanalytiker först, men e-handelsoperatörer som följer priser och growth-team som bygger leadlistor känner också av det. Med automatisering för Bright Data research i Google Sheets får du konsekventa svar per rad utan flikhoppande, och det sparar oftast några minuter per uppslag.

Nedan ser du hur arbetsflödet gör en enkel kalkylarksformel till en snabb research-”assistent”, vad du behöver för att köra det och var team vanligtvis justerar det för sin egen användning.

Så fungerar automatiseringen

Hela n8n-arbetsflödet, från trigger till slutlig output:

n8n Workflow Template: Bright Data + Google Sheets: research i en cell

Problemet: webbresearch skalar inte förbi 10 rader

Om du någon gång har försökt att “bara kolla upp det snabbt” direkt i ett kalkylark vet du hur det brukar gå. Du googlar, skummar några resultat, öppnar sidor som kanske laddar eller kanske inte, och klistrar in ett halvrelevant utdrag i en cell. Sedan upprepar du för nästa rad. Efter 20 rader gör du inte research längre – du gör administrativt arbete. Ännu värre: resultaten blir inkonsekventa eftersom du ändrar formulering, klickar på andra källor eller glömmer vad du gjorde för tre minuter sedan. Småfel smyger sig in, och plötsligt ser arket komplett ut men går inte att lita på.

Friktionen byggs på. Här är var det faller isär.

  • Varje uppslag tar cirka 3–5 minuter när du räknar in sökning, läsning och att klistra in anteckningar.
  • Två personer kan undersöka samma sak och få helt olika svar, vilket gör granskning och QA jobbigt.
  • Kalkylark blir en kyrkogård av halv-källbelagda anteckningar eftersom ingen hinner standardisera formateringen.
  • Botblockeringar och “åtkomst nekad”-sidor slösar tid, särskilt när du kontrollerar många sajter upprepade gånger.

Lösningen: Bright Data-research som körs från en kalkylarkscell

Det här arbetsflödet gör Google Sheets till en lättviktig research-konsol. Du skriver en egen funktion som =BRIGHTDATA(”C3″,”Vad är produktens aktuella pris?”) och arket skickar en säker förfrågan till n8n. Därifrån förfinar en AI-agent din fråga så att den blir tillräckligt specifik för att hämta rätt information, och sedan skrapar Bright Data relevanta sidor (även sajter som ofta blockerar enkla skrapor). En andra AI-pass filtrerar det som kom tillbaka, plockar ut de användbara detaljerna och skriver ett korrekt formaterat svar i ren text. Till sist svarar n8n direkt till webhooken så att Google Sheets kan skriva in resultatet i cellen. Ingen kopiera-klistra in. Ingen flikjonglering. Ärligt talat känns det som fusk när det väl fungerar.

Arbetsflödet startar när Apps Script-funktionen skickar en POST-förfrågan från ditt kalkylark. AI förbättrar frågan, Bright Data hämtar sidinnehållet och AI sammanfattar det till ett tajt svar. Sedan loggar arbetsflödet körningen för övervakning och returnerar text till ditt ark på under 25 sekunder.

Det du får: automatisering kontra resultat

Exempel: så här ser det ut

Säg att du bygger ett konkurrentark med 40 produkter och vill ha en anteckning om aktuellt pris för varje produkt. Manuellt tar även ett “snabbt” uppslag cirka 4 minuter när du öppnar resultat, bekräftar siffran och klistrar in en korrekt formaterad notering, så du landar på ungefär 2,5 timmar. Med det här arbetsflödet fyller du en kolumn med =BRIGHTDATA()-formler, väntar cirka 20 sekunder per rad och låter det köra medan du jobbar med något annat. Du granskar fortfarande outputen, men grovjobbet är borta.

Det du behöver

  • n8n-instans (testa n8n Cloud gratis)
  • Self-hosting-alternativ om du föredrar det (Hostinger fungerar bra)
  • Bright Data för att skrapa webbsidor pålitligt.
  • Google Sheets för att köra den anpassade BRIGHTDATA()-funktionen.
  • OpenAI API-nyckel (hämta den i OpenAI API-dashboarden).

Svårighetsgrad: Medel. Du klistrar in en kort Apps Script-snutt, lägger till ett par API-nycklar och testar en webhook.

Vill du inte sätta upp det här själv? Prata med en automationsexpert (gratis 15-minuters konsultation).

Så fungerar det

En kalkylarksformel triggar förfrågan. Google Sheets kör en Apps Script-funktion som skickar din prompt (och kontext från den aktiva cellen) till en n8n-webhook via header-autentisering.

Din input felfris och struktureras. n8n tilldelar inkommande fält (prompt, källa och kontext som kalkylarks-ID och celladress), vilket gör allt förutsägbart för AI- och skrapstegen.

AI förbättrar frågan, sedan skrapas webben. En agent för “förfina fråga” använder en OpenAI-chatmodell för att spetsa formuleringen, och därefter kör Bright Data skrapförfrågan så att du får innehåll även när sajter försöker blockera enkla botar.

Arbetsflödet extraherar och returnerar ett svar i ren text. Ytterligare ett AI-pass plockar ut relevanta detaljer, skriver en kort sammanfattning, loggar körningen och svarar på webhooken så att texten hamnar direkt i din kalkylarkscell.

Du kan enkelt justera outputformatet så att det returnerar punktlistor eller en tajtare “enradig” notering beroende på behov. Se hela implementeringsguiden nedan för anpassningsalternativ.

Steg-för-steg-guide för implementering

Steg 1: konfigurera webhook-triggern

Konfigurera den inkommande webhooken som startar workflowet och skickar payloaden med sökprompten in i flödet.

  1. Lägg till och konfigurera Incoming Webhook Trigger med Path satt till brightdata-search, HTTP Method satt till POST och Response Mode satt till responseNode.
  2. Ställ in Authentication till headerAuth.
  3. Credential Required: Anslut era httpHeaderAuth-credentials i Incoming Webhook Trigger.

Tips: Använd ett verktyg som Postman för att skicka en JSON-body som innehåller fälten source och prompt, så att efterföljande noder kan mappa indata korrekt.

Steg 2: mappa inkommande indata

Normalisera request-payloaden till konsekventa fält för AI-agenterna och summerarna.

  1. I Assign Input Fields, ställ in userPrompt till {{ $json.body.source }}.
  2. Ställ in cellReference till {{ $json.body.prompt }}.
  3. Ställ in ouputLanguage till Hebrew (eller uppdatera till ert föredragna språk).

Steg 3: konfigurera förfining av fråga och sökning

Använd AI för att förfina frågan, köra en webbsökning och tolka ut den bästa länken.

  1. Konfigurera Refine Query Agent med prompttexten User prompt: {{ $json.userPrompt }}
    Prompt's referral: {{ $json.cellReference }}
    .
  2. Säkerställ att GPT-4.1 Mini Core är ansluten som språkmodell för Refine Query Agent.
    Credential Required: Anslut era openAiApi-credentials i GPT-4.1 Mini Core.
  3. Konfigurera Bright Data Search Bot med dess definierade sökprompt (behåll kravet på enbart JSON-utdata intakt).
  4. Anslut GPT-4o Model Core som språkmodell för Bright Data Search Bot.
    Credential Required: Anslut era openAiApi-credentials i GPT-4o Model Core.
  5. Koppla Bright Data MCP Tool som verktyg för Bright Data Search Bot och ställ in endpointUrl till https://mcp.brightdata.com/mcp?token=[CONFIGURE_YOUR_TOKEN]&pro=1.
  6. Koppla Link JSON Parser som output parser för Bright Data Search Bot med schemat { "link": "" }.

⚠️ Vanlig fallgrop: Bright Data-token är en platshållare i Bright Data MCP Tool. Ersätt [CONFIGURE_YOUR_TOKEN] med er faktiska token, annars kommer sökverktyget att misslyckas.

Steg 4: konfigurera scraping och extrahering av detaljer

Scrapa den valda källan och extrahera endast relevant innehåll baserat på användarens fråga.

  1. I Bright Data Scrape Request, ställ in URL till https://api.brightdata.com/request och behåll Method som POST.
  2. Ställ in body-parametrar så att de inkluderar: zone mcp_unlocker, url {{ $json.output.link }}, format json, method GET, country il och data_format markdown.
  3. Ställ in headern Authorization till Bearer [CONFIGURE_YOUR_TOKEN] och ersätt med er Bright Data-token.
  4. Konfigurera Extract Relevant Details med inmatningstexten ## Input
    ### The user's original request:
    {{ $('Assign Input Fields').item.json.cellReference }} - {{ $('Assign Input Fields').item.json.userPrompt }}
    ### Full content scanned from a website:
    {{ $json.body }}
    .
  5. Säkerställ att Mini GPT Model A är ansluten som språkmodell för Extract Relevant Details.
    Credential Required: Anslut era openAiApi-credentials i Mini GPT Model A.
  6. Koppla Summary JSON Parser som output parser för Extract Relevant Details med schemat { "summary": "" }.

Tips: Om summeringarna är tomma, verifiera att scrape-svaret innehåller fullt sidinnehåll i {{ $json.body }} och att källsidan är åtkomlig för Bright Data.

Steg 5: generera slutlig sammanfattning och konfigurera utdata

Sätt ihop slutsvaret och skicka tillbaka det till den som frågar, samtidigt som utdata loggas.

  1. Konfigurera Compose Summary Output med prompten scraping summary information: {{ $json.output.summary }}
    the actual user request/question: {{ $('Assign Input Fields').item.json.cellReference }} - {{ $('Assign Input Fields').item.json.userPrompt }}
    .
  2. Säkerställ att Mini GPT Model B är ansluten som språkmodell för Compose Summary Output.
    Credential Required: Anslut era openAiApi-credentials i Mini GPT Model B.
  3. Koppla Final Summary Parser som output parser för Compose Summary Output med schemat { "summary": "Intel was founded in 1968." }.
  4. Konfigurera Return Webhook Reply så att den svarar med Respond With satt till text och Response Body satt till {{ $json.output.summary }}.
  5. Konfigurera Append Log Records för att skriva input_prompt som {{ $('Assign Input Fields').item.json.userPrompt }} - {{ $('Assign Input Fields').item.json.cellReference }} och output som {{ $json.output.summary }} i datatabellen Search Logs (ersätt [YOUR_ID] med ert tabell-ID).
  6. Bekräfta den parallella körningen: Compose Summary Output skickar utdata till både Return Webhook Reply och Append Log Records parallellt.

⚠️ Vanlig fallgrop: Om webhooken returnerar tom text, verifiera att Final Summary Parser outputtar summary och att Return Webhook Reply refererar till {{ $json.output.summary }}.

Steg 6: testa och aktivera ert workflow

Validera end-to-end-flödet från webhook-indata till sammanfattningsutdata och aktivera sedan för användning i produktion.

  1. Klicka Execute Workflow och skicka en POST-request till Incoming Webhook Trigger-URL:en med en JSON-body som innehåller source och prompt.
  2. Bekräfta att Bright Data Search Bot returnerar en JSON-länk och att Bright Data Scrape Request tar emot innehåll.
  3. Verifiera att Return Webhook Reply svarar med en kortfattad sammanfattningstext och att Append Log Records skriver en ny rad i er datatabell.
  4. När allt är validerat, växla workflowet till Active så att det kan ta emot webhook-requests i produktion.
🔒

Lås upp fullständig steg-för-steg-guide

Få den kompletta implementeringsguiden + nedladdningsbar mall

Vanliga fallgropar

  • Bright Data-credentials kan löpa ut eller kräva specifika behörigheter. Om det skapar fel, kontrollera först status för din Bright Data API-token i Bright Data-konsolen.
  • Om du använder Wait-noder eller extern skrapning varierar bearbetningstiderna. Öka väntetiden om nedströmsnoder misslyckas på tomma svar.
  • Standardprompter i OpenAI-noder är generiska. Lägg in din tonalitet tidigt, annars kommer du att redigera output för alltid.

Vanliga frågor

Hur lång tid tar det att sätta upp den här Bright Data-research-automatiseringen?

Cirka 20 minuter om dina konton och API-nycklar är redo.

Behöver jag kodkunskaper för att automatisera Bright Data-research?

Nej. Du klistrar in en förberedd Apps Script-funktion och kopplar in credentials i n8n.

Är n8n gratis att använda för det här Bright Data-research-arbetsflödet?

Ja. n8n har ett gratis self-hosted-alternativ och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna in Bright Data- och OpenAI-användning (det här arbetsflödet ligger ofta runt 0,02–0,05 USD per sökning i Bright Data, plus dina OpenAI-anrop).

Var kan jag hosta n8n för att köra den här Bright Data-research-automatiseringen?

Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller self-hosting på en VPS. För self-hosting är Hostinger VPS prisvärt och hanterar n8n bra. Self-hosting ger dig obegränsade körningar men kräver grundläggande serveradministration.

Kan jag anpassa det här Bright Data-research-arbetsflödet till ett annat outputformat (som punktlistor eller “pris + källa”)?

Ja, och det är oftast en snabb ändring. Uppdatera instruktionerna i agenten “Compose Summary Output” så att den returnerar exakt det du vill ha (punktlistor, en enda mening eller formatet “Pris: / Källa: / Datum:”). Om du vill ha striktare parsning kan du justera “Summary JSON Parser” eller “Final Summary Parser” så att modellen tvingas till en konsekvent struktur. Vanliga justeringar är att byta outputspråk, begränsa svarslängd och prioritera specifika källor.

Varför misslyckas min Bright Data-anslutning i det här arbetsflödet?

Oftast beror det på en ogiltig eller utgången Bright Data API-nyckel. Kontrollera Bright Data-konsolen, skapa en ny token vid behov och uppdatera sedan credentials som används i steget “Bright Data Scrape Request” i n8n.

Hur många uppslag klarar den här Bright Data-research-automatiseringen?

Det beror på hur du kör n8n och din budget. På n8n Cloud är dina månatliga körningar begränsade av din plan, vilket spelar roll om du fyller hundratals rader med formler. Om du self-hostar finns ingen plattformsgräns för körningar, men Google Sheets har fortfarande ett tak på cirka 30 sekunder per funktionsanrop, så du vill att arbetsflödet blir klart på cirka 20 sekunder. I praktiken kör team detta i batchar (t.ex. 50–200 rader), granskar resultaten och kör om bara missarna.

Är den här Bright Data-research-automatiseringen bättre än att använda Zapier eller Make?

För det här arbetsflödet har n8n några fördelar: mer komplex logik med obegränsad förgrening utan extra kostnad, möjlighet till self-hosting för obegränsade körningar och inbyggda AI-agentmönster som är klumpiga (eller dyra) på andra plattformar. Zapier eller Make kan fungera för enkla tvåstegsflöden, men de är inte byggda för “en kalkylarkscell triggar webskrapning + AI-sammanfattning” i en tajt loop. Dessutom är webhook + Apps Script-upplägget enkelt att styra, vilket är viktigt när du kör många rader. Om du är osäker, prata med en automationsexpert och beskriv din volym och ditt use case.

När det här väl är på plats slutar ditt kalkylark att vara en plats där research går för att dö. Det blir platsen där research faktiskt blir gjort – konsekvent, på minuter.

Kontakta oss

Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.

×

Använd mall

Få direkt tillgång till denna n8n-arbetsflödes JSON-fil

Få prisoffert redan idag!
Få prisoffert redan idag!

Berätta vad ni behöver hjälp med så hör vi av oss inom en arbetsdag!

Få prisoffert redan idag!
Få prisoffert redan idag!

Berätta vad ni behöver hjälp med så hör vi av oss inom en arbetsdag!

Launch login modal Launch register modal