Behöver ert företag hjälp med att implementera AI? Kontakta oss och få prisoffert här →
AI Skolan
januari 22, 2026

Gemini + Google Sheets för strukturerad marknadsresearch

Rickard Andersson Partner, Nodenordic.se

Marknadsundersökningar blir snabbt röriga. Du öppnar 20 flikar, klistrar in länkar i ett dokument, tappar bort de ”bra” källorna och sitter en vecka senare med anteckningar som ingen litar på.

Om du jobbar med growth känner du igen det här varje dag. Marknadschefer som försöker följa konkurrenter, byråägare som bygger rapporter åt kunder och founders som gör snabb validering stöter alla på samma hinder. Den här Gemini Sheets-automationen förvandlar spretig webbinsikt till ett enda strukturerat kalkylark som du faktiskt kan granska.

Du får se hur flödet samlar in källor, sammanfattar det som är viktigt och skriver allt i strukturerade kolumner i Google Sheets, så att din ”research” blir något du kan agera på.

Så fungerar den här automationen

Här är det kompletta arbetsflödet som du kommer att sätta upp:

n8n Workflow Template: Gemini + Google Sheets för strukturerad marknadsresearch

Varför det här spelar roll: marknadsundersökningar utan flikkaos

Manuell konkurrent- och marknadsresearch fallerar på ett väldigt förutsägbart sätt. Du börjar med en tydlig fråga (”Vem rankar på det här?” eller ”Vilka alternativ finns till Produkt X?”), och sedan börjar grävandet. Sökresultat, blogginlägg, recensionssajter, kataloger, LinkedIn-inlägg, prissidor. Efter ungefär 30 minuter gör du inte research längre. Du hanterar fönster, klistrar in länkar och försöker komma ihåg varför du sparade en sida från början. Kostnaden är inte bara tid. Det är kvaliteten i besluten, eftersom stökiga underlag ger stökiga slutsatser.

Det summeras snabbt. Här är var det faller isär i riktiga team.

  • Du samlar källor på tre ställen (flikar, bokmärken, ett dokument), så den slutliga ”listan” blir aldrig komplett.
  • Formateringen kraschar när du copy-pastar, vilket gör att ingen vill fixa till det i efterhand.
  • Research görs om eftersom kontexten saknas, till exempel när du sparat en URL men inte den viktigaste insikten.
  • Uppdateringar är jobbiga, så din konkurrensinsikt blir i tysthet inaktuell inom en månad.

Det du bygger: en Gemini-researchagent som fyller ett kalkylark

Det här flödet ger dig en chattbaserad researchassistent som kan hämta information från flera webbkällor och automatiskt organisera den i ett nytt Google Sheet. Det startar när du skickar en begäran på naturligt språk (till exempel: ”Hitta de främsta konkurrenterna till X i Storbritannien och inkludera prissidor”). Gemini fungerar som en ”research director” och väljer vilket insamlingsverktyg som ska användas för varje del av jobbet. Den kan göra en webbsökning i realtid, crawla sajter för djupare kontext eller trigga strukturerad scraping för källor som kräver det. Därefter normaliserar den allt till konsekventa rader och kolumner, skapar ett nytt Google-kalkylark och skriver in resultatet med formatering så att det är läsbart direkt när du öppnar. Till sist kan den anropa ett beriknings-API-steg för att lägga till metadata (som kategorisering eller sentiment) och returnerar en korrekt formaterad payload som du kan återanvända i andra flöden.

Flödet börjar med ett inkommande chattmeddelande och använder minne för att behålla kontext mellan uppföljningar. Därefter orkestrerar Gemini MCP-verktyg som Brave Search, Firecrawl och Apify för att samla in och syntetisera resultat. Efter det skapar n8n ett Google Sheet och fyller det med strukturerad research, redo för granskning och delning.

Det du bygger

Förväntade resultat

Säg att du gör konkurrentresearch för en kampanj varje vecka och vill ha 30 stabila källor. Manuellt är det lätt att lägga cirka 5 minuter per källa på att hitta den, validera den och klistra in anteckningar i ett ark, vilket blir ungefär 2–3 timmar per körning. Med det här flödet skickar du en chattförfrågan (kanske 2 minuter), väntar några minuter på insamling och att arket skapas, och lägger sedan din tid på att granska i stället för att sammanställa. Det betyder oftast ett par timmar tillbaka varje vecka, och ditt ark är mer strukturerat.

Innan du börjar

  • n8n-instans (testa n8n Cloud gratis)
  • Alternativ för egen drift om du föredrar det (Hostinger fungerar bra)
  • Google Sheets för att skapa och uppdatera research-kalkylark.
  • Google Gemini API för att driva AI-agentens resonemang.
  • MCP-verktyg (Firecrawl, Brave, Apify) för crawling, sök och scraping via community-noder.

Kunskapsnivå: Medel. Du är bekväm med att lägga till credentials, installera community-noder och testköra några rundor med exempelprompter.

Vill du att någon bygger detta åt dig? Prata med en automationsspecialist (gratis 15-minuters konsultation).

Steg för steg

Ett chattmeddelande sätter igång allt. Du skickar en researchförfrågan via flödets chatttrigger, som ”Hitta alternativ till X och inkludera prissidor.” Meddelandet skickas vidare till agenten som uppdragsbeskrivning.

Minne håller ihop tråden. Simple Memory-bufferten sparar senaste kontexten, så uppföljande prompter som ”Fokusera nu bara på Shopify-appar” känns inte som att börja om från noll.

Gemini orkestrerar insamlingsverktygen. Utifrån det du frågar avgör AI-agenten när den ska använda Brave Search för snabb upptäckt, Firecrawl för djupare extraktion eller Apify för strukturerad scraping. n8n slår sedan ihop och snyggar till resultaten (inklusive valfri berikning via HTTP-anrop).

Ett nytt Google Sheet skapas och fylls. Flödet genererar ett kalkylark med kolumner som URL, titel, beskrivning, källa, tidsstämpel och metadata, och skriver sedan rader med formatering så att filen är läsbar direkt.

Du kan enkelt ändra arkets schema så att det matchar din granskningsprocess, till exempel genom att lägga till en kolumn för ”Prioritet” eller byta ut berikningsanropet mot ditt eget scoring-API. Se den fullständiga implementeringsguiden nedan för alternativ för anpassning.

Steg-för-steg-guide för implementering

Steg 1: konfigurera chat-triggern

Konfigurera startpunkten för workflowet så att inkommande chattar kan starta research-automationen.

  1. Lägg till och öppna Incoming Chat Trigger.
  2. Behåll standardinställningarna i Incoming Chat Trigger (inga extra parametrar krävs).
  3. Bekräfta att körflödet startar med Incoming Chat TriggerGemini Research Director.

Steg 2: anslut Google Sheets

Skapa ett nytt kalkylark för att lagra resultatet från researchen och säkerställ att nödvändiga Google-inloggningar är anslutna.

  1. Öppna Generate Research Sheet och ställ in Resource till spreadsheet.
  2. Ställ in Title till scrapped .
  3. Inloggning krävs: Anslut era googleSheetsOAuth2Api-inloggningsuppgifter i Generate Research Sheet.
  4. Verifiera flödet: Gemini Research DirectorGenerate Research SheetResearch Data Script.

Steg 3: konfigurera AI-research director och verktyg

Konfigurera AI-agenten, minnet och verktygsanslutningarna som används för att söka och skrapa data.

  1. Öppna Gemini Research Director och bekräfta att System Message instruerar användning av verktygen Brave, Firecrawl och Apify.
  2. Öppna Context Memory Buffer och ställ in Context Window Length till 30.
  3. Öppna Gemini Dialogue Model och säkerställ att den är ansluten som språkmodell för Gemini Research Director. Inloggning krävs: Anslut era googlePalmApi-inloggningsuppgifter.
  4. Anslut verktygsnoder till agenten: Firecrawl Tool List, Firecrawl Tool Run, Brave Tool List, Brave Tool Run, Apify Tool List och Apify Tool Run.
  5. Inloggning krävs: Anslut era mcpClientApi-inloggningsuppgifter till alla MCP-verktygsnoder (6 noder). Dessa verktyg används av Gemini Research Director, så inloggningen måste sättas på varje verktygsnod, inte på agenten.
  6. I varje verktygskörningsnod ska ni behålla det dynamiska verktygsvalet: ställ in Tool Name till {{$fromAI("tool", "the selected tool to use")}} och Tool Parameters till {{$fromAI('Tool_Parameters', ``, 'json')}} i Firecrawl Tool Run, Brave Tool Run och Apify Tool Run.

Tips: AI-verktygsnoderna (minne och MCP-verktyg) är underkomponenter till Gemini Research Director. Behåll deras kopplingar intakta så att agenten kan anropa dem under chattdriven research.

Steg 4: parsa och strukturera research-resultatet

Använd det anpassade skriptet för att parsa agentens output och förbereda strukturerade kalkylarksförfrågningar.

  1. Öppna Research Data Script och behåll standardinställningen för JavaScript Code som läser $('Gemini Research Director').item.json.output och sheet-ID:t från $('Generate Research Sheet').item.json.spreadsheetId.
  2. Säkerställ att skriptet bygger requests och valueRanges för arken: Resume, Categories, Emplois och Statistiques.
  3. Verifiera flödet: Generate Research SheetResearch Data ScriptFill Research Report.

Steg 5: konfigurera output-uppdateringar och slutlig payload

Skicka formatering och värden till Google Sheets och bygg sedan en slutlig status-payload.

  1. Öppna Fill Research Report och ställ in URL till https://sheets.googleapis.com/v4/spreadsheets/{{ $json.spreadsheetId }}:batchUpdate.
  2. Ställ in Method till POST och JSON Body till { "requests": {{ JSON.stringify($json.requests) }} }.
  3. Inloggning krävs: Anslut era googleSheetsOAuth2Api-inloggningsuppgifter i Fill Research Report (noden listar även googleDocsOAuth2Api; behåll den ansluten om den används i er miljö).
  4. Öppna Enrichment API Request och ställ in URL till https://sheets.googleapis.com/v4/spreadsheets/{{ $json.spreadsheetId }}/values:batchUpdate.
  5. Ställ in Method till POST och JSON Body till { "valueInputOption": "USER_ENTERED", "data": {{ JSON.stringify($json.valueRanges) }} }.
  6. Öppna Finalize Result Payload och behåll Mode inställt på raw med JSON Output som inkluderar {{ $json.error.message }}, {{ $json.error.code }}, {{ $('Research Data Script').item.json.spreadsheetId }} och {{ new Date().toISOString() }}.

⚠️ Vanlig fallgrop: Enrichment API Request använder Google Sheets API-endpointen men har ingen inloggning konfigurerad. Lägg till autentisering (OAuth2 eller API-nyckelheaders) om er miljö kräver det, annars kan anropet misslyckas med behörighetsfel.

Steg 6: testa och aktivera ert workflow

Kör ett fullständigt test från chat-triggern och verifiera kalkylarksoutputen innan ni aktiverar.

  1. Klicka Execute Workflow och skicka ett testmeddelande till Incoming Chat Trigger.
  2. Bekräfta att Gemini Research Director producerar output, att Generate Research Sheet skapar ett kalkylark och att Fill Research Report + Enrichment API Request fyller i värden.
  3. Verifiera att kalkylarket innehåller arken Resume, Categories, Emplois och Statistiques med formaterad data.
  4. Kontrollera Finalize Result Payload för en tidsstämpel och ett spreadsheet-ID för att bekräfta att körningen är klar.
  5. Växla workflowet till Active för produktionsanvändning när testerna lyckas.
🔒

Lås upp fullständig steg-för-steg-guide

Få den kompletta implementeringsguiden + nedladdningsbar mall

Felsökningstips

  • Google Sheets-credentials kan fallera om OAuth-samtycket eller Drive-behörigheterna är ofullständiga. Om arket inte skapas, kontrollera först åtkomsten för det anslutna Google-kontot i n8n-credentials.
  • Om du crawlar eller scrapar kan svarstiden variera kraftigt. När nedströmsnoder får tom data, öka Wait-tiden eller lägg till enkel retry-logik innan script-steget körs.
  • Gemini-prompter som är för generiska ger slätstrukna sammanfattningar. Lägg in dina kategorier, ”vad som ska ignoreras” och din definition av en ”konkurrent” tidigt, annars kommer du att redigera output för alltid.

Snabba svar

Hur lång tid tar det att sätta upp den här Gemini Sheets-automationen?

Cirka 45 minuter när du har nycklarna och community-noderna på plats.

Krävs det kodning för den här marknadsresearch-automationen?

Nej, det krävs ingen kodning för att använda den. Det finns en script-nod i mallen, men du kan låta den vara som den är och ändå få korrekt formaterade ark.

Är n8n gratis att använda för det här Gemini Sheets-automationsflödet?

Ja. n8n har ett gratis alternativ för egen drift och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna in kostnader för Gemini och verktygens API:er (Brave, Firecrawl, Apify och eventuella beriknings-API:er du anropar).

Var kan jag hosta n8n för att köra den här automationen?

Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller egen drift på en VPS. För egen drift är Hostinger VPS prisvärd och hanterar n8n bra. Den här specifika Gemini Sheets-automationen kräver egen drift eftersom den använder community-baserade MCP-noder, så n8n Cloud kan inte köra den.

Kan jag anpassa det här Gemini Sheets-automationsflödet för andra användningsfall?

Ja, och det bör du. De flesta anpassningar görs i agentprompten för Gemini Research Director, i Research Data Script (där du mappar kolumner) och i Enrichment API Request (om du vill ha scoring eller kategorisering). Vanliga justeringar är att ändra kalkylarkets kolumner (till exempel lägga till ”Prisnivå”), avgränsa källor per region och att spara resultat i Microsoft Excel 365 i stället för Google Sheets när en kund kräver det.

Varför fungerar inte min Google Sheets-anslutning i det här flödet?

Oftast är det en skillnad i autentisering eller behörigheter. Kontrollera Google Sheets-credential i n8n igen, bekräfta att kontot kan skapa filer i den aktuella Drive-mappen och se till att dina OAuth-scopes inkluderar att skapa filer. Om arket skapas men inte fylls beror problemet ofta på att script-outputens struktur inte matchar vad begäran ”Fill Research Report” förväntar sig. Håll även koll på API-kvoter om du kör stora batchar direkt efter varandra.

Vilken volym kan det här Gemini Sheets-automationsflödet hantera?

Om du kör egen drift finns ingen exekveringsgräns från n8n i sig; det beror främst på din server och rate limits för Brave, Firecrawl, Apify och Google Sheets. I praktiken kör team några researchjobb per dag utan att tänka på det, och lägger sedan till batchning och retries när de börjar crawla hundratals sidor i en körning.

Är den här Gemini Sheets-automationen bättre än att använda Zapier eller Make?

Ofta, ja, eftersom flödet bygger på agentlik orkestrering, förgreningar, minne och community-baserade MCP-noder som Zapier/Make inte hanterar lika flexibelt. Det är också enklare att hålla ”researchlogiken” på ett ställe, i stället för att sy ihop ett dussin zaps eller scenarier. Nackdelen är uppsättningen: egen drift och verktygs-credentials kräver lite mer omsorg. Om du vill ha något du kan sätta upp på en timme med bara standardappar kan Zapier kännas enklare. Om du vill ha rikare researchkörningar och kontroll över scraping/crawling är n8n bättre. Prata med en automationsspecialist om du är osäker på vad som passar.

Du sätter upp det här en gång, och sedan slutar din research att leva i utspridda flikar. Flödet sköter insamling och uppstädning, så att du kan fokusera på besluten.

Kontakta oss

Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.

×

Använd mall

Få direkt tillgång till denna n8n-arbetsflödes JSON-fil

Få prisoffert redan idag!
Få prisoffert redan idag!

Berätta vad ni behöver hjälp med så hör vi av oss inom en arbetsdag!

Få prisoffert redan idag!
Få prisoffert redan idag!

Berätta vad ni behöver hjälp med så hör vi av oss inom en arbetsdag!

Launch login modal Launch register modal