Behöver ert företag hjälp med att implementera AI? Kontakta oss och få prisoffert här →
AI Skolan
januari 22, 2026

Firecrawl + Google Sheets: användbara webbplatskartor

Rickard Andersson Partner, Nodenordic.se

Du tar en konkurrents URL, börjar klicka runt och 30 minuter senare har du 12 flikar öppna och ingen användbar lista över sidor. Värre: du vet fortfarande inte vad som är en produktsida, vad som är en kategori och vad som bara är utfyllnad.

Den här Firecrawl Sheets mapping-automationen träffar marknadsförare som gör konkurrentanalys först, helt ärligt. Men säljteam som gör lead enrichment och byråoperatörer som bygger revisioner känner av det också. Resultatet är enkelt: ett felfritt Google Sheet där sajten är kartlagd och URL:er sorterade i flikar för produkt, kategori och ”övrigt”.

Du får se exakt hur arbetsflödet hämtar en komplett intern sitemap, extraherar företagsinsikter, klassificerar URL:er med AI och skriver allt till strukturerade Sheets som du kan filtrera direkt.

Så fungerar automatiseringen

Här är det kompletta arbetsflödet du kommer att sätta upp:

n8n Workflow Template: Firecrawl + Google Sheets: användbara webbplatskartor

Varför det här spelar roll: konkurrentsidor är svåra att katalogisera snabbt

”Bara kartlägg deras sajt” låter enkelt tills du faktiskt gör det. Du börjar på startsidan, klickar kategorier, öppnar produktsidor och kör sedan fast eftersom navigationen gömmer halva katalogen bakom filter och JavaScript. Så du byter till en crawler, exporterar en stökig CSV och spenderar ändå eftermiddagen med att sortera URL:er för hand. Det handlar inte bara om tid. Det är kontextbyten, att tveka och att göra om samma arbete nästa månad eftersom inget är strukturerat på ett sätt som teamet kan återanvända.

Friktionen byggs på. Här är var det faller isär i verkligheten.

  • Folk kopierar och klistrar in URL:er i ett kalkylark, men listan är ofullständig och namngivningen är inkonsekvent.
  • Exporter från crawlverktyg innehåller ofta spårningsparametrar och dubbletter, så du slösar tid på att rensa innan du ens kan analysera.
  • Någon måste manuellt märka upp sidor som ”produkt” eller ”kategori”, och misstag saboterar tyst slutsatserna du drar senare.
  • När du återvänder till analysen kan du inte jämföra förändringar, eftersom förra gångens data inte kartlades på samma sätt.

Vad du bygger: en AI-klassificerad sajt-karta i Google Sheets

Det här arbetsflödet gör om en enda webbplats-URL till en strukturerad, återanvändbar researchtillgång. Det startar när du skickar in en domän via ett n8n-formulär. Arbetsflödet hämtar startsidan, extraherar huvudtexten och rensar upp den så att en AI-agent kan plocka ut övergripande företagsinsikter som bransch, målgrupp och om verksamheten är B2B eller B2C. Sedan kartlägger Firecrawl sajten och returnerar interna URL:er med hjälpsam metadata. URL:erna bearbetas i batchar, klassificeras av en AI-utvärderare till produktsidor, kategorisidor eller icke-kommersiella sidor och skrivs till sist in i separata flikar i Google Sheets. Du får ett kalkylark som känns som om det förbereddes av en analytiker, inte som en dump från en crawler.

Arbetsflödet börjar med intag och tolkning av startsidan i n8n. Efter det gör Firecrawl grovjobbet med att kartlägga interna länkar. Till sist ger AI-klassificering och Google Sheets-utdata dig felfria flikar som du kan filtrera, dela och återanvända för revisioner eller konkurrentbevakning.

Det du bygger

Förväntade resultat

Säg att du kartlägger 5 konkurrenters sajter under en vecka. Manuellt kanske du lägger cirka 2 timmar per sajt på att klicka, kopiera URL:er och märka upp sidor, alltså ungefär en hel dag som går förlorad. Med det här arbetsflödet tar det en minut att skicka in varje sajt, sedan väntar du medan Firecrawl kartlägger URL:erna och AI-klassificeraren sorterar dem i batchar (ofta 10–20 minuter per sajt beroende på storlek). Det är fortfarande verklig tid, men det är inte din tid, och resultatet ligger redan i felfria Google Sheets-flikar.

Innan du börjar

  • n8n-instans (prova n8n Cloud gratis)
  • Alternativ för egen hosting om du föredrar det (Hostinger fungerar bra)
  • Firecrawl för att kartlägga interna URL:er i stor skala
  • Google Sheets för att lagra resultat i strukturerade flikar
  • LLM-inloggningsuppgifter (Gemini eller kompatibelt) (hämta dem från Google AI Studio eller din leverantörs dashboard)

Kunskapsnivå: Nybörjare. Du kopplar konton, klistrar in API-nycklar och uppdaterar ett mål-Sheet i Google.

Vill du att någon bygger detta åt dig? Prata med en automationsexpert (kostnadsfri 15-minuters konsultation).

Steg för steg

Formulärinsändning startar körningen. Du klistrar in en webbplats-URL i n8n:s formulärtrigger, vilket blir den enda sanningskällan för resten av arbetsflödet.

Startsidan rensas för analys. n8n hämtar startsidans HTML via HTTP Request, extraherar läsbar text och sanerar den så att AI-agenten kan sammanfatta verksamheten utan att störas av navigation och standardtext.

Firecrawl kartlägger hela sajten. När domänen är registrerad i Google Sheets hämtar Firecrawl interna URL:er och arbetsflödet tolkar URL-metadata, och packar sedan upp URL-arrayen till items som kan bearbetas säkert.

URL:er klassificeras och skrivs till flikar. En split-in-batches-loop skickar URL:er till AI-utvärderaren, ett sorteringssteg routar dem till grenar för produkt/kategori/övrigt och Google Sheets-noder lägger till rader på rätt plats.

Du kan enkelt justera klassificeringsreglerna för att exkludera bloggar eller juridiksidor utifrån dina behov. Se den fullständiga implementationsguiden nedan för anpassningsalternativ.

Steg-för-steg-guide för implementering

Steg 1: konfigurera formulärtriggern

Konfigurera startpunkten för workflowet så att inskickade svar startar flödet för URL-klassificering.

  1. Lägg till och öppna Form Intake Trigger.
  2. Använd standardinställningarna för webhook som skapas av noden (webhook-ID skapas automatiskt).
  3. Säkerställ att formulärfälten samlar in den webbplats-URL som behövs av Fetch Website Source.

Tips: Behåll ett dedikerat fält som website eller url i formulärsvaret för att förenkla mappning i efterföljande kodnoder.

Steg 2: anslut hämtning och extrahering av webbplats

Konfigurera kedjan för initial crawl, hämtning av HTML och textstädning.

  1. Öppna Fetch Website Source och ställ in begäran mot den inskickade URL:en (om det krävs av er formulärstruktur).
  2. Verifiera kopplingen från Fetch Website SourceHTML ExtractionSanitize HTML Text.
  3. Öppna HTML Extraction och konfigurera selektorer för det innehåll ni vill analysera (t.ex. brödtext eller specifika element).
  4. Granska Sanitize HTML Text för att säkerställa att den ger ren text till AI-modellen.

⚠️ Vanlig fallgrop: Om HTML Extraction returnerar tom data, bekräfta att målwebbplatsen är åtkomlig och att era selektorer matchar den live-HTML som faktiskt används.

Steg 3: konfigurera AI-klassificering och insikter

Använd Gemini för att ta fram företagsinsikter och kategorisera URL:er.

  1. Öppna Company Insight Agent och konfigurera prompten så att den sammanfattar företaget baserat på sanerad text.
  2. Autentisering krävs: Anslut era Google Gemini-uppgifter i Company Insight Agent.
  3. Öppna Category AI Evaluator och konfigurera prompten för att kategorisera URL-batcher.
  4. Autentisering krävs: Anslut era Google Gemini-uppgifter i Category AI Evaluator.
  5. Bekräfta flödet: Sanitize HTML TextCompany Insight AgentDecode JSON PayloadUpdate Domain SheetWebsite Map & URL FetchInterpret URL MetadataUnpack URL ArrayBatch IteratorCategory AI Evaluator.

Tips: Håll AI-utdata i strikt JSON-format så att Decode JSON Payload kan tolka dem konsekvent.

Steg 4: konfigurera URL-bearbetning och parallell routning

Dela upp och routa kategoriserade URL:er till separata spår och förbered rader för Sheets.

  1. Öppna Sort URLs by Category och bekräfta att den ger strukturerade ”hinkar” för kategori-, produkt- och övriga länkar.
  2. Verifiera parallell körning: Sort URLs by Category skickar utdata till både Process Category Links och Process Product Links parallellt, samt även till Process Misc Links parallellt.
  3. Granska kodnoderna (Process Category Links, Process Product Links, Process Misc Links, samt andra kodnoder i flödet) för att säkerställa att de mappar URL-datan till strukturer som är redo att skrivas som rader.
  4. Bekräfta att Batch Iterator är ansluten efter varje append-steg för att fortsätta bearbeta ytterligare URL-batcher.

Tips: Eftersom detta workflow använder många kodnoder, håll konsekventa fältnamn (t.ex. url, category, title) för att undvika mismatchar mellan grenar.

Steg 5: konfigurera utdata till Google Sheets

Skicka den klassificerade datan till rätt flikar i Sheets.

  1. Öppna Update Domain Sheet och ställ in målarket och fliken för data på domännivå.
  2. Öppna Append Category Rows, Append Product Rows och Append Misc Rows och ställ in kalkylark och fliknamn för respektive kategori.
  3. Autentisering krävs: Anslut era Google Sheets-uppgifter i Update Domain Sheet, Append Category Rows, Append Product Rows och Append Misc Rows.

⚠️ Vanlig fallgrop: Om rader inte läggs till, verifiera att fliknamnen matchar exakt och att kolumnerna linjerar med er radstruktur.

Steg 6: testa och aktivera ert workflow

Kör ett manuellt test för att validera hela kedjan från formulärintag till utdata i Sheets.

  1. Klicka på Execute Workflow och skicka in ett exempel-svar till Form Intake Trigger.
  2. Bekräfta lyckad körning genom Fetch Website Source, HTML Extraction, Sanitize HTML Text och AI-noderna.
  3. Kontrollera att Update Domain Sheet och append-noderna skriver nya rader till rätt flikar i Sheets.
  4. När ni är nöjda, slå på workflowet till Active för att möjliggöra körning i produktion.
🔒

Lås upp fullständig steg-för-steg-guide

Få den kompletta implementeringsguiden + nedladdningsbar mall

Felsökningstips

  • Google Sheets-inloggningar kan löpa ut eller kräva specifika behörigheter. Om det skapar fel, kontrollera det anslutna Google-kontot i n8n:s Credentials och bekräfta att Sheetet är delat med det.
  • Om du använder Wait-noder eller extern rendering varierar processtiderna. Öka väntetiden om nedströms noder fallerar på tomma svar.
  • Standardprompter i AI-noder är generiska. Lägg in er tonalitet tidigt, annars kommer du att redigera utdata för alltid.

Snabba svar

Hur lång uppsättningstid är det för den här Firecrawl Sheets mapping-automationen?

Cirka 30 minuter om dina inloggningsuppgifter är redo.

Krävs kodning för att få det här resultatet med sajt-kartläggning?

Nej. Du kopplar konton, klistrar in API-nycklar och redigerar några fält, som ditt mål-Sheet.

Är n8n gratis att använda för det här Firecrawl Sheets mapping-arbetsflödet?

Ja. n8n har ett gratis alternativ för egen hosting och en gratis provperiod på n8n Cloud. Cloud-planer startar på 20 USD/månad för högre volym. Du behöver också räkna in Firecrawl- och LLM API-användning, vilket beror på hur många sidor du kartlägger.

Var kan jag hosta n8n för att köra den här automatiseringen?

Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller egen hosting på en VPS. För egen hosting är Hostinger VPS prisvärd och hanterar n8n bra. Egen hosting ger dig obegränsade körningar men kräver grundläggande serverhantering.

Kan jag anpassa det här Firecrawl Sheets mapping-arbetsflödet för andra use cases?

Ja, och det bör du förmodligen. Du kan justera vad som räknas som ”produkt” eller ”kategori” genom att redigera prompten i Category AI Evaluator, och du kan lägga till exkluderingar i stegen för URL-bearbetning (som att filtrera bort /blog, /careers eller /legal). Många team bygger också ut Google Sheets-utdata med extra kolumner som ”prioritet”, ”anteckningar” eller ”målnyckelord”. Om du föredrar OpenAI i stället för Gemini kan du byta chatmodell/agent-nod och behålla resten av strukturen oförändrad.

Varför fallerar min Firecrawl-anslutning i det här arbetsflödet?

Oftast är det ett problem med API-nyckeln eller felaktiga Firecrawl-basinställningar i n8n. Generera om Firecrawl API-nyckeln, uppdatera den i Credentials och kör sedan igen med en liten sajt först. Om kartläggningen returnerar tomt kan domänen blockera crawlers eller kräva cookies, så du kan behöva justera crawl-inställningar eller börja från en annan ingångs-URL.

Vilken volym kan det här Firecrawl Sheets mapping-arbetsflödet hantera?

Mycket, så länge du kör i batchar. På n8n Cloud är din gräns mest dina månadsvisa körningar och hur många URL:er du väljer att klassificera; vid egen hosting är den praktiska gränsen serverresurser och API-rate limits. Arbetsflödet är redan designat med Split in Batches, vilket gör att stora sajter inte kraschar körningen. Om du regelbundet kartlägger tusentals URL:er: minska vad du klassificerar, öka batchstorleken försiktigt och räkna med längre väntetider.

Är den här Firecrawl Sheets mapping-automationen bättre än att använda Zapier eller Make?

För den här typen av flerstegs-crawl och klassificering är n8n oftast det smidigare valet eftersom batchning, förgrening och kodbaserad städning inte blir krångligt eller dyrt. Zapier och Make kan göra delar av det, men stora URL-listor blir ofta många debiterbara tasks. n8n ger dig också möjlighet att köra med egen hosting, vilket spelar roll när du kör det här varje vecka. Om du bara vill ha ett enkelt ”URL in, rad ut”-flöde för en handfull sidor kan de lättare verktygen fungera bra. Prata med en automationsexpert om du är osäker på vilket upplägg som passar din volym.

När det här väl är på plats slutar konkurrentanalys att vara en engångsstress och blir en dataset du kan bygga vidare på. Arbetsflödet sköter sorteringen, och du får tillbaka ditt fokus.

Kontakta oss

Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.

×

Använd mall

Få direkt tillgång till denna n8n-arbetsflödes JSON-fil

Launch login modal Launch register modal