Behöver ert företag hjälp med att implementera AI? Kontakta oss och få prisoffert här →
AI Skolan
januari 22, 2026

Firecrawl till Google Sheets, research att återanvända

Rickard Andersson Partner, Nodenordic.se

Du öppnar 20 flikar för ”snabb research”, och på något sätt slutar det med ett rörigt dokument, saknade länkar och ingen aning om var det där bra citatet kom ifrån. Sedan gör du om allt nästa vecka eftersom arbetet inte fångades på ett sätt som går att återanvända.

Det är här Firecrawl Sheets automation betalar sig själv. Contentstrategier känner smärtan först, men growth marketers och små byråledare dras in i samma loop. Utfallet är enkelt: felfria källor i ett och samma kalkylblad (länkar, sidtext, skärmbilder) så att du kan briefa snabbare och sluta göra om research.

Nedan ser du hur arbetsflödet förvandlar en prompt på vanlig svenska till strukturerade insikter, och hur du sätter upp det så att din research blir en tillgång i stället för en engångsinsats.

Så fungerar den här automatiseringen

Hela n8n-flödet, från trigger till slutligt resultat:

n8n Workflow Template: Firecrawl till Google Sheets, research att återanvända

Problemet: research tappas bort (och görs om)

Manuell research verkar oskyldig tills du ser mönstret. Du söker, klickar, skummar, kopierar en länk till ett dokument, klistrar in ett stycke och lovar dig själv att du ska ”organisera det senare”. Senare kommer aldrig. Skärmbilder hamnar i slumpmässiga mappar, sidtext kapas, och slutdokumentet blir till åsikter med några halvdana källhänvisningar. Nästa gång du behöver samma ämne börjar du från noll eftersom källorna är ofullständiga eller opålitliga. Ärligt talat är den värsta delen den mentala belastningen av att hålla ordning på allt samtidigt som du försöker tänka.

Det eskalerar snabbt. Här är var det fallerar i riktiga team.

  • Flikarna blir fler, och ”bästa källorna” försvinner i samma stund du stänger webbläsaren.
  • Att kopiera och klistra in sidtext blir inkonsekvent, vilket gör att du missar kontext eller råkar få med fel avsnitt.
  • Skärmbilder sparas, men kopplas inte till exakt URL och datum när du tog dem.
  • Att dela research tar en extra timme eftersom du städar ett dokument i stället för att lämna över en prydlig datamängd.

Lösningen: Firecrawl-sökning till ett återanvändbart researchblad

Det här n8n-arbetsflödet förvandlar en researchförfrågan i naturligt språk till strukturerade resultat som du kan återanvända. Du börjar med att skicka en prompt via den inbyggda chattriggern (till exempel: ”Hitta AI-automationssidor på YouTube, exkludera Shorts”). En AI-agent skriver sedan om den begäran på vanlig svenska till en exakt Firecrawl-sökfråga, ungefär som en avancerad Google-operatorsträng. Firecrawl kör sökningen, skrapar sidorna och tar skärmbilder av hela sidan så att dina källor bevaras, inte bara refereras. Till sist formaterar flödet outputen till prydliga fält som kan sparas i ett kalkylblad och delas som en källista som är redo för brief.

Arbetsflödet startar med ett chattmeddelande och lämnar det vidare till agenten Search Orchestrator. Den agenten använder Firecrawl som uppslagsverktyg för att söka och hämta titlar, länkar och sidinnehåll. Därifrån kan du routa resultaten till Google Sheets så att samma research är lätt att skanna, filtrera och återanvända nästa månad.

Det här får du: automatisering vs. resultat

Exempel: så här ser det ut

Säg att du gör en konkurrent-research varje vecka och vill ha 10 bra källor. Manuellt tar det oftast cirka 10 minuter per källa att söka, öppna, skumma, kopiera nyckeltext, spara en skärmbild och klistra in allt någonstans, alltså ungefär 100 minuter plus städning. Med det här flödet skickar du en enda prompt (kanske 2 minuter), väntar på att Firecrawl ska samla in resultat och skärmbilder (ofta runt 10 minuter), och sedan granskar du arket. Du får tillbaka större delen av tiden, och outputen är redan delningsbar.

Det här behöver du

  • n8n-instans (testa n8n Cloud gratis)
  • Self-hosting-alternativ om du föredrar det (Hostinger fungerar bra)
  • Firecrawl för webbsök, skrapning och skärmbilder.
  • Google Sheets för att lagra och dela resultat.
  • Firecrawl API-nyckel (hämta den från firecrawl.dev).

Kunskapsnivå: Nybörjare. Du kopplar konton, lägger in en API-nyckel och justerar en prompt.

Vill du inte sätta upp detta själv? Prata med en automationsexpert (gratis 15-minuters konsultation).

Så fungerar det

Ett chattmeddelande sätter igång allt. Du skriver din researchförfrågan på vanlig svenska via arbetsflödets chatt-intagstrigger, så du behöver inte kunna sökoperatorer eller skrapregler.

Agenten översätter din intention till en riktig sökfråga. Search Orchestrator använder en kompakt GPT-liknande modell för att omvandla ”det du menar” till ”det sök-API:t behöver”, inklusive exkluderingar (som att ta bort Shorts) och begränsningar (som en domän).

Firecrawl samlar källor och bevis. Firecrawl-uppslagsverktyget kör sökningen och returnerar strukturerad data som titlar, länkar och sidtext. Det tar också skärmbilder, vilket är guld värt när någon frågar: ”Var kommer det här ifrån?”

Dina resultat hamnar där team faktiskt jobbar. Du kan skicka de rensade fälten till Google Sheets (och valfritt även Excel eller Drive) så att en kund, intressent eller kollega kan granska utan att öppna en enda flik.

Du kan enkelt ändra promptformatet för att få tillbaka andra fält utifrån dina behov. Se hela implementationsguiden nedan för anpassningsalternativ.

Steg-för-steg-guide för implementering

Steg 1: konfigurera chatt-triggern

Sätt upp chattens startpunkt som initierar arbetsflödet och skickar användarens input till agenten.

  1. Lägg till noden Chat Intake Trigger som arbetsflödets trigger.
  2. Behåll standardalternativen om ni inte behöver anpassade chattinställningar.
  3. Koppla Chat Intake Trigger till Search Orchestrator enligt exekveringsflödet.

Steg 2: konfigurera AI-orkestratorn och språkmodellen

Konfigurera agenten som tolkar chattförfrågningar och använder språkmodellen för att bygga Firecrawl-sökfrågor.

  1. Lägg till noden Search Orchestrator och behåll System Message som angivet för att upprätthålla reglerna för hur sökfrågor ska konstrueras.
  2. Lägg till noden Compact GPT Model och koppla den till Search Orchestrator som input för ai_languageModel.
  3. Inloggningsuppgifter krävs: anslut era OpenRouter-credentials i Compact GPT Model.

⚠️ Vanlig fallgrop: om modellens credentials saknas kan Search Orchestrator inte generera eller förfina sökfrågan.

Steg 3: konfigurera Firecrawl-sökverktyg och hjälpförfrågningar

Sätt upp Firecrawl-sökverktyget och de fristående hjälpsökningarna för att söka mot specifika webbplatser, URL:er och nyckelord.

  1. I Firecrawl Lookup Tool, ställ in URL till https://api.firecrawl.dev/v1/search och Method till POST.
  2. Ställ in JSON Body i Firecrawl Lookup Tool till ={ "query": "{{$fromAI("searchQuery")}}", "limit": {{$fromAI("limit","the number of search results requested", number)}}, "scrapeOptions": { "formats": ["markdown", "screenshot@fullPage"]} }.
  3. Koppla Firecrawl Lookup Tool till Search Orchestrator som input för ai_tool.
  4. Konfigurera Utility: Domain Query med URL https://api.firecrawl.dev/v1/search, Method POST och JSON Body { "query": "nate herk site:www.geeky-gadgets.com", "limit": 5 }.
  5. Konfigurera Utility: URL Keyword Search med JSON Body { "query": "nate herk inurl:skool", "limit": 5 }.
  6. Konfigurera Utility: Exclude Term Search med JSON Body { "query": "nate herk -inurl:skool", "limit": 6 }.
  7. Konfigurera Utility: Advanced Video Search med JSON Body { "query": "Nate Herk site:youtube.com -shorts intitle:automation", "limit": 5 }.

⚠️ Vanlig fallgrop: Firecrawl-förfrågningar kräver autentiseringsheaders. Lägg till er Firecrawl API-nyckel i Header Parameters i Firecrawl Lookup Tool och i alla fyra Utility: HTTP Request-noder. För verktyget lägger ni till headern i verktygsnodens inställningar; för användning som AI-verktyg konfigureras credentials på den överordnade Search Orchestrator-anslutningen, inte i en separat credential-väljare för verktyget.

Steg 4: granska dokumentation och valfria noder

Det här arbetsflödet innehåller en notering om varumärke som referens samt valfria hjälpsökningar som inte är kopplade till exekveringsflödet.

  1. Behåll Flowpast Branding som visuell referens; den påverkar inte exekveringen.
  2. Observera att de fristående Utility:-noderna inte ingår i exekveringsvägen från Chat Intake Trigger till Search Orchestrator. Koppla dem endast om ni vill att de ska köras i ert flöde.

Steg 5: testa och aktivera ert arbetsflöde

Validera det chattdrivna sökflödet och aktivera det sedan för produktion.

  1. Klicka på Execute Workflow och skicka ett chattmeddelande via Chat Intake Trigger (t.ex. ”Hitta YouTube-videor om automation, limit 5”).
  2. Bekräfta att Search Orchestrator använder Compact GPT Model och anropar Firecrawl Lookup Tool med en konstruerad sökfråga och limit.
  3. Verifiera att de returnerade resultaten inkluderar alla detaljer i dataobjektet (titel, URL och eventuella ytterligare fält) enligt instruktionerna i systemmeddelandet.
  4. När ni har verifierat, växla arbetsflödet till Active för att köra kontinuerligt i produktion.
🔒

Lås upp fullständig steg-för-steg-guide

Få den kompletta implementeringsguiden + nedladdningsbar mall

Vanliga fallgropar

  • Firecrawl-inloggningsuppgifter kan gå ut eller kräva specifika behörigheter. Om det skapar fel, kontrollera först din credential-post i n8n (HTTP Header Auth) och bekräfta att Authorization-headern fortfarande matchar ”Bearer YOUR_API_KEY”.
  • Om du använder Wait-noder eller extern rendering varierar behandlingstiderna. Öka väntetiden om noder längre fram misslyckas på grund av tomma svar.
  • Standardprompter i AI-noder är generiska. Lägg in din tonalitet tidigt, annars kommer du att redigera outputen i all evighet.

Vanliga frågor

Hur lång tid tar det att sätta upp den här Firecrawl Sheets automation-automatiseringen?

Cirka 30 minuter om du redan har din Firecrawl API-nyckel.

Behöver jag kunna koda för att automatisera Firecrawl Sheets automation?

Nej. Du klistrar främst in en API-nyckel och kopplar Google Sheets. ”Logiken” ligger i agentprompten, som du kan redigera som vanlig text.

Är n8n gratis att använda för det här Firecrawl Sheets automation-arbetsflödet?

Ja. n8n har ett gratis self-hosted-alternativ och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 $/månad för högre volym. Du behöver också räkna in Firecrawl API-användning, vilket beror på hur många sidor du skrapar och tar skärmbilder på.

Var kan jag hosta n8n för att köra den här automatiseringen?

Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller self-hosting på en VPS. För self-hosting är Hostinger VPS prisvärd och hanterar n8n bra. Self-hosting ger dig obegränsade körningar men kräver grundläggande serveradministration.

Kan jag anpassa det här Firecrawl Sheets automation-arbetsflödet för research endast på YouTube?

Ja, och det är framför allt promptarbete. I agenten Search Orchestrator säger du åt den att alltid inkludera en site-begränsning som ”site:youtube.com” och att lägga på exkluderingar som ”-shorts” som standard. Du kan också byta vilken Firecrawl-”utility”-typ av fråga du använder (domänfråga vs. nyckelordssökning) beroende på hur strikt du vill ha resultaten. Om du sparar till Sheets kan du lägga till extra kolumner som ”Kanal”, ”Publiceringsdatum” eller ”Varför den är relevant” och låta agenten fylla i dem.

Varför misslyckas min Firecrawl-anslutning i det här arbetsflödet?

Oftast handlar det om formatet på Authorization-headern. Firecrawl förväntar sig ”Bearer YOUR_API_KEY” (inklusive ordet Bearer) och nyckeln måste vara aktiv. Om det stämmer, kontrollera rate limits eller blockerade mål, eftersom vissa webbplatser inte gillar aggressiv skrapning.

Hur många sidor kan den här Firecrawl Sheets automation-automatiseringen hantera?

Tillräckligt för typiska researchbatcher, som 5–50 resultat åt gången, så länge din Firecrawl-plan och dina körningsgränser i n8n stödjer volymen.

Är den här Firecrawl Sheets automation-automatiseringen bättre än att använda Zapier eller Make?

Ofta, ja, eftersom det här flödet bygger på att en AI-agent avgör hur den ska söka, och n8n hanterar den typen av grenlogik snyggt. Zapier och Make kan göra AI-anrop, men routning i agentstil i flera steg kan bli klumpig och dyr när uppgifter staplas. En annan praktisk faktor är kontroll: self-hostad n8n låter dig köra många researchkörningar utan att stirra på en task-räknare hela dagen. Med det sagt: om din version bara är ”ny rad i ark → skicka mejl” är de verktygen helt okej. Om du vill ha hjälp att välja, prata med en automationsexpert.

När din research konsekvent landar i ett ark med text och skärmbilder kopplade slutar arbetet att försvinna. Sätt upp det en gång och återanvänd sedan outputen för briefer, granskningar och innehållsplanering utan flikkaoset.

Kontakta oss

Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.

×

Använd mall

Få direkt tillgång till denna n8n-arbetsflödes JSON-fil

Launch login modal Launch register modal