Webbplatsresearch låter enkelt tills du har tio flikar öppna, kopierar mejladresser till ett kalkylark och börjar tveka på om du missade den enda sidan som faktiskt spelade roll. Det går långsamt. Det blir rörigt. Och ärligt talat är det den typen av arbete som i tysthet dödar momentum.
Den här automatiseringen för Apify Sheets research träffar marknadschefer och byråägare först, eftersom research aldrig är “bara research”. Grundare känner det också när leadlistor, partnergranskning eller konkurrentanteckningar hela tiden skjuts upp till “sen”. Resultatet är enkelt: du får konsekventa, strukturerade webbplatsinsikter i Google Sheets utan att göra manuella genomgångar.
Nedan ser du exakt hur workflowet körs, vad det ger som output och hur du anpassar prompten så att resultaten matchar ditt användningsfall.
Så fungerar automatiseringen
Hela n8n-workflowet, från trigger till slutlig output:
n8n Workflow Template: Apify + Google Sheets: webbplatsresearch åt dig
flowchart LR
subgraph sg0["When Executed by Another Workflow Flow"]
direction LR
n0@{ icon: "mdi:play-circle", form: "rounded", label: "When Executed by Another Wor..", pos: "b", h: 48 }
n1["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/httprequest.dark.svg' width='40' height='40' /></div><br/>HTTP Request"]
n2@{ icon: "mdi:swap-vertical", form: "rounded", label: "Loop Over Items", pos: "b", h: 48 }
n3@{ icon: "mdi:robot", form: "rounded", label: "AI Agent", pos: "b", h: 48 }
n4@{ icon: "mdi:brain", form: "rounded", label: "OpenRouter Chat Model", pos: "b", h: 48 }
n5@{ icon: "mdi:robot", form: "rounded", label: "AI Agent1", pos: "b", h: 48 }
n6@{ icon: "mdi:cog", form: "rounded", label: "Aggregate", pos: "b", h: 48 }
n7@{ icon: "mdi:brain", form: "rounded", label: "OpenRouter Chat Model1", pos: "b", h: 48 }
n3 --> n2
n6 --> n5
n1 --> n2
n2 --> n6
n2 --> n3
n4 -.-> n3
n7 -.-> n5
n0 --> n1
end
%% Styling
classDef trigger fill:#e8f5e9,stroke:#388e3c,stroke-width:2px
classDef ai fill:#e3f2fd,stroke:#1976d2,stroke-width:2px
classDef aiModel fill:#e8eaf6,stroke:#3f51b5,stroke-width:2px
classDef decision fill:#fff8e1,stroke:#f9a825,stroke-width:2px
classDef database fill:#fce4ec,stroke:#c2185b,stroke-width:2px
classDef api fill:#fff3e0,stroke:#e65100,stroke-width:2px
classDef code fill:#f3e5f5,stroke:#7b1fa2,stroke-width:2px
classDef disabled stroke-dasharray: 5 5,opacity: 0.5
class n0 trigger
class n3,n5 ai
class n4,n7 aiModel
class n1 api
classDef customIcon fill:none,stroke:none
class n1 customIcon
Problemet: webbplatsresearch är repetitivt och lätt att göra fel
När du researchar en företagswebbplats läser du inte för nöjes skull. Du letar efter specifika saker: mejladresser, teamnamn, adresser, prissignaler, jobbannonser, produktdetaljer eller en strukturerad sammanfattning du kan återanvända. Den vanliga processen blir en dimma av öppna flikar, Ctrl+F och copy-paste in i ett kalkylark som sakta men säkert blir inkonsekvent. Någon klistrar in ett telefonnummer med mellanslag, någon annan skriver “N/A”, och plötsligt är filtrering meningslöst. Det värsta är osäkerheten. Du blir klar med genomgången och undrar ändå om du hoppade över sidan med kontaktformuläret, presskitet eller den “Om oss”-detalj du behövde.
Det här växer snabbt. Så här faller det isär i verkligheten:
- Varje webbplats blir 15–30 minuter av flikbytande innan du ens har något användbart.
- Detaljer fångas i olika format, så din Google Sheet blir en skräplåda i stället för en databas.
- Du kan inte skala till 20 eller 50 webbplatser på ett smidigt sätt, eftersom manuell research inte batchar bra.
- Det är lätt att missa nyckelinformation när den är begravd på en sida som “Kontakt”, “Press” eller “Karriär” som du inte öppnade.
Lösningen: Apify skrapar webbplatsen, AI besvarar din prompt, Sheets lagrar resultatet
Det här workflowet vänder på processen. I stället för att du läser sidor och avgör vad som är viktigt ger du workflowet två saker: en URL och en prompt på klarspråk som beskriver vad du vill ha. n8n skickar URL:en till en Apify-actor för webbplatsskrapning som samlar sidinnehåll (inklusive metadata och läsbar Markdown) över ett angivet antal sidor. Därefter granskar en AI-agent varje sida mot din prompt och plockar ut detaljerna du bryr dig om. Till sist aggregerar workflowet svaren per sida och gör en sista “städning” så att outputen blir strukturerad, konsekvent och redo att logga.
Workflowet startar med JSON-input (URL, maxPages och prompt). Apify skrapar, n8n loopar igenom sidorna och agenten via OpenRouter extraherar det du bad om på varje sida. På slutet kombinerar en sammanfattningsagent allt till ett enda korrekt formaterat resultat som du kan skriva till Google Sheets för repeterbar research.
Vad du får: automatisering vs. resultat
| Det här automatiserar workflowet | Resultat du får |
|---|---|
|
|
Exempel: så här ser det ut
Säg att du researchar 20 partnersajter för en co-marketing-lista. Manuellt tar även en “snabb” genomgång kanske 20 minuter per webbplats när du öppnar sidor, samlar kontaktuppgifter och skriver en användbar sammanfattning, alltså ungefär 6–7 timmar. Med det här workflowet skickar du en JSON-input per webbplats (en minut per styck), låter Apify crawla upp till 5 sidor och låter AI:n sammanställa fynden. Du granskar fortfarande slutarket, men grovjobbet är gjort och arbetet skiftar från “leta och klistra in” till “godkänn och använd”.
Det här behöver du
- n8n-instans (testa n8n Cloud gratis)
- Alternativ för self-hosting om du föredrar det (Hostinger fungerar bra)
- Apify för att skrapa webbplatssidor till användbart innehåll.
- Google Sheets för att lagra resultat i en delad research-tabell.
- OpenRouter API-nyckel (hämta den i din OpenRouter-dashboard).
Kunskapsnivå: Medel. Du klistrar in API-nycklar, mappar några fält och testar med 2–3 URL:er innan du kör i skala.
Vill du inte sätta upp detta själv? Prata med en automationsexpert (gratis 15-minuters konsultation).
Så fungerar det
Du skickar workflowet en URL, en crawl-gräns och en prompt. Det triggas av ett annat workflow (eller ett formulär/webhook som du kopplar in senare) som skickar JSON som “maxPages: 5” och “prompt: samla kontaktinformation”.
Apify skrapar webbplatsen till innehåll sida för sida. n8n anropar Apify-actorn som returnerar metadata plus Markdown-innehåll för varje sida den crawlat, så AI:n jobbar utifrån faktisk sidtext i stället för gissningar.
En AI-agent utvärderar varje sida mot dina instruktioner. Workflowet loopar igenom de skrapade sidorna i batchar och ber modellen via OpenRouter att extrahera det du bad om (mejladresser, produktinfo, jobbannonser, sammanfattningar, you name it).
En sista passering aggregerar allt till en korrekt formaterad output. Svaren slås ihop, och därefter producerar en sammanfattningsagent ett strukturerat resultat som är enkelt att lagra i Google Sheets och lätt att skumma igenom senare.
Du kan enkelt ändra prompten och värdet för maxPages efter behov. Se hela implementationsguiden nedan för anpassningsalternativ.
Steg-för-steg-guide för implementering
Steg 1: Konfigurera triggern för workflow-invokering
Ställ in workflowet så att det kan ta emot JSON-indata när det anropas av ett annat workflow eller vid en manuell körning.
- Lägg till och öppna Workflow Invocation Trigger.
- Ställ in Input Source till
jsonExample. - Klistra in detta exempel i JSON Example:
{ "enqueue": true, "maxPages": 5, "url": "https://apify.com", "method": "GET", "prompt":"collect all contact informations available on this website " }.
Steg 2: Anslut extern API-förfrågan
Skicka webbplatsens skrapjobb till Apify via det externa API-anropet.
- Lägg till och öppna External API Request.
- Ställ in URL till
https://api.apify.com/v2/acts/mohamedgb00714~firescraper-ai-website-content-markdown-scraper/run-sync-get-dataset-items?token=[CONFIGURE_YOUR_TOKEN]. - Ställ in Method till
POSToch aktivera Send Body. - Ställ in Specify Body till
jsonoch ställ in JSON Body till={ "enqueue": {{ $json.enqueue }}, "getHtml": false, "getText": false, "maxPages": {{ $json.maxPages }}, "screenshot": false, "startUrls": [ { "url": "{{ $json.url }}", "method": "{{ $json.method }}" } ] }.
[CONFIGURE_YOUR_TOKEN] med er giltiga Apify API-token, annars kommer förfrågan att misslyckas.Steg 3: Sätt upp loop för sidanalys och AI-modell
Iterera igenom skrapade sidor och analysera varje sida med en AI-modell.
- Lägg till Iterate Records och ställ in Batch Size till
=1. - Anslut External API Request till Iterate Records.
- Lägg till Page Analysis Agent och ställ in Text till
={{ $('Workflow Invocation Trigger').item.json.prompt }} this is only analyse of one page of full website here is the metadata and markdown of page {{ $json.url }} metadata:{{ JSON.stringify( $json.metadata) }} markdown:{{ $json.markdown }}. - Anslut OpenRouter Chat Engine till Page Analysis Agent som språkmodell.
- Inloggningsuppgifter krävs: Anslut era openRouterApi-inloggningsuppgifter i OpenRouter Chat Engine.
Steg 4: Konfigurera aggregering och sammanställning av slutlig sammanfattning
Aggregera utdata per sida och sammanställ en slutlig sammanfattning med en modell med högre kapacitet.
- Lägg till Combine Outputs och ställ in Fields to Aggregate → Field to Aggregate till
output. - Anslut Iterate Records till Combine Outputs.
- Lägg till Summary Assembly Agent och ställ in Text till
={{ JSON.stringify($json) }}. - Ställ in Options → System Message till
=You are a helpful assistant you should collect alll informations from input to respond to this prompt with json format {{ $('Workflow Invocation Trigger').item.json.prompt }}. - Anslut OpenRouter Pro Chat till Summary Assembly Agent som språkmodell.
- Inloggningsuppgifter krävs: Anslut era openRouterApi-inloggningsuppgifter i OpenRouter Pro Chat.
Steg 5: Testa och aktivera ert workflow
Verifiera hela kedjan för skrapning, analys och sammanfattningsutdata innan ni använder den i produktion.
- Klicka på Execute Workflow för att köra från Workflow Invocation Trigger med JSON-exemplet.
- Bekräfta att External API Request returnerar dataset-objekt och att Iterate Records bearbetar sidorna en och en.
- Verifiera att Page Analysis Agent returnerar ett
output-fält per sida och att Combine Outputs aggregerar dem. - Kontrollera Summary Assembly Agent för den slutliga JSON-sammanfattningen.
- Växla workflowet till Active för att aktivera anrop i produktion.
Vanliga fallgropar
- Apify-credentials kan löpa ut eller kräva specifika behörigheter. Om det strular, kontrollera din Apify-token i n8n Credentials och bekräfta att actorn kan köras i ditt Apify-konto.
- Om du använder Wait-noder eller extern rendering varierar processtiderna. Öka väntetiden om noder längre fram fallerar på tomma svar.
- Standardprompter i AI-noder är generiska. Lägg in er tonalitet tidigt, annars kommer du att sitta och redigera outputs för alltid.
Vanliga frågor
Cirka 30 minuter om du redan har dina API-nycklar.
Nej. Du kopplar konton, klistrar in API-nycklar och justerar en prompt.
Ja. n8n har ett gratis self-hosted-alternativ och en gratis provperiod på n8n Cloud. Molnplaner börjar på 20 USD/månad för högre volym. Du behöver också räkna in OpenRouter-kostnader, som vanligtvis ligger på några cent per körning beroende på modell och hur många sidor du skrapar.
Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller self-hosting på en VPS. För self-hosting är Hostinger VPS prisvärd och hanterar n8n bra. Self-hosting ger dig obegränsat antal körningar men kräver grundläggande serveradministration.
Ja, och det är främst en promptändring. Uppdatera input-prompten till något i stil med “lista lediga roller med titel, plats och ansöknings-URL” och öka maxPages om karriärsektionen sträcker sig över flera sidor. Om du vill ha ett striktare format, justera instruktionerna som skickas in i Page Analysis Agent så att den returnerar konsekventa fält varje gång. Många team lägger också till ett mapping-steg till Google Sheets så att “Roll”, “Plats” och “Länk” hamnar i separata kolumner.
Oftast beror det på en ogiltig eller utgången Apify API-token som är sparad i n8n. Skapa en ny token i Apify, uppdatera credential och kör om en enskild test-URL. Om det fortfarande fallerar, kontrollera att actor-namnet är korrekt och att din Apify-plan tillåter den körvolym du försöker köra. Ibland blockerar målwebbplatsen skrapning, så att sänka maxPages eller ändra start-URL kan hjälpa.
På en typisk n8n Cloud-plan kan den hantera hundratals körningar per månad; om du self-hostar beror det främst på din server och API-gränser.
Ofta ja, eftersom det här workflowet gynnas av att loopa igenom flera sidor, aggregera resultat och göra en sista “städning” innan du sparar outputen. Sådana flerstegsmönster kan bli klumpiga (och dyra) i verktyg som prissätter per task. n8n ger också möjlighet till self-hosting, vilket spelar roll om du planerar att köra många researchjobb. Å andra sidan kan Zapier eller Make gå snabbare för ett enkelt flöde med “en URL in, en rad ut”. Om du vill ha hjälp att välja, prata med en automationsexpert.
Du sätter prompten en gång, och sedan slipper du lära om samma webbplatser om och om igen. Workflowet sköter den repetitiva genomgången, och din Google Sheet blir äntligen något du kan lita på.
Kontakta oss
Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.