Du öppnar en sida, högerklickar, kopierar länkadressen, klistrar in i ett ark, inser att hälften är relativa URL:er, och sedan måste du ändå ta bort externa länkar. Det är tidsödande. Och ärligt talat är det den typen av rutinjobb som gör att revisioner drar ut i dagar.
Den här automatiseringen för export av webbsidelänkar drabbar SEO-specialister hårdast, men marknadschefer och webbteam som gör site cleanups känner av den också. Du får en strukturerad, filtrerad lista med interna URL:er i Google Sheets eller Excel utan copy-paste-maraton.
Nedan ser du hur arbetsflödet hämtar HTML, extraherar länkelement, korrigerar relativa sökvägar och lämnar dig med en revisionsklar tabell som du faktiskt kan använda.
Så fungerar den här automatiseringen
Hela n8n-arbetsflödet, från trigger till slutresultat:
n8n Workflow Template: Webblänkar till Google Sheets, redo för audit
flowchart LR
subgraph sg0["When clicking ‘Test workflow’ Flow"]
direction LR
n0@{ icon: "mdi:play-circle", form: "rounded", label: "When clicking ‘Test workflow’", pos: "b", h: 48 }
n1@{ icon: "mdi:swap-vertical", form: "rounded", label: "Split Out", pos: "b", h: 48 }
n2["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/merge.svg' width='40' height='40' /></div><br/>Merge"]
n3@{ icon: "mdi:swap-vertical", form: "rounded", label: "Set Base URL", pos: "b", h: 48 }
n4["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/httprequest.dark.svg' width='40' height='40' /></div><br/>Fetch base URL"]
n5["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/html.dark.svg' width='40' height='40' /></div><br/>Extract links"]
n6@{ icon: "mdi:swap-horizontal", form: "rounded", label: "Find relative links", pos: "b", h: 48 }
n7@{ icon: "mdi:swap-vertical", form: "rounded", label: "Append base URL", pos: "b", h: 48 }
n8@{ icon: "mdi:swap-horizontal", form: "rounded", label: "Filter external links", pos: "b", h: 48 }
n2 --> n8
n1 --> n6
n3 --> n4
n5 --> n1
n4 --> n5
n7 --> n2
n6 --> n7
n6 --> n2
n0 --> n3
end
%% Styling
classDef trigger fill:#e8f5e9,stroke:#388e3c,stroke-width:2px
classDef ai fill:#e3f2fd,stroke:#1976d2,stroke-width:2px
classDef aiModel fill:#e8eaf6,stroke:#3f51b5,stroke-width:2px
classDef decision fill:#fff8e1,stroke:#f9a825,stroke-width:2px
classDef database fill:#fce4ec,stroke:#c2185b,stroke-width:2px
classDef api fill:#fff3e0,stroke:#e65100,stroke-width:2px
classDef code fill:#f3e5f5,stroke:#7b1fa2,stroke-width:2px
classDef disabled stroke-dasharray: 5 5,opacity: 0.5
class n0 trigger
class n6,n8 decision
class n4 api
classDef customIcon fill:none,stroke:none
class n2,n4,n5 customIcon
Problemet: interna länkrevisioner är långsamma och stökiga
När du reviderar interna länkar är den ”enkla” delen att hitta länkarna. Den jobbiga delen är att göra dem till en användbar lista. Du plockar URL:er från en sida, men vissa är relativa (som /pricing), andra är absoluta (som https://example.com/pricing), och många är inte ens interna när du tittar närmare. Sedan kommer städningen. Avdubblering, filtrering och omformatering tar ofta cirka 1–2 timmar per revisionssida, vilket gör att en riktig site review kan bli ett projekt som tar hela veckan.
Friktionen byggs på. Här är var det faller isär.
- Du tappar tid på att bygga fullständiga URL:er från relativa sökvägar, och det är lätt att missa någon.
- En snabb ”kopiera alla länkar”-insamling inkluderar ofta externa URL:er, script eller skräp du aldrig ville ha.
- Manuella listor blir inkonsekventa, vilket gör det svårare att kategorisera mallar, hubbar och risk för orphan-sidor.
- När arket väl är strukturerat har du redan lagt din bästa fokus på adminarbete.
Lösningen: extrahera interna länkar automatiskt till Sheets eller Excel
Det här n8n-arbetsflödet automatiserar den osexiga mittdelen av en intern länkrevision. Du anger en rot-URL och arbetsflödet hämtar sidans HTML via en HTTP-förfrågan. Därefter parsar det länkelementen, delar upp dem i enskilda poster och kontrollerar vilka länkar som är relativa respektive redan kompletta. Relativa URL:er normaliseras genom att basadressen läggs till, så att din slutlista blir konsekvent. Till sist slår arbetsflödet ihop allt igen och filtrerar bort externa poster, så att bara interna länkar återstår som du kan exportera till Google Sheets eller Microsoft Excel 365 för granskning.
Det börjar med en manuell trigger så att du kan köra det på beställning för valfri sida du granskar. Bearbetningsstegen hanterar extraktion, normalisering och städning. Utdata blir en prydlig lista med interna URL:er som du kan sortera, tagga och använda direkt i din revisionsarbetsbok.
Det du får: automatisering vs. resultat
| Det här arbetsflödet automatiserar | Resultat du får |
|---|---|
|
|
Exempel: så här ser det ut
Säg att du reviderar 10 högvärdessidor inför en omdesign av webbplatsen. Manuellt tar det cirka 1 timme per sida att plocka länkar och strukturera dem (kopiera, fixa relativa URL:er, filtrera bort externa), så du bränner ungefär 10 timmar bara på att bygga ditt dataset. Med det här arbetsflödet är varje sida: 1 minut att klistra in URL:en och köra, sedan en kort väntan medan parsningen sker, och du exporterar listan till Google Sheets eller Excel. I praktiken är det närmare 10–20 minuter per sida från start till mål, inte en timme.
Det du behöver
- n8n-instans (testa n8n Cloud gratis)
- Alternativ för egen hosting om du föredrar det (Hostinger fungerar bra)
- Google Sheets för att exportera och granska URL-listor.
- Microsoft Excel 365 för att exportera resultaten till arbetsböcker.
- OpenAI API-nyckel (hämtas i OpenAI-dashboarden) om du använder AI Agent-lagret.
Svårighetsgrad: Nybörjare. Du klistrar in en URL, kopplar ditt Sheets/Excel-konto och justerar valfritt ett filter.
Vill du inte sätta upp detta själv? Prata med en automationsexpert (gratis 15-minuters konsultation).
Så fungerar det
Du startar körningen med en sid-URL. Arbetsflödet startar manuellt och använder sedan ett steg ”Assign Root URL” så att n8n vet vilken webbsida du vill analysera.
Sidinnehållet hämtas in. n8n använder en HTTP Request-nod för att hämta basadressen och HTML-innehållet för sidan, vilket är råmaterialet för länkextraktion.
Länkar extraheras och normaliseras. Steget för HTML-parsning identifierar länkelement och delar sedan upp dem i separata poster. En If-kontroll upptäcker relativa länkar och ett Set-steg lägger till basadressen så att allt blir en konsekvent fullständig URL.
Allt slås ihop och städas. Arbetsflödet kombinerar länkströmmarna, filtrerar bort externa poster och lämnar dig med interna URL:er som är redo att skickas till Google Sheets eller Excel 365.
Du kan enkelt ändra filtreringsreglerna för att bara behålla bloggens URL:er, produkt-URL:er eller specifika mappar baserat på dina behov. Se hela implementationsguiden nedan för anpassningsalternativ.
Steg-för-steg-guide för implementering
Steg 1: konfigurera den manuella triggern
Starta arbetsflödet manuellt så att ni kan validera länkparsning och normalisering innan ni automatiserar vidare.
- Lägg till och öppna Manual Execution Start.
- Inga fält krävs – lämna standardinställningarna som de är.
- Koppla Manual Execution Start till Assign Root URL.
Steg 2: definiera rot-URL:en och hämta bassidan
Ange en rot-URL och hämta innehållet på bassidan som ska parsas efter länkar.
- Öppna Assign Root URL och lägg till de fält ni vill använda för bas-URL:en (till exempel ett fält som rootUrl).
- Koppla Assign Root URL till Retrieve Base Address.
- I Retrieve Base Address ställer ni in request-URL:en till ert rot-URL-fält (använd ett uttryck som
{{$json.rootUrl}}om ni har döpt det så). - Koppla Retrieve Base Address till Parse Link Elements.
Tips: Om HTTP-requesten misslyckas, kontrollera att rot-URL:en är en fullständigt kvalificerad URL (inklusive https://).
Steg 3: parsa och dela upp länkelement
Extrahera alla länkar från HTML-svaret och dela upp dem i individuella objekt för vidare bearbetning.
- I Parse Link Elements konfigurerar ni HTML-extraktionen så att den träffar de länkelement och attribut ni behöver (till exempel ankartaggar och
href-värden). - Koppla Parse Link Elements till Separate Items.
- I Separate Items behåller ni standardinställningarna så att varje extraherad länk blir ett eget objekt.
- Koppla Separate Items till Detect Relative Links.
⚠️ Vanlig fallgrop: Om inga objekt visas efter uppdelningen, bekräfta att Parse Link Elements returnerar en array med länkar.
Steg 4: normalisera relativa länkar och slå ihop flöden
Identifiera relativa länkar, lägg till basadressen där det behövs och slå ihop resultat för enhetlig filtrering.
- I Detect Relative Links definierar ni villkor som identifierar relativa URL:er (till exempel länkar som inte börjar med
http). - Koppla true-utgången från Detect Relative Links till Add Base Address och false-utgången till Combine Streams.
- I Add Base Address bygger ni den fullständiga URL:en genom att kombinera basadressen och den relativa sökvägen (använd uttryck baserat på era fält).
- Koppla Add Base Address till Combine Streams.
- Detect Relative Links skickar utdata parallellt till både Add Base Address och Combine Streams, och Combine Streams konsoliderar båda vägarna.
Steg 5: filtrera externa poster
Tillämpa slutliga filtreringsregler för att behålla endast de länkar ni vill spara.
- Koppla Combine Streams till Filter External Records.
- I Filter External Records definierar ni villkoren som avgör vilka länkar som betraktas som externa eller acceptabla.
Steg 6: testa och aktivera ert arbetsflöde
Kör ett manuellt test för att validera att länkar extraheras, normaliseras och filtreras korrekt innan ni aktiverar produktionsanvändning.
- Klicka på Execute Workflow från Manual Execution Start för att köra ett test.
- Verifiera att Filter External Records returnerar den förväntade listan med länkar.
- Om resultatet är felaktigt, gå tillbaka och se över villkoren i Detect Relative Links och Filter External Records.
- När ni är nöjda, aktivera arbetsflödet med reglaget Active.
Vanliga fallgropar
- Google Sheets-inloggningar kan löpa ut eller kräva specifika behörigheter. Om något skapar fel, kontrollera först det anslutna Google-kontot i n8n:s sektion Credentials.
- Om du använder Wait-noder eller extern rendering varierar processtiderna. Öka väntetiden om nedströms noder misslyckas på tomma svar.
- Standardprompter i AI-noder är generiska. Lägg in din varumärkeston tidigt, annars kommer du att redigera utdata i all evighet.
Vanliga frågor
Cirka 20 minuter om ditt Sheets/Excel-konto redan är anslutet.
Nej. Du klistrar in en URL, kopplar dina konton och justerar ett par fält om du vill filtrera.
Ja. n8n har ett gratis alternativ för egen hosting och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna in kostnader för OpenAI API om du aktiverar AI Agent, vilket vanligtvis är bara några cent vid lätt användning.
Två alternativ: n8n Cloud (hanterat, enklast att sätta upp) eller egen hosting på en VPS. För egen hosting är Hostinger VPS prisvärd och hanterar n8n bra. Egen hosting ger obegränsade körningar men kräver grundläggande serverhantering.
Ja, och det är en vanlig justering. Du kan behålla nuvarande filtrering för endast interna länkar och sedan lägga till en extra filterregel efter ”Filter External Records” för att bara behålla URL:er som innehåller /blog/ (eller vilken mapp du nu använder). Om du även vill märka upp länkar efter typ kan du lägga till ett litet steg ”Set/Edit Fields” som skriver en Category-kolumn baserat på URL-mönster (blogg, produkt, docs). Du kan också byta utdata så att det skriver till Google Sheets för samarbete eller Excel 365 för kundleveranser.
Oftast blockerar målsajten automatiserade förfrågningar eller omdirigerar på ett sätt som noden inte följer. Kontrollera HTTP-nodens svarskod och headers i körningsloggen och testa sedan att aktivera redirects eller sätta en vanlig user-agent för webbläsare. Om sidan kräver inloggning eller ligger bakom en WAF behöver du en annan metod (autentiserade förfrågningar, cookies eller att hämta från dina egna crawl-data).
För en enskild sida fungerar hundratals länkar utan problem.
För länkextraktion är n8n oftast bättre eftersom du kan parsa HTML, förgrena logik för relativa URL:er och slå ihop strömmar utan att betala extra för varje ”avancerat” steg. Zapier och Make kan göra delar av detta, men HTML-parsning och städning blir snabbt klumpigt, särskilt om du vill ha pålitlig filtrering. n8n ger dig också ett alternativ för egen hosting när du inte vill tänka på task limits. Med det sagt: om ditt enda mål är att ”skicka en URL någonstans” kan de verktygen vara enklare. Om du är osäker, prata med en automationsexpert och få en snabb rekommendation.
När dina interna länkar hamnar i ett strukturerat ark automatiskt slutar revisioner att kännas som datainmatning. Du får listan, tar beslut och går vidare.
Kontakta oss
Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.