Du hittar en bra rubrik på HackerNoon, öppnar ett kalkylark, kopierar titeln, klistrar in den, går tillbaka för länken, klistrar in den också … och sedan gör du det igen. När du är klar har du ”gjort research”, men i praktiken har du mest gjort administrativt plockarbete.
Den här Hackernoon Sheets automation träffar marknadsförare som jobbar med innehållskalendrar först. Men även grundare som följer trender och konsulter som förbereder kundpitchar känner samma friktion. Det är samma loop, varje dag.
Det här arbetsflödet hämtar färska rubriker från HackerNoons startsida och gör om dem till prydliga rader som du kan söka i, filtrera och bygga vidare på. Du får se vad det gör, vad du behöver och hur du använder det för löpande marknadsresearch.
Så fungerar automatiseringen
Hela n8n-arbetsflödet, från trigger till slutligt resultat:
n8n Workflow Template: Hackernoon till Google Sheets, rubriker loggas dagligen
flowchart LR
subgraph sg0["Manual Start Flow"]
direction LR
n0@{ icon: "mdi:play-circle", form: "rounded", label: "Manual Start Trigger", pos: "b", h: 48 }
n1["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/httprequest.dark.svg' width='40' height='40' /></div><br/>External API Call"]
n2@{ icon: "mdi:cog", form: "rounded", label: "Parse HTML Headings", pos: "b", h: 48 }
n3@{ icon: "mdi:cog", form: "rounded", label: "Extract Link Details", pos: "b", h: 48 }
n2 --> n3
n1 --> n2
n0 --> n1
end
%% Styling
classDef trigger fill:#e8f5e9,stroke:#388e3c,stroke-width:2px
classDef ai fill:#e3f2fd,stroke:#1976d2,stroke-width:2px
classDef aiModel fill:#e8eaf6,stroke:#3f51b5,stroke-width:2px
classDef decision fill:#fff8e1,stroke:#f9a825,stroke-width:2px
classDef database fill:#fce4ec,stroke:#c2185b,stroke-width:2px
classDef api fill:#fff3e0,stroke:#e65100,stroke-width:2px
classDef code fill:#f3e5f5,stroke:#7b1fa2,stroke-width:2px
classDef disabled stroke-dasharray: 5 5,opacity: 0.5
class n0 trigger
class n1 api
classDef customIcon fill:none,stroke:none
class n1 customIcon
Problemet: rubrikresearch blir copy-paste-arbete
Att hålla en ”trendlista” låter enkelt tills du försöker göra det konsekvent. Du ser en rubrik, hämtar URL:en, loggar den och säger till dig själv att du ska komma tillbaka senare och tagga den. Senare händer sällan. Och eftersom HackerNoons startsida ändras hela tiden försvinner det du tänkte spara ner i flödet. Det irriterande är inte tänkandet, utan de små upprepade momenten som äter fokus och gör din research rörig, ofullständig och svår att återanvända.
Det blir mycket snabbt. Särskilt när du vill göra det här dagligen, inte en gång i månaden.
- Att manuellt samla in 20 rubriker kan ta runt 30 minuter om du även fångar länkarna korrekt.
- Små formateringsskillnader byggs på, vilket gör filtrering och sortering till ett jobb senare.
- Team tappar bort ursprungliga käll-URL:er, så ”research” kan inte verifieras eller delas med trygghet.
- När du hoppar över en dag slutar trendlistan vara en trendlista och blir en slumpmässig ögonblicksbild.
Lösningen: extrahera HackerNoon-rubriker automatiskt till ett kalkylark
Det här n8n-arbetsflödet gör en sak riktigt bra: det besöker HackerNoons startsida, läser sidinnehållet och extraherar inläggstitlar (och deras länkinformation) till strukturerad data som du kan lagra. Det börjar med en manuell trigger medan du ställer in allt, sedan hämtar en HTTP-begäran den senaste HTML:en från startsidan. Därefter parsar HTML-extraheringssteg rubriker och länkar så att du slipper. Slutresultatet är en felfri, strukturerad dataset som du kan skicka in i Google Sheets eller Microsoft Excel 365 för uppföljning, taggning och rapportering.
Det börjar när du kör arbetsflödet i n8n. Sedan hämtar det HackerNoons startsida och parsar rubrikerna till en lista. Till sist extraherar det länkinformation så att varje rad innehåller den nyckelinformation du vill ha senare, inte bara en kopierad titel.
Det du får: automatisering vs. resultat
| Det här arbetsflödet automatiserar | Resultat du får |
|---|---|
|
|
Exempel: så här ser det ut
Säg att du hämtar 25 HackerNoon-rubriker varje morgon till en content swipe file. Manuell hantering tar kanske 1 minut per post mellan att kopiera titeln, hämta URL:en och hålla raderna konsekventa, alltså ungefär 25 minuter per dag. Med det här arbetsflödet klickar du Kör, väntar cirka en minut på att sidan ska hämtas och parsas, och klistrar sedan in eller synkar den extraherade listan till Google Sheets eller Excel. Du får tillbaka runt 20 minuter varje dag, och listan blir renare.
Det här behöver du
- n8n-instans (testa n8n Cloud gratis)
- Alternativ för egen hosting om du föredrar det (Hostinger fungerar bra)
- Åtkomst till HackerNoons startsida så att HTTP-begäran kan hämta HTML.
- Google Sheets för att lagra rubriker i ett delat kalkylark.
- Microsoft Excel 365 om ditt team i stället jobbar i Excel.
Kunskapsnivå: Nybörjare. Du kommer främst att koppla konton och mappa extraherade fält till dina kolumner i kalkylarket.
Vill du inte sätta upp det här själv? Prata med en automationsexpert (gratis 15-minuters konsultation).
Så fungerar det
Du kör arbetsflödet. Det startar just nu med en manuell trigger, vilket är perfekt för test och för rutiner som ”kör varje morgon”.
Arbetsflödet hämtar HackerNoons startsida. En HTTP Request-nod hämtar den aktuella HTML:en från sajten, så du loggar alltid det som är aktuellt, inte gårdagens anteckningar.
Rubriker och länkar extraheras från sidan. Två HTML-extraheringssteg parsar sidan: först samlas rubrikerna in, därefter hämtas länkinformation så att varje post går att använda senare.
Utdatan är redo för ett kalkylark. De extraherade fälten kan mappas till Google Sheets eller Microsoft Excel 365 så att dina rubriker blir en dataset, inte en kyrkogård av webbläsarflikar.
Du kan enkelt ändra destinationen från Google Sheets till Excel (eller båda) utifrån dina behov. Se hela implementationsguiden nedan för anpassningsalternativ.
Steg-för-steg-guide för implementering
Steg 1: konfigurera den manuella triggern
Starta arbetsflödet med en manuell trigger och behåll den valfria varumärkesnoteringen på arbetsytan som referens.
- Lägg till noden Manual Start Trigger som din trigger.
- Behåll Flowpast Branding som en fäst anteckning (valfritt) för att dokumentera arbetsflödets syfte.
- Koppla Manual Start Trigger till External API Call för att matcha körflödet.
Steg 2: anslut External API Call
Konfigurera HTTP-förfrågan som hämtar HTML-innehållet som ni vill parsa.
- Välj noden External API Call.
- Ställ in URL på
https://hackernoon.com/. - Ställ in Response Format på
stringså att HTML:en kan parsas längre fram i flödet. - Koppla External API Call till Parse HTML Headings.
Steg 3: konfigurera HTML-parsning
Extrahera först rubrikblock, och parsa sedan länkdetaljer från varje rubrikpost.
- Öppna Parse HTML Headings och ställ in ett extraktionsvärde med Key
item, CSS Selectorh2, Return Array aktiverat och Return Valuehtml. - Koppla Parse HTML Headings till Extract Link Details.
- I Extract Link Details, ställ in Data Property Name på
itemså att den bearbetar varje rubrik. - Lägg till extraktionsvärden i Extract Link Details:
- Ställ in Key
titlemed CSS Selectora. - Ställ in Key
urlmed CSS Selectora, Attributehrefoch Return Valueattribute.
h2 och a) sluta matcha. Uppdatera dem så att de speglar den nya strukturen.Steg 4: konfigurera utdata-/åtgärdsnoder
Det här arbetsflödet avslutas efter att länkdetaljerna har extraherats, så den slutliga utdatan finns direkt i nodens data.
- Granska utdatan från Extract Link Details för att bekräfta att varje post innehåller
titleochurl. - Om ni planerar att lagra eller vidarebefordra resultaten, lägg till en efterföljande åtgärdsnod efter Extract Link Details (till exempel en databas- eller kalkylbladsnod).
Steg 5: testa och aktivera ert arbetsflöde
Kör ett manuellt test för att verifiera förfrågan och extraktionslogiken, och aktivera sedan om ni går till produktion.
- Klicka på Execute Workflow för att köra Manual Start Trigger.
- Bekräfta att External API Call returnerar HTML i strängformat och att Parse HTML Headings ger ut en array under
item. - Verifiera att Extract Link Details skapar poster som innehåller
titleochurl. - När ni är redo för produktionsanvändning, klicka på Activate för att aktivera arbetsflödet.
Vanliga fallgropar
- Google Sheets-autentiseringsuppgifter kan löpa ut eller kräva specifika behörigheter. Om det skapar fel, kontrollera först avsnittet Credentials i n8n för din Google-kontokoppling.
- Om du använder Wait-noder eller extern rendering varierar processtiderna. Öka väntetiden om nedströmsnoder fallerar på tomma svar.
- Regler för HTML Extract är känsliga när en sajts layout ändras. Om HackerNoon uppdaterar sin startsides-markup, gå tillbaka till dina selektorer i HTML Extract-noderna och testa mot den live-sidan.
Vanliga frågor
Cirka 20 minuter om ditt kalkylark är redo.
Nej. Du kommer främst att konfigurera HTTP-begäran och mappa extraherade fält till dina kolumner i kalkylarket.
Ja. n8n har ett gratisalternativ för egen hosting och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volymer. Du behöver också ta hänsyn till begränsningar i din kalkylarksplattform (Google API-kvoter brukar vara helt okej för små dagliga hämtningar).
Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller egen hosting på en VPS. För egen hosting är Hostinger VPS prisvärd och klarar n8n bra. Egen hosting ger obegränsade körningar men kräver grundläggande serverhantering.
Ja, men du byter destination-noden. Behåll HTTP Request- och HTML Extract-noderna som de är, och mappa sedan slutfälten till Microsoft Excel 365 i stället för Google Sheets. Vanliga anpassningar är att lägga till en ”ämne”-kolumn, spara insamlingsdatum och filtrera bort rubriker som matchar nyckelord du inte bryr dig om.
Oftast blockeras eller omdirigeras HTTP-begäran. Kontrollera först request-URL:en, titta sedan på statuskoden och body i n8n:s körningsvy för att se om du får en felsida i stället för startsidans HTML. Om HTML:en ser annorlunda ut än förväntat matchar inte dina HTML Extract-selektorer och du får tomma resultat. Undvik också att belasta sajten; kör på ett rimligt schema.
Dussintals per körning är normalt, och det skalar främst med din n8n-plan och hur ofta du kör det.
Ofta, ja, eftersom den här typen av scraping-liknande flöde är enklare att styra i n8n. Zapier och Make kan också göra det, men HTML-parsning och felsökning är ofta mer begränsad, och du kan få högre task-förbrukning om du bygger ut arbetsflödet senare. n8n ger också en rak väg till egen hosting med obegränsade körningar, vilket spelar roll när du vill logga dagligen och dessutom lägga till saker som kategorisering. Om du planerar att lägga till berikning (AI-taggning, avduplicering, Slack-notiser) märks n8n:s flexibilitet snabbt. Prata med en automationsexpert om du vill ha hjälp att välja.
När det här väl är igång blir din rubriklogg en tyst tillgång som växer varje dag. Arbetsflödet tar hand om det repetitiva, så att du faktiskt kan göra något med insikterna.
Kontakta oss
Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.