Behöver ert företag hjälp med att implementera AI? Kontakta oss och få prisoffert här →
AI Skolan
januari 22, 2026

Hackernoon till Google Sheets, rubriker loggas dagligen

Rickard Andersson Partner, Nodenordic.se

Du hittar en bra rubrik på HackerNoon, öppnar ett kalkylark, kopierar titeln, klistrar in den, går tillbaka för länken, klistrar in den också … och sedan gör du det igen. När du är klar har du ”gjort research”, men i praktiken har du mest gjort administrativt plockarbete.

Den här Hackernoon Sheets automation träffar marknadsförare som jobbar med innehållskalendrar först. Men även grundare som följer trender och konsulter som förbereder kundpitchar känner samma friktion. Det är samma loop, varje dag.

Det här arbetsflödet hämtar färska rubriker från HackerNoons startsida och gör om dem till prydliga rader som du kan söka i, filtrera och bygga vidare på. Du får se vad det gör, vad du behöver och hur du använder det för löpande marknadsresearch.

Så fungerar automatiseringen

Hela n8n-arbetsflödet, från trigger till slutligt resultat:

n8n Workflow Template: Hackernoon till Google Sheets, rubriker loggas dagligen

Problemet: rubrikresearch blir copy-paste-arbete

Att hålla en ”trendlista” låter enkelt tills du försöker göra det konsekvent. Du ser en rubrik, hämtar URL:en, loggar den och säger till dig själv att du ska komma tillbaka senare och tagga den. Senare händer sällan. Och eftersom HackerNoons startsida ändras hela tiden försvinner det du tänkte spara ner i flödet. Det irriterande är inte tänkandet, utan de små upprepade momenten som äter fokus och gör din research rörig, ofullständig och svår att återanvända.

Det blir mycket snabbt. Särskilt när du vill göra det här dagligen, inte en gång i månaden.

  • Att manuellt samla in 20 rubriker kan ta runt 30 minuter om du även fångar länkarna korrekt.
  • Små formateringsskillnader byggs på, vilket gör filtrering och sortering till ett jobb senare.
  • Team tappar bort ursprungliga käll-URL:er, så ”research” kan inte verifieras eller delas med trygghet.
  • När du hoppar över en dag slutar trendlistan vara en trendlista och blir en slumpmässig ögonblicksbild.

Lösningen: extrahera HackerNoon-rubriker automatiskt till ett kalkylark

Det här n8n-arbetsflödet gör en sak riktigt bra: det besöker HackerNoons startsida, läser sidinnehållet och extraherar inläggstitlar (och deras länkinformation) till strukturerad data som du kan lagra. Det börjar med en manuell trigger medan du ställer in allt, sedan hämtar en HTTP-begäran den senaste HTML:en från startsidan. Därefter parsar HTML-extraheringssteg rubriker och länkar så att du slipper. Slutresultatet är en felfri, strukturerad dataset som du kan skicka in i Google Sheets eller Microsoft Excel 365 för uppföljning, taggning och rapportering.

Det börjar när du kör arbetsflödet i n8n. Sedan hämtar det HackerNoons startsida och parsar rubrikerna till en lista. Till sist extraherar det länkinformation så att varje rad innehåller den nyckelinformation du vill ha senare, inte bara en kopierad titel.

Det du får: automatisering vs. resultat

Exempel: så här ser det ut

Säg att du hämtar 25 HackerNoon-rubriker varje morgon till en content swipe file. Manuell hantering tar kanske 1 minut per post mellan att kopiera titeln, hämta URL:en och hålla raderna konsekventa, alltså ungefär 25 minuter per dag. Med det här arbetsflödet klickar du Kör, väntar cirka en minut på att sidan ska hämtas och parsas, och klistrar sedan in eller synkar den extraherade listan till Google Sheets eller Excel. Du får tillbaka runt 20 minuter varje dag, och listan blir renare.

Det här behöver du

  • n8n-instans (testa n8n Cloud gratis)
  • Alternativ för egen hosting om du föredrar det (Hostinger fungerar bra)
  • Åtkomst till HackerNoons startsida så att HTTP-begäran kan hämta HTML.
  • Google Sheets för att lagra rubriker i ett delat kalkylark.
  • Microsoft Excel 365 om ditt team i stället jobbar i Excel.

Kunskapsnivå: Nybörjare. Du kommer främst att koppla konton och mappa extraherade fält till dina kolumner i kalkylarket.

Vill du inte sätta upp det här själv? Prata med en automationsexpert (gratis 15-minuters konsultation).

Så fungerar det

Du kör arbetsflödet. Det startar just nu med en manuell trigger, vilket är perfekt för test och för rutiner som ”kör varje morgon”.

Arbetsflödet hämtar HackerNoons startsida. En HTTP Request-nod hämtar den aktuella HTML:en från sajten, så du loggar alltid det som är aktuellt, inte gårdagens anteckningar.

Rubriker och länkar extraheras från sidan. Två HTML-extraheringssteg parsar sidan: först samlas rubrikerna in, därefter hämtas länkinformation så att varje post går att använda senare.

Utdatan är redo för ett kalkylark. De extraherade fälten kan mappas till Google Sheets eller Microsoft Excel 365 så att dina rubriker blir en dataset, inte en kyrkogård av webbläsarflikar.

Du kan enkelt ändra destinationen från Google Sheets till Excel (eller båda) utifrån dina behov. Se hela implementationsguiden nedan för anpassningsalternativ.

Steg-för-steg-guide för implementering

Steg 1: konfigurera den manuella triggern

Starta arbetsflödet med en manuell trigger och behåll den valfria varumärkesnoteringen på arbetsytan som referens.

  1. Lägg till noden Manual Start Trigger som din trigger.
  2. Behåll Flowpast Branding som en fäst anteckning (valfritt) för att dokumentera arbetsflödets syfte.
  3. Koppla Manual Start Trigger till External API Call för att matcha körflödet.

Steg 2: anslut External API Call

Konfigurera HTTP-förfrågan som hämtar HTML-innehållet som ni vill parsa.

  1. Välj noden External API Call.
  2. Ställ in URLhttps://hackernoon.com/.
  3. Ställ in Response Formatstring så att HTML:en kan parsas längre fram i flödet.
  4. Koppla External API Call till Parse HTML Headings.

Steg 3: konfigurera HTML-parsning

Extrahera först rubrikblock, och parsa sedan länkdetaljer från varje rubrikpost.

  1. Öppna Parse HTML Headings och ställ in ett extraktionsvärde med Key item, CSS Selector h2, Return Array aktiverat och Return Value html.
  2. Koppla Parse HTML Headings till Extract Link Details.
  3. I Extract Link Details, ställ in Data Property Nameitem så att den bearbetar varje rubrik.
  4. Lägg till extraktionsvärden i Extract Link Details:
  5. Ställ in Key title med CSS Selector a.
  6. Ställ in Key url med CSS Selector a, Attribute href och Return Value attribute.

⚠️ Vanlig fallgrop: Om målsajtens HTML-struktur ändras kan era CSS-selektorer (h2 och a) sluta matcha. Uppdatera dem så att de speglar den nya strukturen.

Steg 4: konfigurera utdata-/åtgärdsnoder

Det här arbetsflödet avslutas efter att länkdetaljerna har extraherats, så den slutliga utdatan finns direkt i nodens data.

  1. Granska utdatan från Extract Link Details för att bekräfta att varje post innehåller title och url.
  2. Om ni planerar att lagra eller vidarebefordra resultaten, lägg till en efterföljande åtgärdsnod efter Extract Link Details (till exempel en databas- eller kalkylbladsnod).

Steg 5: testa och aktivera ert arbetsflöde

Kör ett manuellt test för att verifiera förfrågan och extraktionslogiken, och aktivera sedan om ni går till produktion.

  1. Klicka på Execute Workflow för att köra Manual Start Trigger.
  2. Bekräfta att External API Call returnerar HTML i strängformat och att Parse HTML Headings ger ut en array under item.
  3. Verifiera att Extract Link Details skapar poster som innehåller title och url.
  4. När ni är redo för produktionsanvändning, klicka på Activate för att aktivera arbetsflödet.
🔒

Lås upp fullständig steg-för-steg-guide

Få den kompletta implementeringsguiden + nedladdningsbar mall

Vanliga fallgropar

  • Google Sheets-autentiseringsuppgifter kan löpa ut eller kräva specifika behörigheter. Om det skapar fel, kontrollera först avsnittet Credentials i n8n för din Google-kontokoppling.
  • Om du använder Wait-noder eller extern rendering varierar processtiderna. Öka väntetiden om nedströmsnoder fallerar på tomma svar.
  • Regler för HTML Extract är känsliga när en sajts layout ändras. Om HackerNoon uppdaterar sin startsides-markup, gå tillbaka till dina selektorer i HTML Extract-noderna och testa mot den live-sidan.

Vanliga frågor

Hur lång tid tar det att sätta upp den här Hackernoon Sheets automation-automatiseringen?

Cirka 20 minuter om ditt kalkylark är redo.

Behöver jag kunna koda för att automatisera Hackernoon Sheets automation?

Nej. Du kommer främst att konfigurera HTTP-begäran och mappa extraherade fält till dina kolumner i kalkylarket.

Är n8n gratis att använda för det här Hackernoon Sheets automation-arbetsflödet?

Ja. n8n har ett gratisalternativ för egen hosting och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volymer. Du behöver också ta hänsyn till begränsningar i din kalkylarksplattform (Google API-kvoter brukar vara helt okej för små dagliga hämtningar).

Var kan jag hosta n8n för att köra den här automatiseringen?

Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller egen hosting på en VPS. För egen hosting är Hostinger VPS prisvärd och klarar n8n bra. Egen hosting ger obegränsade körningar men kräver grundläggande serverhantering.

Kan jag anpassa det här Hackernoon Sheets automation-arbetsflödet för Excel i stället för Google Sheets?

Ja, men du byter destination-noden. Behåll HTTP Request- och HTML Extract-noderna som de är, och mappa sedan slutfälten till Microsoft Excel 365 i stället för Google Sheets. Vanliga anpassningar är att lägga till en ”ämne”-kolumn, spara insamlingsdatum och filtrera bort rubriker som matchar nyckelord du inte bryr dig om.

Varför misslyckas min HackerNoon-anslutning i det här arbetsflödet?

Oftast blockeras eller omdirigeras HTTP-begäran. Kontrollera först request-URL:en, titta sedan på statuskoden och body i n8n:s körningsvy för att se om du får en felsida i stället för startsidans HTML. Om HTML:en ser annorlunda ut än förväntat matchar inte dina HTML Extract-selektorer och du får tomma resultat. Undvik också att belasta sajten; kör på ett rimligt schema.

Hur många rubriker kan den här Hackernoon Sheets automation-automatiseringen hantera?

Dussintals per körning är normalt, och det skalar främst med din n8n-plan och hur ofta du kör det.

Är den här Hackernoon Sheets automation-automatiseringen bättre än att använda Zapier eller Make?

Ofta, ja, eftersom den här typen av scraping-liknande flöde är enklare att styra i n8n. Zapier och Make kan också göra det, men HTML-parsning och felsökning är ofta mer begränsad, och du kan få högre task-förbrukning om du bygger ut arbetsflödet senare. n8n ger också en rak väg till egen hosting med obegränsade körningar, vilket spelar roll när du vill logga dagligen och dessutom lägga till saker som kategorisering. Om du planerar att lägga till berikning (AI-taggning, avduplicering, Slack-notiser) märks n8n:s flexibilitet snabbt. Prata med en automationsexpert om du vill ha hjälp att välja.

När det här väl är igång blir din rubriklogg en tyst tillgång som växer varje dag. Arbetsflödet tar hand om det repetitiva, så att du faktiskt kan göra något med insikterna.

Kontakta oss

Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.

×

Använd mall

Få direkt tillgång till denna n8n-arbetsflödes JSON-fil

Launch login modal Launch register modal