Att kolla GitHub Trending ”lite snabbt” låter oskyldigt. Sedan har du plötsligt lagt 30 minuter på att kopiera namn, länkar och språk till ett kalkylark som ändå blir rörigt.
Den här GitHub Sheets-automationen träffar produktteam som gör veckovis verktygsresearch, men marknadsförare som spanar efter ”vad som är hett” för contentvinklar och byråteam som bygger kunders tech stacks känner av det också. Du får ett korrekt formaterat Google Sheet med trendande repos, redo att sortera, filtrera och dela.
Nedan ser du arbetsflödet, vad det ger som output och hur du anpassar det så att din ”trendspårning” blir ett repeterbart system i stället för en återkommande syssla.
Så fungerar den här automatiseringen
Hela n8n-flödet, från trigger till slutlig output:
n8n Workflow Template: GitHub trending till Sheets, research loggas rensad
flowchart LR
subgraph sg0["When clicking ‘Test workflow’ Flow"]
direction LR
n0@{ icon: "mdi:play-circle", form: "rounded", label: "When clicking ‘Test workflow’", pos: "b", h: 48 }
n1["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/html.dark.svg' width='40' height='40' /></div><br/>Extract Box"]
n2["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/httprequest.dark.svg' width='40' height='40' /></div><br/>Request to Github Trend"]
n3@{ icon: "mdi:swap-vertical", form: "rounded", label: "Turn to a list", pos: "b", h: 48 }
n4@{ icon: "mdi:swap-vertical", form: "rounded", label: "Set Result Variables", pos: "b", h: 48 }
n5["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/html.dark.svg' width='40' height='40' /></div><br/>Extract repository data"]
n6["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/html.dark.svg' width='40' height='40' /></div><br/>Extract all repositories"]
n1 --> n6
n3 --> n5
n5 --> n4
n2 --> n1
n6 --> n3
n0 --> n2
end
%% Styling
classDef trigger fill:#e8f5e9,stroke:#388e3c,stroke-width:2px
classDef ai fill:#e3f2fd,stroke:#1976d2,stroke-width:2px
classDef aiModel fill:#e8eaf6,stroke:#3f51b5,stroke-width:2px
classDef decision fill:#fff8e1,stroke:#f9a825,stroke-width:2px
classDef database fill:#fce4ec,stroke:#c2185b,stroke-width:2px
classDef api fill:#fff3e0,stroke:#e65100,stroke-width:2px
classDef code fill:#f3e5f5,stroke:#7b1fa2,stroke-width:2px
classDef disabled stroke-dasharray: 5 5,opacity: 0.5
class n0 trigger
class n2 api
classDef customIcon fill:none,stroke:none
class n1,n2,n5,n6 customIcon
Problemet: trendresearch blir snabbt rörigt
GitHub Trending ändras hela tiden, vilket gör det användbart och samtidigt irriterande. Du kollar vad som trendar för att hitta verktyg, bibliotek och mönster som teamet bör hålla koll på. Men så fort du försöker ”spåra det” fastnar du i att kopiera reponamn, författare, beskrivningar och länkar till ett ark som aldrig har samma formatering två gånger. Sedan frågar någon: ”Kan du dela vad du hittade i tisdags?” och du inser att du inte kan det, åtminstone inte pålitligt. Värst är den mentala belastningen. Research ska handla om omdöme, inte dataregistrering.
Det blir mycket snabbt. Här är var det faller isär i riktiga team.
- Du tappar ungefär en timme i veckan bara på att samla in och rensa repodetaljer.
- Copy-paste-fel smyger sig in, så ”källan till sanningen” blir tveksam.
- Trender är svåra att jämföra över tid eftersom förra veckans lista inte sparas i ett konsekvent format.
- Delning blir krånglig, eftersom skärmbilder och ad hoc-anteckningar inte blir sökbar research.
Lösningen: GitHub Trending → felfria rader i Google Sheets
Det här n8n-flödet hämtar GitHubs Trending-sida, extraherar topprepon och gör om det som normalt är en visuell webbsida till strukturerad, kalkylarksanpassad data. Det startar med en manuell trigger (så att du kan köra det när som helst), hämtar sedan Trending-HTML:en, isolerar containern som innehåller repolistan och delar upp varje repo till ett eget item för vidare bearbetning. Därefter parsar det detaljer som repository-namn, författare, beskrivning, primärt språk och direkt-URL. Till sist formaterar det allt till felfria, konsekventa fält så att outputen är redo att loggas i Google Sheets (och, om du vill, Microsoft Excel 365 också).
Flödet startar när du kör det i n8n. Det hämtar den aktuella Trending-sidan, extraherar repoblock och parsar sedan varje block till standardiserade fält. Därifrån kan du lägga till raderna i ett Sheet så att din research förblir sorterings- och delningsbar utan extra efterarbete.
Det du får: automatisering vs. resultat
| Vad det här flödet automatiserar | Resultatet du får |
|---|---|
|
|
Exempel: så här ser det ut
Säg att du följer topp 20 GitHub Trending-repos varje vardag för en månadsvis ”verktyg att hålla koll på”-genomgång. Manuell hantering, även med bara 2 minuter per repo för att kopiera namn, författare, beskrivning, språk och länk, blir cirka 40 minuter per dag. Med det här flödet klickar du kör (kanske 1 minut), låter det processa i ett par minuter, och ditt Sheet är uppdaterat. Det är ungefär 3 timmar tillbaka varje vecka, plus att kalkylarket förblir konsekvent.
Det här behöver du
- n8n-instans (prova n8n Cloud gratis)
- Självhostat alternativ om du föredrar det (Hostinger fungerar bra)
- Google Sheets för att lagra felfria, sorterbara rader.
- Åtkomst till GitHub Trending-sidan för att hämta den publika HTML:en.
- OpenAI API-nyckel (hämta den i din OpenAI-dashboard) om du aktiverar AI Agent-/Chat Model-noderna för berikning.
Svårighetsgrad: Nybörjare. Du kommer mest att koppla konton och bekräfta vilka kolumner du vill ha i ditt ark.
Vill du slippa sätta upp det själv? Prata med en automationsexpert (gratis 15-minuters konsultation).
Så fungerar det
Du triggar körningen vid begäran. Flödet startar med en manuell start, så du kan köra det när du vill ha färska trenddata (eller senare byta till ett schema).
Flödet hämtar och isolerar Trending-innehållet. n8n hämtar GitHub Trending via en HTTP-förfrågan och extraherar sedan den specifika HTML-containern som innehåller repolistan, så att du inte parsar hela sidan på chans.
Varje repository blir ett strukturerat item. Flödet delar upp repoblock i enskilda poster, parsar detaljerna och mappar dem till felfria outputfält som namn, författare, beskrivning, språk och URL.
Dessa fält loggas för enkel research. När värdena är standardiserade kan du skicka dem till Google Sheets (eller Excel 365) så att teamet kan sortera, filtrera och bygga vidare på researchen utan omformatering.
Du kan enkelt ändra mål-kategorin i Trending för att följa ett specifikt språk eller en tidsperiod baserat på dina behov. Se hela implementationsguiden nedan för anpassningsalternativ.
Steg-för-steg-guide för implementering
Steg 1: Konfigurera den manuella triggern
Det här arbetsflödet startas manuellt så att ni kan testa scraping vid behov.
- Lägg till noden Manual Launch Trigger som trigger.
- Lämna alla standardinställningar som de är eftersom inga parametrar krävs.
- Koppla Manual Launch Trigger till Fetch Trending Page.
Steg 2: Anslut GitHub Trending-källan
Hämta HTML-innehållet från GitHubs trendsida.
- Lägg till noden Fetch Trending Page.
- Ställ in URL på
https://github.com/trending. - Koppla Fetch Trending Page till Pull Container HTML.
Steg 3: Konfigurera HTML-parsning och uppdelning
Extrahera containern och dela sedan upp och parsa varje repository-block.
- I Pull Container HTML ställer ni in Operation på
extractHtmlContentoch lägger till ett extraktionsvärde med Keybox, CSS Selectordiv.Boxoch Return Valuehtml. - I Retrieve Repo Blocks ställer ni in Operation på
extractHtmlContentoch Data Property Name påbox. - I Retrieve Repo Blocks lägger ni till extraktionsvärden med Key
repositories, CSS Selectorarticle.Box-row, med Return Array aktiverat och Return Valuehtml. Aktivera även Trim Values och Clean Up Text under Options. - Koppla Pull Container HTML till Retrieve Repo Blocks och koppla sedan Retrieve Repo Blocks till Split Repo Items.
- I Split Repo Items ställer ni in Field To Split Out på
repositories. - Koppla Split Repo Items till Parse Repo Details.
- I Parse Repo Details ställer ni in Operation på
extractHtmlContentoch Data Property Name pårepositories. - Lägg till extraktionsvärden i Parse Repo Details: Key
repositorymed CSS Selectora.Link, Keylanguagemed CSS Selectorspan.d-inline-blockoch Keydescriptionmed CSS Selectorp.
Steg 4: Konfigurera utdatafält
Omvandla parsad data till rena, strukturerade fält.
- Lägg till noden Assign Output Fields och koppla den efter Parse Repo Details.
- I Assign Output Fields behåller ni Include Other Fields inställt på
=. - Lägg till ett strängfält author med värdet
={{ $json.repository.split('/')[0].trim() }}. - Lägg till ett strängfält title med värdet
={{ $json.repository.split('/')[1].trim() }}. - Lägg till ett strängfält repository med värdet
={{ $json.repository }}. - Lägg till ett strängfält url med värdet
=https://github.com/{{ $json.repository.replaceAll(' ','') }}. - Lägg till ett strängfält created_at med värdet
={{$now}}. - Lägg till ett strängfält description med värdet
={{ $json.description }}.
owner/repo) kommer split-uttrycken att misslyckas. Validera selektorn i Parse Repo Details.Steg 5: Testa och aktivera ert arbetsflöde
Kör ett manuellt test för att bekräfta att scrapern returnerar ren repository-data.
- Klicka på Execute Workflow och trigga från Manual Launch Trigger.
- Verifiera att Assign Output Fields output:ar objekt med
author,title,repository,url,created_atochdescription. - Om utdata är tomt, kontrollera selektorerna igen i Pull Container HTML, Retrieve Repo Blocks och Parse Repo Details.
- När ni är nöjda, växla arbetsflödet till Active för användning i produktion.
Vanliga fallgropar
- Google Sheets-inloggningsuppgifter kan gå ut eller kräva specifika behörigheter. Om något slutar fungera, kontrollera först sidan Credentials i n8n och delningsinställningarna för målarket.
- Om du använder Wait-noder eller extern rendering varierar processtiderna. Öka väntetiden om efterföljande noder fallerar på tomma svar.
- Standardprompter i AI-noder är generiska. Lägg in er tonalitet tidigt, annars kommer du att redigera output för alltid.
Vanliga frågor
Cirka 30 minuter om ditt Google-konto är redo.
Nej. Du importerar flödet, kopplar Google Sheets och bekräftar vilka kolumner du vill spara.
Ja. n8n har ett gratis självhostat alternativ och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna in OpenAI API-kostnader om du aktiverar AI-berikningsnoderna.
Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller självhosting på en VPS. För självhosting är Hostinger VPS prisvärd och hanterar n8n bra. Självhosting ger dig obegränsade exekveringar men kräver grundläggande serveradministration.
Ja, men du gör det i request-steget, inte i kalkylarket. Du kan peka HTTP-förfrågan mot en språkspecifik Trending-sida (till exempel genom att lägga till en språksökväg) och sedan behålla samma parsning-noder (”Pull Container HTML”, ”Retrieve Repo Blocks” och ”Parse Repo Details”). Vanliga justeringar är att logga datumet för insamlingen, filtrera bort repos utan språk och lägga till en extra kolumn som ”topic fit” om du gör veckovisa genomgångar.
Oftast är det inte ”GitHub auth” alls, eftersom Trending-sidan är publik. Vanligare är att HTML:en har ändrats och att dina extraktionsnoder inte längre matchar rätt container, så flödet delar inte upp något och efterföljande steg ser trasiga ut. Kör om HTTP request-noden, granska den returnerade HTML:en och justera selektorerna i stegen för HTML-parsning. Kontrollera också rate limiting om du kör det väldigt ofta.
I standardupplägget är det byggt kring de senaste 20 trendande repos per körning. Om du bygger ut det kan n8n hantera betydligt fler, men du behöver ha koll på exekveringsgränser i n8n Cloud och på generell tillförlitlighet vid scraping om du börjar belasta Trending-sidan hårt.
Ofta, ja, eftersom det här flödet bygger på HTML-parsning och formatering i flera steg, vilket är där ”enkla zaps” börjar kännas begränsade. n8n ger dig också mer kontroll över hur items delas upp och slås ihop, så att du kan rensa fält en gång och återanvända logiken. Om du självhostar betalar du inte per task, vilket spelar roll när du kör det dagligen. Zapier eller Make kan fortfarande vara bra för väldigt små upplägg, särskilt om du redan betalar för dem och bara behöver en enkel ”lägg till rad i Sheet”-åtgärd. Om du vill ha en snabb rekommendation baserat på din volym och dina verktyg, prata med en automationsexpert.
När detta väl är på plats blir din trendresearch en pålitlig logg i stället för en återkommande tabbhoppning. Flödet tar hand om de repetitiva delarna, så att du kan fokusera på vad som faktiskt är värt att lägga märke till.
Kontakta oss
Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.