Behöver ert företag hjälp med att implementera AI? Kontakta oss och få prisoffert här →
AI Skolan
januari 22, 2026

Google Search Console till NocoDB, SEO-data redo

Rickard Andersson Partner, Nodenordic.se

Att hämta siffror från Google Search Console för hand ser oskyldigt ut tills det är torsdag, du jonglerar tre domäner och copy-pastar samma kolumner igen. Ett litet misstag (fel datumintervall, missat filter, fel CTR-format) saboterar i tysthet din “trend”-berättelse.

Det är här GSC NocoDB sync räddar ditt förstånd. SEO-specialister märker det först, men marknadschefer och interna analytiker hamnar i samma repetitiva export- och städrutin. Du får konsekventa, sökbara SEO-mått i en tabell, uppdaterade automatiskt.

Nedan är det exakta n8n-flödet som schemalägger hämtningen från Google Search Console, transformerar payloaden och sedan lägger till korrekt formaterade rader i NocoDB. Du ser också vad du behöver förbereda, vad som brukar strula och hur du anpassar det efter din rapporteringsstil.

Så fungerar den här automatiseringen

Hela n8n-flödet, från trigger till slutresultat:

n8n Workflow Template: Google Search Console till NocoDB, SEO-data redo

Problemet: GSC-rapportering blir veckovis rutinjobb

Google Search Console är bra på att visa prestanda, men sämre på att vara “rapportredo” när du behöver historik, konsekvens och snabba jämförelser. Så du exporterar. Sedan byter du rubriker, fixar procenttal, delar upp vyer för fråga vs. sida och klistrar in i ett kalkylark eller en databas. Nästa vecka gör du samma sak igen och hoppas att du använde exakt samma filter, datum och enhetsuppdelning. Om du hanterar flera sajter är det ännu värre. Du upprepar samma rutin, och den mentala belastningen är ärligt talat den största kostnaden.

Det eskalerar snabbt. Här är var det brukar falla i verkligheten.

  • Du tappar cirka 1–2 timmar per vecka och property bara på att exportera, städa och klistra in i “master”-filen.
  • Små inkonsekvenser smyger sig in, så samma rapport berättar olika historia beroende på vem som tog fram den.
  • Historisk analys blir irriterande eftersom exporter ligger i olika mappar, flikar och format.
  • Dashboards i verktyg som Metabase eller Superset håller inte om underliggande data inte är strukturerad på samma sätt varje gång.

Lösningen: Schemalagda Google Search Console-mått lagrade i NocoDB

Det här flödet körs enligt schema i n8n och hämtar Search Analytics-prestandadata från Google Search Console via ett API-anrop. I stället för att dumpa råa exporter i ett kalkylark transformerar det svaret till ett enkelt, konsekvent radformat (fråga, sida, enhet, klick, visningar, CTR, position). Sedan lägger det till raderna i en NocoDB-tabell som du styr. När det väl rullar håller sig din rapporteringsdatabas uppdaterad utan att någon laddar ner CSV:er, städar kolumner eller försöker minnas förra veckans inställningar.

Flödet börjar med en schemalagd trigger (veckovis är vanligt). Det hämtar din valda domän och datumintervall från GSC, och i ett transform-steg mappas payloaden till ditt NocoDB-schema. Till sist lägger flödet till varje post i din NocoDB-tabell så att dina SEO-mått blir sökbara och redo för dashboards.

Det här får du: Automatisering vs. resultat

Exempel: så här ser det ut

Säg att du rapporterar för 3 sajter och hämtar data per fråga + sida + enhet en gång i veckan. Manuellt tar det oftast cirka 30 minuter per sajt att exportera, formatera och klistra in resultaten i en tracker, så du bränner ungefär 1,5–2 timmar i veckan. Med det här flödet lägger du kanske 10 minuter en gång på att sätta domänen och tabellfälten, och sedan uppdaterar den schemalagda körningen NocoDB automatiskt. Vecka efter vecka finns datan bara där.

Det här behöver du

  • n8n-instans (testa n8n Cloud gratis)
  • Självhostningsalternativ om du föredrar det (Hostinger funkar bra)
  • Google Search Console för åtkomst till Search Analytics-prestandamått.
  • NocoDB för att lagra mått i en strukturerad tabell.
  • Google OAuth2-uppgifter (konfigureras i Google Cloud för GSC API).
  • NocoDB API-token (hämtas i dina kontoinställningar i NocoDB).

Kunskapsnivå: Medel. Du kopplar OAuth, skapar ett matchande tabellschema och klistrar in uppgifter i n8n.

Vill du inte sätta upp detta själv? Prata med en automationsexpert (gratis 15-minuters konsultation).

Så fungerar det

Ett schema triggar allt. n8n kör flödet med den frekvens du väljer (veckovis, dagligen eller vad som passar din rapporteringsrytm). Du kan också duplicera flödet per domän om du hanterar flera properties.

Flödet hämtar prestandadata från GSC. Ett HTTP-anrop kallar Search Analytics API för den domän och det datumintervall du definierar och returnerar rader med mått som klick, visningar, CTR och genomsnittlig position, tillsammans med dimensioner som fråga, sida och enhet.

Payloaden normaliseras. Ett transform-steg mappar GSC-svaret till exakt de fält du vill lagra i NocoDB (till exempel att göra CTR till ett konsekvent numeriskt värde och säkerställa att fråga/sida/enhet matchar dina kolumntyper).

NocoDB blir din rapporteringskälla. Sista steget lägger till varje mappad rad i din NocoDB-tabell, vilket gör att du kan söka i den, bygga en dashboard eller senare joina med andra dataset.

Du kan enkelt ändra logiken för domän och datumintervall efter dina behov. Se hela implementationsguiden nedan för anpassningsalternativ.

Steg-för-steg-guide för implementering

Steg 1: Konfigurera schematriggern

Konfigurera arbetsflödet så att det körs veckovis med triggernoden.

  1. Lägg till noden Scheduled Automation Trigger som arbetsflödets trigger.
  2. Ställ in schemaregeln till veckovis med field satt till weeks, triggerAtDay satt till [1] och triggerAtHour satt till 1.
  3. Bekräfta att noden är ansluten till External API Request.
Tips: Dag 1 motsvarar vanligtvis måndag i n8n:s veckoschema.

Steg 2: Anslut data från Google Search Console

Konfigurera API-anropet som hämtar SEO-mätvärden från Google Search Console.

  1. Lägg till noden External API Request och ställ in Method till POST.
  2. Ställ in URL till https://searchconsole.googleapis.com/webmasters/v3/sites/sc-domain:[YOUR_ID]/searchAnalytics/query.
  3. Ställ in Send Body till On och Specify Body till json.
  4. Klistra in detta i JSON Body: ={\n "startDate": "{{ new Date(Date.now() - 7 * 24 * 60 * 60 * 1000).toISOString().split('T')[0] }}",\n "endDate": "{{ new Date().toISOString().split('T')[0] }}",\n "dimensions": ["query", "page", "device", "date"],\n "rowLimit": 1000\n}.
  5. Autentiseringsuppgifter krävs: Anslut era googleOAuth2Api-uppgifter.
⚠️ Vanlig fallgrop: Ersätt [YOUR_ID] i URL:en med er verifierade Search Console-egenskapsdomän.

Steg 3: Konfigurera Transform Payload

Normalisera API-svaret till strukturerade fält för NocoDB.

  1. Lägg till noden Transform Payload efter External API Request.
  2. Ställ in JavaScript Code till return $json.rows.map(row => ({\n json: {\n date: row.keys[3],\n query: row.keys[0],\n page: row.keys[1],\n device: row.keys[2],\n clicks: row.clicks,\n impressions: row.impressions,\n ctr: row.ctr,\n position: row.position\n }\n}));.
  3. Verifiera att noden skickar ut ett item per rad för efterföljande infogning.

Steg 4: Konfigurera NocoDB-utdata

Infoga varje transformerad post i er NocoDB-tabell.

  1. Lägg till noden Append NocoDB Record efter Transform Payload.
  2. Ställ in Operation till create och Data to Send till autoMapInputData.
  3. Fyll i Workspace ID, Project ID och Table med era NocoDB-värden (ersätt [YOUR_ID]).
  4. Autentiseringsuppgifter krävs: Anslut era nocoDbApiToken-uppgifter.
⚠️ Vanlig fallgrop: Säkerställ att kolumnnamnen i NocoDB matchar fälten som skapas i Transform Payload (t.ex. date, query, page).

Steg 5: Testa och aktivera ert arbetsflöde

Kör ett manuellt test för att bekräfta att data flödar hela vägen innan ni aktiverar schemat.

  1. Klicka på Execute Workflow och bekräfta att External API Request returnerar rader.
  2. Kontrollera utdata från Transform Payload för att säkerställa att items innehåller date, query, page, device och mätvärden.
  3. Verifiera att Append NocoDB Record skapar nya rader i er NocoDB-tabell.
  4. Växla arbetsflödet till Active för att köra enligt veckoschemat.
🔒

Lås upp fullständig steg-för-steg-guide

Få den kompletta implementeringsguiden + nedladdningsbar mall

Vanliga fallgropar

  • OAuth-uppgifter för Google Search Console kan löpa ut eller sakna rätt scope. Om det strular, kontrollera först OAuth consent screen i Google Cloud och statusen på inloggningsuppgiften i n8n.
  • Om du använder Wait-noder eller extern rendering varierar processtiderna. Öka väntetiden om noder längre fram misslyckas på grund av tomma svar.
  • NocoDB API-tokens och tabellrättigheter är lätta att missa. Om insert misslyckas, bekräfta att token fortfarande fungerar och att måltabellen tillåter att poster skapas.

Vanliga frågor

Hur lång tid tar det att sätta upp den här automatiseringen för GSC NocoDB sync?

Räkna med cirka 30–60 minuter om du redan har åtkomst till GSC och en NocoDB-bas.

Behöver jag kunna koda för att automatisera GSC NocoDB sync?

Nej. Du kopplar främst konton och matchar fält i din NocoDB-tabell.

Är n8n gratis att använda för det här GSC NocoDB sync-flödet?

Ja. n8n har ett gratis självhostat alternativ och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna in eventuella kostnader för NocoDB-hosting och Googles normala API-användningsgränser.

Var kan jag hosta n8n för att köra den här automatiseringen?

Två alternativ: n8n Cloud (managed, enklast att komma igång) eller självhosting på en VPS. För självhosting är Hostinger VPS prisvärd och klarar n8n bra. Självhosting ger obegränsat antal körningar men kräver grundläggande serverhantering.

Kan jag anpassa det här GSC NocoDB sync-flödet för flera domäner?

Ja, men håll det enkelt i början. De flesta team duplicerar flödet per domän, ändrar sedan property-URL:en i noden HTTP Request och skriver till en domänspecifik tabell (eller lägger till en “site”-kolumn i steget Transform Payload). Du kan också justera schemat så att prioriterade properties uppdateras oftare. Om du vill ha ett flöde som loopar igenom många domäner går det också, men det är en lite mer avancerad lösning.

Varför misslyckas min Google Search Console-anslutning i det här flödet?

Oftast är det OAuth. Kontrollera igen att din Google OAuth2-uppgift i n8n är auktoriserad för rätt konto, att GSC API är aktiverat i ditt Google Cloud-projekt och att site property är verifierad i Search Console. Om det bara misslyckas vid vissa körningar kan du även slå i API-gränser eller begära en kombination av datumintervall/dimensioner som GSC inte returnerar för den propertyn.

Hur många poster klarar den här automatiseringen för GSC NocoDB sync?

Det beror på hur många rader GSC returnerar för dina valda dimensioner och datumintervall, men veckovisa hämtningar för en typisk sajt är vanligtvis hanterbara även på mindre n8n-installationer. På n8n Cloud är din månatliga gräns för exekveringar den största begränsningen; på självhostad n8n handlar det främst om serverstorlek och hur snabbt NocoDB tar emot inserts.

Är den här automatiseringen för GSC NocoDB sync bättre än att använda Zapier eller Make?

För schemalagd synk GSC → databas passar n8n oftast bättre eftersom du kan styra API-anropet, transformera payloaden exakt som du vill och hålla kostnaderna förutsägbara (särskilt om du självhostar). Zapier och Make kan fungera, men du betalar ofta mer när du börjar loopa igenom rader eller lägger till grenlogik. Dessutom är “datastädningen” den del där de verktygen lätt blir klumpiga. Om du är osäker på vilket verktyg som passar din volym och dina rapporteringsbehov, prata med en automationsexpert så pekar vi dig i rätt riktning.

När dina GSC-mått landar i NocoDB automatiskt slutar rapportering vara ett veckovis måste och börjar kännas som ett system. Sätt upp det, låt det rulla och använd de extra timmarna till analys som faktiskt flyttar rankingar.

Kontakta oss

Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.

×

Använd mall

Få direkt tillgång till denna n8n-arbetsflödes JSON-fil

Launch login modal Launch register modal