Du kan rutinen. Du öppnar Google Search Console, klickar in på Prestanda, väljer datum, justerar filter, exporterar, städar CSV-filen och försöker sedan komma ihåg varför siffrorna inte matchar förra veckans kalkylark.
SEO-ansvariga känner av det under rapportveckan. Marknadschefer känner av det när någon frågar ”sjönk rankingen eller sjönk klicken?” och du inte kan svara snabbt. Även byråägare fastnar i samma loop. Den här Search Console Sheets-automationen hämtar korrekt formaterade mätvärden till Google Sheets så att du slipper leva i flikar och exporter.
Nedan ser du vad arbetsflödet gör, vad som förändras när du installerar det och var team oftast snubblar när de kopplar Google Search Console till något automatiserat.
Så fungerar den här automationen
Se hur detta löser problemet:
n8n Workflow Template: Google Search Console till Google Sheets, korrekt SEO-data
flowchart LR
subgraph sg0["MCP GSC Flow"]
direction LR
n0@{ icon: "mdi:web", form: "rounded", label: "list sites request", pos: "b", h: 48 }
n1@{ icon: "mdi:web", form: "rounded", label: "Get Site Info Request1", pos: "b", h: 48 }
n2@{ icon: "mdi:web", form: "rounded", label: "Search Analytics Request1", pos: "b", h: 48 }
n3@{ icon: "mdi:web", form: "rounded", label: "Submit Sitemap Request1", pos: "b", h: 48 }
n4@{ icon: "mdi:web", form: "rounded", label: "Request Indexing Request1", pos: "b", h: 48 }
n5@{ icon: "mdi:play-circle", form: "rounded", label: "MCP GSC", pos: "b", h: 48 }
n0 -.-> n5
n1 -.-> n5
n3 -.-> n5
n4 -.-> n5
n2 -.-> n5
end
%% Styling
classDef trigger fill:#e8f5e9,stroke:#388e3c,stroke-width:2px
classDef ai fill:#e3f2fd,stroke:#1976d2,stroke-width:2px
classDef aiModel fill:#e8eaf6,stroke:#3f51b5,stroke-width:2px
classDef decision fill:#fff8e1,stroke:#f9a825,stroke-width:2px
classDef database fill:#fce4ec,stroke:#c2185b,stroke-width:2px
classDef api fill:#fff3e0,stroke:#e65100,stroke-width:2px
classDef code fill:#f3e5f5,stroke:#7b1fa2,stroke-width:2px
classDef disabled stroke-dasharray: 5 5,opacity: 0.5
class n5 trigger
class n0,n1,n2,n3,n4 api
Utmaningen: strukturerad Search Console-data utan manuella exporter
Search Console är bra, men den är inte byggd för repetitiva, kalkylarksanpassade arbetsflöden. Så fort du behöver samma dataset varje vecka (eller ännu värre, för flera sajter) blir ”snabbexporten” ett återkommande måste. Sedan kommer städningen: konstiga rubriker, inkonsekventa datumintervall, någon filtrerar på sida medan någon annan filtrerar på sökfråga. Det handlar inte bara om tid. Det är mental belastning, och det skapar rapportstress eftersom du aldrig litar fullt ut på siffrorna du kopierade.
Det drar snabbt iväg. Här är var det fallerar i verkliga team.
- Manuella exporter hoppas över när det är mycket, så din ”veckorapport” blir ett sporadiskt panikjobb.
- Du bygger upp samma vyer om och om igen (datumintervall, enhet, land, sökfrågefilter) och det är lätt att missa en inställning.
- CSV-städning är frustrerande, och små formateringsmissar kan i det tysta förstöra diagram och pivottabeller.
- När intressenter ställer följdfrågor behöver du ofta gå tillbaka till Search Console och börja om.
Lösningen: en MCP-gateway som skickar Search Console-data till Sheets
Det här arbetsflödet gör Google Search Console till en ”datakälla vid begäran” som du kan anropa när du behöver svar, och routar sedan resultatet till ett kalkylarksvänligt format. Det körs i n8n och exponerar MCP-endpoints (Model Context Protocol), vilket betyder att MCP-kompatibla AI-verktyg kan begära Search Console-mätvärden utan att du behöver gräva i gränssnittet. När en begäran kommer in anropar arbetsflödet rätt Google-API:er, hämtar sajtlistor eller sökanalys och returnerar strukturerade resultat som du kan lagra i Google Sheets (eller till och med Excel) för rapportering. Det stödjer också operativa SEO-uppgifter som att skicka in webbplatskartor och begära URL-indexering, så du kan gå från insikt till åtgärd utan att hoppa mellan verktyg.
Arbetsflödet startar när en MCP-klient anropar en endpoint (till exempel ”fråga efter sökmätvärden för den här egendomen”). n8n använder OAuth2 för autentisering, skickar begäran till Google Search Console och formar svaret till strukturerade fält. Därifrån kan du skriva raderna till Google Sheets så att samma rapport uppdateras konsekvent varje gång.
Vad som förändras: före vs. efter
| Det här tar bort | Effekten du kommer att se |
|---|---|
|
|
Effekt i praktiken
Säg att du följer 3 sajter och hämtar 2 Search Console-vyer per sajt varje vecka (toppfrågor och toppsidor). Manuellt är det cirka 10 minuter per export plus ytterligare 10 minuter för att städa och klistra in i Sheets, alltså ungefär 2 timmar per vecka när du räknar in kontextbyten. Med det här arbetsflödet triggar du hämtningen en gång, låter API:et returnera strukturerade rader och skriver dem till Google Sheets på några minuter. Du får tillbaka tiden, och arket är direkt redo för diagram.
Krav
- n8n-instans (prova n8n Cloud gratis)
- Alternativ för egen drift om du föredrar det (Hostinger fungerar bra)
- Google Search Console för att komma åt verifierade egenskaper och mätvärden
- Google Sheets för att lagra och återanvända korrekt formaterade rapporttabeller
- Google OAuth2-inloggningsuppgifter (hämtas från Google Cloud Console)
Svårighetsnivå: Medel. Du kommer inte att koda, men du kommer att sätta upp OAuth-behörigheter och testa ett par API-anrop.
Behöver du hjälp att implementera detta? Prata med en automationsexpert (gratis 15-minuters konsultation).
Arbetsflödet steg för steg
En MCP-begäran triggar arbetsflödet. ”MCP Search Console Gateway” lyssnar efter anrop från MCP-kompatibla AI-verktyg (som Claude) och routar varje begäran till rätt funktion.
OAuth2-autentisering sker i bakgrunden. När dina Google OAuth2-uppgifter är kopplade i n8n kan arbetsflödet på ett säkert sätt anropa Search Console API och (om du aktiverar det) Web Search Indexing API.
Google Search Console-data hämtas vid begäran. Beroende på vad du ber om kan det lista verifierade sajter, hämta egenskapsdetaljer eller fråga efter sökanalysmätvärden som klick, exponeringar och genomsnittlig position.
Resultat formas för kalkylark. Använd steget i stil med ”Edit Fields (Set)” (som redan finns i arbetsflödet) för att standardisera fältnamn, och skicka sedan rader till Google Sheets eller Microsoft Excel 365 för rapportering och dashboards.
Du kan enkelt ändra vilka fält du sparar (sökfråga, sida, land, enhet, datum) så att det matchar din rapportmall utifrån dina behov. Se hela implementationsguiden nedan för anpassningsalternativ.
Steg-för-steg-guide för implementation
Steg 1: Konfigurera MCP-triggern
Konfigurera triggern som exponerar Search Console-verktygen för er MCP-klient.
- Lägg till triggern MCP Search Console Gateway i ett nytt workflow.
- Ställ in Path på
125ed1a6-7292-4085-b22e-9a1028c22449. - Lämna den fästa anteckningen Flowpast Branding på plats för dokumentation (valfritt).
Steg 2: Anslut Google Search Console API:er
HTTP-verktygen registreras som AI-verktyg på triggern, så autentiseringsuppgifter bör läggas till på den överordnade noden i stället för på de enskilda verktygen.
- Öppna MCP Search Console Gateway och lägg till autentiseringsuppgifter för era Google API:er.
- Autentiseringsuppgift krävs: Anslut era Google OAuth2 API-autentiseringsuppgifter.
- Bekräfta att verktygen Retrieve Site List, Fetch Site Details, Query Search Metrics, Submit Sitemap Update och Trigger URL Indexing visas som anslutna AI-verktyg till MCP Search Console Gateway.
Steg 3: Sätt upp verktyg för webbplatsupptäckt
Konfigurera verktygen som listar webbplatser och hämtar webbplatsspecifika detaljer från Search Console API.
- I Retrieve Site List ställer ni in URL på
https://www.googleapis.com/webmasters/v3/sites. - I Fetch Site Details ställer ni in URL på
=https://www.googleapis.com/webmasters/v3/sites/{{ encodeURIComponent($json.params.arguments.siteUrl) }}. - Säkerställ att er MCP-klient skickar
siteUrli parametrarna för Fetch Site Details.
Steg 4: Konfigurera sökmetrik och indexeringsåtgärder
Dessa verktyg skickar sökanalysfrågor, sitemap-uppdateringar och begäran om URL-indexering.
- I Query Search Metrics ställer ni in Method på
POSToch URL på=https://www.googleapis.com/webmasters/v3/sites/{{ encodeURIComponent($json.params.arguments.siteUrl) }}/searchAnalytics/query. - I Submit Sitemap Update ställer ni in Method på
PUToch URL på=https://www.googleapis.com/webmasters/v3/sites/{{ encodeURIComponent($json.params.arguments.siteUrl) }}/sitemaps/{{ encodeURIComponent($json.params.arguments.feedpath) }}. - I Trigger URL Indexing ställer ni in Method på
POST, aktiverar Send Body och ställer in body-parametrar: url till={{ $json.params.arguments.inspectionUrl }}och type tillURL_UPDATED.
siteUrl, feedpath och inspectionUrl för att undvika 400/404-fel från Google API:erna.Steg 5: Testa och aktivera ert workflow
Validera verktygens endpoints och aktivera sedan workflowet för användning i produktion.
- Klicka på Execute Workflow och trigga MCP Search Console Gateway från er MCP-klient.
- Verifiera lyckade svar från Retrieve Site List, Fetch Site Details, Query Search Metrics, Submit Sitemap Update och Trigger URL Indexing.
- Om svaren innehåller data eller statuskoder i 200-serien fungerar workflowet korrekt.
- Växla workflowet till Active för att aktivera det för löpande användning.
Se upp med
- Google OAuth2-uppgifter kan löpa ut eller kräva specifika behörigheter. Om något slutar fungera, kontrollera först n8n:s Credential-vy och din OAuth consent-konfiguration i Google Cloud.
- Om du använder Wait-noder eller extern rendering varierar processtiderna. Öka väntetiden om efterföljande noder fallerar på tomma svar.
- Standardprompter i AI-noder är generiska. Lägg in er tonalitet tidigt, annars kommer du att redigera utdata i all evighet.
Vanliga frågor
Cirka en timme om ditt Google Cloud-projekt redan är uppsatt.
Ja, men någon behöver vara bekväm med inloggningsuppgifter i Google Cloud. Ingen kodning krävs, du kommer mest att kopiera ID:n, sätta behörigheter (scopes) och testa en begäran.
Ja. n8n har ett gratis alternativ för egen drift och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också ta höjd för Google API-användning (oftast låg för Search Console) och eventuella kostnader för AI-verktyg om du anropar detta via en AI-klient.
Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller egen drift på en VPS. För egen drift är Hostinger VPS prisvärt och hanterar n8n bra. Egen drift ger dig obegränsade körningar men kräver grundläggande serveradministration.
Du kan behålla samma MCP-gateway och byta ut vad som händer efter anropet ”Query Search Metrics”. Vanliga ändringar är att skriva till en separat Google Sheets-flik per sajt, ändra vilka dimensioner du begär (sökfråga vs sida vs land) och lägga till ett steg som automatiskt skickar in en webbplatskarta efter en innehållsrelease via endpointen ”Submit Sitemap Update”.
Oftast beror det på att OAuth-behörigheterna inte matchar eller att consent-token har löpt ut. Dubbelkolla att din Google OAuth2-credential i n8n inkluderar webmasters-scopes, och bekräfta att Search Console API är aktiverat i samma Google Cloud-projekt. Säkerställ också att Google-kontot du autentiserade med faktiskt är verifierat för den egendomen. Om du anropar indexerings-endpointen kommer saknad åtkomst till Web Search Indexing API också att orsaka fel.
På n8n med egen drift finns inget tak för antal körningar (din server är begränsningen). På n8n Cloud beror kapaciteten på din plan, och det här arbetsflödet är generellt lättviktigt eftersom det är några API-anrop per begäran.
Ofta, ja, eftersom den här lösningen bygger på ett MCP-gateway-mönster och flera endpoints (sajtlista, mätvärden, webbplatskartor, indexering) snarare än en enda ”trigger-action”-zap. n8n gör också förgreningar och återanvändbar hantering av förfrågningar enklare, och du kan köra med egen drift för hög volym utan att betala per uppgift. Zapier eller Make kan fortfarande fungera om allt du behöver är ”exportera en rapport varje vecka”, men de blir klumpiga när du vill ha frågor vid begäran plus operativa SEO-åtgärder. Den verkliga frågan är hur mycket kontroll du behöver över hur datan formas innan den hamnar i Sheets. Prata med en automationsexpert om du vill ha en snabb rekommendation.
När detta väl rullar slutar din Search Console-data att vara ett exportprojekt en gång i veckan. Den blir något du kan hämta in i Sheets när som helst, återanvända i rapporter och fatta beslut på utan huvudvärken med kalkylarksstädning.
Kontakta oss
Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.