Dina rapporteringssiffror finns ”någonstans”, men att få ihop dem är det verkliga jobbet. En flik i Google Sheets, en fråga i SQL Server, en MongoDB-kollektion, en Postgres-tabell och sedan Google Analytics ovanpå det. När du väl har kopierat, klistrat in, rensat kolumner och jagat fält som inte matchar är veckan i princip slut.
Det är här marketing ops-team tappar timmar, men byråägare som bygger kunddashboards och småföretagare som försöker förstå tillväxten känner av det också. Den här automatiseringen för Sheets Analytics report ger dig ett enda masterark i Google Sheets som uppdateras enligt schema, med varje rad taggad med källa så att du kan lita på det du tittar på.
Nedan ser du hur flödet körs, vad det konsoliderar och vad som förändras när ”data-wrangling”-delen hanteras åt dig.
Så här fungerar automatiseringen
Hela n8n-flödet, från trigger till slutligt resultat:
n8n Workflow Template: Google Sheets + Google Analytics: en strukturerad rapport
flowchart LR
subgraph sg0["Schedule Flow"]
direction LR
n0@{ icon: "mdi:database", form: "rounded", label: "📄 Google Sheets Source", pos: "b", h: 48 }
n1["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/postgres.svg' width='40' height='40' /></div><br/>🐘 PostgreSQL Source"]
n2["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/mongodb.svg' width='40' height='40' /></div><br/>🍃 MongoDB Source"]
n3@{ icon: "mdi:code-braces", form: "rounded", label: "⚙️ Process Merged Data", pos: "b", h: 48 }
n4@{ icon: "mdi:database", form: "rounded", label: "📊 Final Google Sheet", pos: "b", h: 48 }
n5@{ icon: "mdi:code-braces", form: "rounded", label: "Add Sheets Source ID", pos: "b", h: 48 }
n6@{ icon: "mdi:code-braces", form: "rounded", label: "Add PostgreSQL Source ID", pos: "b", h: 48 }
n7@{ icon: "mdi:code-braces", form: "rounded", label: "Add SQL Server Source ID", pos: "b", h: 48 }
n8@{ icon: "mdi:code-braces", form: "rounded", label: "Add MongoDB Source ID", pos: "b", h: 48 }
n9@{ icon: "mdi:code-braces", form: "rounded", label: "Add Analytics Source ID", pos: "b", h: 48 }
n10@{ icon: "mdi:cog", form: "rounded", label: "Microsoft SQL Server", pos: "b", h: 48 }
n11@{ icon: "mdi:cog", form: "rounded", label: "Google Analytics", pos: "b", h: 48 }
n12["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/merge.svg' width='40' height='40' /></div><br/>Merge"]
n13@{ icon: "mdi:play-circle", form: "rounded", label: "Schedule Trigger", pos: "b", h: 48 }
n12 --> n3
n11 --> n9
n13 --> n0
n13 --> n1
n13 --> n2
n13 --> n10
n13 --> n11
n2 --> n8
n5 --> n12
n10 --> n7
n8 --> n12
n1 --> n6
n9 --> n12
n6 --> n12
n7 --> n12
n0 --> n5
n3 --> n4
end
%% Styling
classDef trigger fill:#e8f5e9,stroke:#388e3c,stroke-width:2px
classDef ai fill:#e3f2fd,stroke:#1976d2,stroke-width:2px
classDef aiModel fill:#e8eaf6,stroke:#3f51b5,stroke-width:2px
classDef decision fill:#fff8e1,stroke:#f9a825,stroke-width:2px
classDef database fill:#fce4ec,stroke:#c2185b,stroke-width:2px
classDef api fill:#fff3e0,stroke:#e65100,stroke-width:2px
classDef code fill:#f3e5f5,stroke:#7b1fa2,stroke-width:2px
classDef disabled stroke-dasharray: 5 5,opacity: 0.5
class n13 trigger
class n0,n1,n2,n4 database
class n3,n5,n6,n7,n8,n9 code
classDef customIcon fill:none,stroke:none
class n1,n2,n12 customIcon
Problemet: rapportering blir copy-paste-arbete
De flesta rapporteringsproblem beror inte på ”brist på data”. Tvärtom. Du har data på fem ställen, inget är format på samma sätt, och varje vecka gör du om samma upprensning: kolumnnamn matchar inte, ID:n saknas, tidsstämplar är inkonsekventa och Google Analytics-exporten linjerar aldrig med den databasvy du använde förra gången. Sedan frågar en intressent: ”Vilket tal är korrekt?” och du pausar eftersom du inte är säker på vad som filtrerades, skrevs över eller klistrades in i fel flik.
Friktionen ökar snabbt. Här är var det faller isär i praktiken:
- Manuella exporter från Google Analytics och databaser kan lätt ta cirka 2 timmar per rapporteringscykel.
- En ”hjälpsam” kolumnomdöpning i ett källark kan i tysthet förstöra hela din masterrapport.
- Utan källtaggning börjar ni diskutera datan i stället för att agera på den.
- Att rensa och standardisera fält blir ett återkommande projekt, inte en uppgift.
Lösningen: ett masterark som uppdaterar sig självt
Det här n8n-flödet körs enligt schema (tre gånger i veckan) och hämtar data från fem källor: Google Sheets, PostgreSQL, MongoDB, Microsoft SQL Server och Google Analytics. Varje dataset får en tydlig källidentifierare innan något slås ihop, så att raderna är spårbara även efter sammanslagningen. Därefter normaliserar flödet den sammanslagna datan, vilket innebär att det rensar fältnamn, linjerar format och standardiserar nyckelkolumner så att rapporten slutar kännas som ett lapptäcke. Till sist skrivs det bearbetade resultatet in i ett enda masterark i Google Sheets som blir din rapporteringshub. En plats att titta på. En plats att dela.
Flödet startar med en schemalagd trigger och samlar in dina dataset parallellt. Därefter taggar det varje ström och slår ihop allt till en struktur. Efter normalisering uppdateras det slutliga Google-arket så att du alltid har färsk, konsekvent rapporteringsdata som väntar på dig.
Det här får du: automatisering vs. resultat
| Vad det här flödet automatiserar | Resultat du får |
|---|---|
|
|
Exempel: så här ser det ut
Säg att du uppdaterar en ”masterrapport” tre gånger i veckan och hämtar från fem källor. Manuell hantering, även i lugnt tempo, tar cirka 10 minuter per källa att exportera och klistra in (50 minuter), plus ytterligare 30 minuter för att rensa kolumner och fixa avvikelser. Det är ungefär 1,5 timme per körning, eller cirka 4–5 timmar i veckan. Med det här flödet är ”arbetet” i princip schematriggern och att skriva till Google Sheets, vilket innebär att du kanske lägger 10 minuter på att granska i stället för att bygga om allt.
Det här behöver du
- n8n-instans (testa n8n Cloud gratis)
- Alternativ för egen hosting om du föredrar det (Hostinger fungerar bra)
- Google Sheets för att lagra masterarket för rapportering.
- Google Analytics för engagemangs- och trafikmätvärden.
- Databasåtkomst och inloggningsuppgifter för PostgreSQL, MongoDB och SQL Server.
Kunskapsnivå: medel. Du kopplar konton, bekräftar vilka fält som ska normaliseras och säkerställer att databasbehörigheter tillåter läsåtkomst.
Vill du inte sätta upp det här själv? Prata med en automationsexpert (kostnadsfri 15-minuters konsultation).
Så fungerar det
Ett schema drar igång allt. Flödet körs tre gånger i veckan, så rapportarket hålls uppdaterat utan att någon behöver komma ihåg att göra det.
Data hämtas från varje källa. n8n hämtar rader från Google Sheets, kör frågor mot PostgreSQL och Microsoft SQL Server, hämtar dokument från MongoDB och samlar in de senaste Google Analytics-mätvärdena.
Allt taggas och slås ihop. Varje dataset får en källidentifierare (för spårbarhet), och därefter kombineras strömmarna till ett sammanslaget dataset så att rapporteringen sker på ett ställe.
Det sammanslagna resultatet rensas och skrivs till masterarket. Ett normaliseringssteg standardiserar de viktigaste fälten, sedan uppdaterar flödet ditt slutliga Google-ark för löpande analys och delning.
Du kan enkelt justera normaliseringsreglerna så att de matchar dina egna kolumnnamn och din rapporteringsstruktur efter behov. Se hela implementationsguiden nedan för anpassningsalternativ.
Steg-för-steg-guide för implementation
Steg 1: konfigurera den schemalagda triggern
Ställ in schemat så att arbetsflödet körs automatiskt på veckobasis.
- Lägg till och öppna Scheduled Run Trigger.
- Ställ in Rule på ett veckointervall med triggerAtDay-värden
[1, 3, 5](mån, ons, fre). - Koppla Scheduled Run Trigger till 📄 Sheets Data Feed, 🐘 Postgres Data Feed, 🍃 Mongo Records Feed, Microsoft SQL Fetch och Analytics Metrics Pull.
Scheduled Run Trigger skickar utdata parallellt till 📄 Sheets Data Feed, 🐘 Postgres Data Feed, 🍃 Mongo Records Feed, Microsoft SQL Fetch och Analytics Metrics Pull.
Steg 2: anslut Google Sheets
Konfigurera både käll- och målark så att ni kan läsa och skriva data.
- Öppna 📄 Sheets Data Feed och ställ in Document ID till
[YOUR_ID]och Sheet Name tillgid=0. - Inloggning krävs: Anslut era Google Sheets-inloggningsuppgifter för 📄 Sheets Data Feed.
- Öppna 📊 Output Sheet Update och ställ in Operation till
appendOrUpdate. - Ställ in Document ID till
[YOUR_ID]och Sheet Name tillgid=0i 📊 Output Sheet Update. - Bekräfta att schemat för Columns innehåller fält som
Name,Email,CompanyochStatusför att matcha er sammanslagna utdata. - Inloggning krävs: Anslut era Google Sheets-inloggningsuppgifter för 📊 Output Sheet Update.
Steg 3: anslut databaskällor och analysflöden
Hämta data från Postgres, MongoDB, Microsoft SQL Server och Google Analytics för att skapa ett enhetligt dataset.
- Öppna 🐘 Postgres Data Feed, ställ in Operation till
select, Schema tillpublic, Table tillcustomersoch Return All tilltrue. - Inloggning krävs: Anslut era Postgres-inloggningsuppgifter för 🐘 Postgres Data Feed.
- Öppna 🍃 Mongo Records Feed, ställ in Collection till
your_collection_nameoch Limit till1000. - Inloggning krävs: Anslut era MongoDB-inloggningsuppgifter för 🍃 Mongo Records Feed.
- Öppna Microsoft SQL Fetch och ställ in Operation till
executeQuerymed QuerySELECT * FROM your_table;. - Inloggning krävs: Anslut era Microsoft SQL-inloggningsuppgifter för Microsoft SQL Fetch.
- Öppna Analytics Metrics Pull och ställ in User ID till
[YOUR_ID], View ID till[YOUR_ID]och Resource tilluserActivity. - Inloggning krävs: Anslut era Google Analytics-inloggningsuppgifter för Analytics Metrics Pull.
Steg 4: konfigurera källtaggning och logik för sammanslagning
Tagga varje källas poster och slå samman de fem dataströmmarna till ett enda kombinerat dataset.
- I varje taggningsnod (Tag Sheets Origin, Tag Postgres Origin, Tag Mongo Origin, Tag MSSQL Origin, Tag Analytics Origin), lägg till ett fält som
sourceför att identifiera ursprunget. - Bekräfta dataflödet: 📄 Sheets Data Feed → Tag Sheets Origin, 🐘 Postgres Data Feed → Tag Postgres Origin, 🍃 Mongo Records Feed → Tag Mongo Origin, Microsoft SQL Fetch → Tag MSSQL Origin, Analytics Metrics Pull → Tag Analytics Origin.
- Öppna Combine Data Streams och ställ in Number of Inputs till
5. - Koppla alla taggningsnoder till Combine Data Streams för att slå samman de fem strömmarna.
Sheets, Postgres, Mongo, MSSQL, Analytics) så att nedströms normalisering kan förlita sig på ett och samma fält.Steg 5: konfigurera Normalize Combined Data
Standardisera fält mellan källorna så att utdatabladet får ett rent, enhetligt schema.
- Öppna ⚙️ Normalize Combined Data och mappa inkommande poster till utdatats schema (t.ex. normalisera fälten
name,emailochcompany). - Säkerställ att ⚙️ Normalize Combined Data skickar ut fält som matchar kolumnerna som definieras i 📊 Output Sheet Update.
- Verifiera att kopplingen från Combine Data Streams till ⚙️ Normalize Combined Data är intakt.
Steg 6: konfigurera uppdatering av utdata
Skriv den normaliserade datan till ert Google Sheet för mål.
- Bekräfta att ⚙️ Normalize Combined Data är kopplad till 📊 Output Sheet Update.
- I 📊 Output Sheet Update, verifiera att Operation är
appendOrUpdateså att befintliga poster kan uppdateras utan duplicering. - Granska utdatamappningen så att varje normaliserat fält ligger mot rätt utkolumn.
Steg 7: testa och aktivera ert arbetsflöde
Validera varje gren och aktivera sedan schemalagd körning för användning i produktion.
- Klicka på Execute Workflow för att köra ett manuellt test från Scheduled Run Trigger.
- Bekräfta att varje källnod returnerar data och att Combine Data Streams tar emot fem inputs.
- Verifiera att 📊 Output Sheet Update skriver rader till målarket med förväntade fält ifyllda.
- När allt fungerar, växla arbetsflödet till Active för att aktivera schemalagda körningar.
Vanliga fallgropar
- Google Analytics-inloggningar kan gå ut eller kräva specifika behörigheter. Om något slutar fungera, kontrollera det kopplade kontot i n8n-credentials och bekräfta först åtkomst till GA-egendomen.
- Om du använder Wait-noder eller extern rendering varierar processtiderna. Öka väntetiden om efterföljande noder misslyckas på grund av tomma svar.
- Standardprompter i AI-noder är generiska. Lägg in er tonalitet tidigt, annars kommer du att sitta och redigera utdata för alltid.
Vanliga frågor
Cirka 45 minuter om du redan har databas- och Google-åtkomst på plats.
Nej. Du kopplar mestadels konton och mappar fält. Den enda ”tekniska” delen är att bekräfta vad dina normaliserade kolumner ska heta.
Ja. n8n har ett gratis alternativ för egen hosting och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna in kostnader för databas-hosting och eventuella Google Analytics-begränsningar du kan stöta på för din egendom.
Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller egen hosting på en VPS. För egen hosting är Hostinger VPS prisvärt och hanterar n8n bra. Egen hosting ger dig obegränsat antal körningar men kräver grundläggande serveradministration.
Ja, det är en vanlig justering. Ändra schematriggern till dagligen eller veckovis och justera sedan datumintervallet i Google Analytics i steget Analytics Metrics Pull så att du inte dubbelräknar perioder. Många team anpassar också normaliseringssteget för att matcha sina namngivningskonventioner, som ”utm_source” kontra ”source”, och för att tvinga fram ett enhetligt tidsstämpelformat.
Oftast beror det på fel behörigheter för egendomen eller en utgången OAuth-anslutning i n8n. Anslut Google Analytics-credential igen och bekräfta sedan att du har åtkomst till den specifika GA-egendom som noden hämtar från. Om det bara faller på större hämtningar kan du slå i rate limits, så minska datumintervallet eller hämta färre dimensioner åt gången.
Många, men Google Sheets blir ditt praktiska tak.
Ofta, ja, eftersom sammanslagningar från flera källor och normaliseringslogik snabbt blir rörigt (och dyrt) i verktyg som är byggda för enkla punkt-till-punkt-zaps. n8n är bekvämt med att förgrena, slå ihop och transformera data i ett och samma flöde, och egen hosting tar bort körningspress när du skalar. En annan stor grej är spårbarhet: att tagga varje dataset före sammanslagningen är enkelt att hålla hårt på i n8n, så du behåller revisionsbarhet när allt ligger i ett ark. Zapier och Make kan fortfarande fungera om du bara har två källor och inte bryr dig så mycket om schemakonsistens. Vill du ha hjälp att välja, prata med en automationsexpert.
När det här väl rullar blir masterarket standardsvaret. Du lägger tiden på att tolka siffror, inte på att sammanställa dem.
Kontakta oss
Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.